liyujie
2025-08-28 b3810562527858a3b3d98ffa6e9c9c5b0f4a9a8e
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
#define    JEMALLOC_BITMAP_C_
#include "jemalloc/internal/jemalloc_internal.h"
 
/******************************************************************************/
 
#ifdef USE_TREE
 
void
bitmap_info_init(bitmap_info_t *binfo, size_t nbits)
{
   unsigned i;
   size_t group_count;
 
   assert(nbits > 0);
   assert(nbits <= (ZU(1) << LG_BITMAP_MAXBITS));
 
   /*
    * Compute the number of groups necessary to store nbits bits, and
    * progressively work upward through the levels until reaching a level
    * that requires only one group.
    */
   binfo->levels[0].group_offset = 0;
   group_count = BITMAP_BITS2GROUPS(nbits);
   for (i = 1; group_count > 1; i++) {
       assert(i < BITMAP_MAX_LEVELS);
       binfo->levels[i].group_offset = binfo->levels[i-1].group_offset
           + group_count;
       group_count = BITMAP_BITS2GROUPS(group_count);
   }
   binfo->levels[i].group_offset = binfo->levels[i-1].group_offset
       + group_count;
   assert(binfo->levels[i].group_offset <= BITMAP_GROUPS_MAX);
   binfo->nlevels = i;
   binfo->nbits = nbits;
}
 
static size_t
bitmap_info_ngroups(const bitmap_info_t *binfo)
{
 
   return (binfo->levels[binfo->nlevels].group_offset);
}
 
void
bitmap_init(bitmap_t *bitmap, const bitmap_info_t *binfo)
{
   size_t extra;
   unsigned i;
 
   /*
    * Bits are actually inverted with regard to the external bitmap
    * interface, so the bitmap starts out with all 1 bits, except for
    * trailing unused bits (if any).  Note that each group uses bit 0 to
    * correspond to the first logical bit in the group, so extra bits
    * are the most significant bits of the last group.
    */
   memset(bitmap, 0xffU, bitmap_size(binfo));
   extra = (BITMAP_GROUP_NBITS - (binfo->nbits & BITMAP_GROUP_NBITS_MASK))
       & BITMAP_GROUP_NBITS_MASK;
   if (extra != 0)
       bitmap[binfo->levels[1].group_offset - 1] >>= extra;
   for (i = 1; i < binfo->nlevels; i++) {
       size_t group_count = binfo->levels[i].group_offset -
           binfo->levels[i-1].group_offset;
       extra = (BITMAP_GROUP_NBITS - (group_count &
           BITMAP_GROUP_NBITS_MASK)) & BITMAP_GROUP_NBITS_MASK;
       if (extra != 0)
           bitmap[binfo->levels[i+1].group_offset - 1] >>= extra;
   }
}
 
#else /* USE_TREE */
 
void
bitmap_info_init(bitmap_info_t *binfo, size_t nbits)
{
 
   assert(nbits > 0);
   assert(nbits <= (ZU(1) << LG_BITMAP_MAXBITS));
 
   binfo->ngroups = BITMAP_BITS2GROUPS(nbits);
   binfo->nbits = nbits;
}
 
static size_t
bitmap_info_ngroups(const bitmap_info_t *binfo)
{
 
   return (binfo->ngroups);
}
 
void
bitmap_init(bitmap_t *bitmap, const bitmap_info_t *binfo)
{
   size_t extra;
 
   memset(bitmap, 0xffU, bitmap_size(binfo));
   extra = (BITMAP_GROUP_NBITS - (binfo->nbits & BITMAP_GROUP_NBITS_MASK))
       & BITMAP_GROUP_NBITS_MASK;
   if (extra != 0)
       bitmap[binfo->ngroups - 1] >>= extra;
}
 
#endif /* USE_TREE */
 
size_t
bitmap_size(const bitmap_info_t *binfo)
{
 
   return (bitmap_info_ngroups(binfo) << LG_SIZEOF_BITMAP);
}