hc
2023-11-22 9ca5fbcb63a8dcaee0527f96afb91dc4b4bd8fa9
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
#ifndef __LINUX_RWLOCK_TYPES_RT_H
#define __LINUX_RWLOCK_TYPES_RT_H
 
#ifndef __LINUX_SPINLOCK_TYPES_H
#error "Do not include directly. Include spinlock_types.h instead"
#endif
 
#ifdef CONFIG_DEBUG_LOCK_ALLOC
# define RW_DEP_MAP_INIT(lockname)    .dep_map = { .name = #lockname }
#else
# define RW_DEP_MAP_INIT(lockname)
#endif
 
typedef struct rt_rw_lock rwlock_t;
 
#define __RW_LOCK_UNLOCKED(name) __RWLOCK_RT_INITIALIZER(name)
 
#define DEFINE_RWLOCK(name) \
   rwlock_t name = __RW_LOCK_UNLOCKED(name)
 
/*
 * A reader biased implementation primarily for CPU pinning.
 *
 * Can be selected as general replacement for the single reader RT rwlock
 * variant
 */
struct rt_rw_lock {
   struct rt_mutex        rtmutex;
   atomic_t        readers;
#ifdef CONFIG_DEBUG_LOCK_ALLOC
   struct lockdep_map    dep_map;
#endif
};
 
#define READER_BIAS    (1U << 31)
#define WRITER_BIAS    (1U << 30)
 
#define __RWLOCK_RT_INITIALIZER(name)                    \
{                                    \
   .readers = ATOMIC_INIT(READER_BIAS),                \
   .rtmutex = __RT_MUTEX_INITIALIZER_SAVE_STATE(name.rtmutex),    \
   RW_DEP_MAP_INIT(name)                        \
}
 
void __rwlock_biased_rt_init(struct rt_rw_lock *lock, const char *name,
                struct lock_class_key *key);
 
#define rwlock_biased_rt_init(rwlock)                    \
   do {                                \
       static struct lock_class_key __key;            \
                                   \
       __rwlock_biased_rt_init((rwlock), #rwlock, &__key);    \
   } while (0)
 
#endif