hc
2023-11-06 e3e12f52b214121840b44c91de5b3e5af5d3eb84
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
#ifndef __ASM_X86_REFCOUNT_H
#define __ASM_X86_REFCOUNT_H
/*
 * x86-specific implementation of refcount_t. Based on PAX_REFCOUNT from
 * PaX/grsecurity.
 */
#include <linux/refcount.h>
#include <asm/bug.h>
 
/*
 * This is the first portion of the refcount error handling, which lives in
 * .text.unlikely, and is jumped to from the CPU flag check (in the
 * following macros). This saves the refcount value location into CX for
 * the exception handler to use (in mm/extable.c), and then triggers the
 * central refcount exception. The fixup address for the exception points
 * back to the regular execution flow in .text.
 */
#define _REFCOUNT_EXCEPTION                \
   ".pushsection .text..refcount\n"        \
   "111:\tlea %[counter], %%" _ASM_CX "\n"        \
   "112:\t" ASM_UD2 "\n"                \
   ASM_UNREACHABLE                    \
   ".popsection\n"                    \
   "113:\n"                    \
   _ASM_EXTABLE_REFCOUNT(112b, 113b)
 
/* Trigger refcount exception if refcount result is negative. */
#define REFCOUNT_CHECK_LT_ZERO                \
   "js 111f\n\t"                    \
   _REFCOUNT_EXCEPTION
 
/* Trigger refcount exception if refcount result is zero or negative. */
#define REFCOUNT_CHECK_LE_ZERO                \
   "jz 111f\n\t"                    \
   REFCOUNT_CHECK_LT_ZERO
 
/* Trigger refcount exception unconditionally. */
#define REFCOUNT_ERROR                    \
   "jmp 111f\n\t"                    \
   _REFCOUNT_EXCEPTION
 
static __always_inline void refcount_add(unsigned int i, refcount_t *r)
{
   asm volatile(LOCK_PREFIX "addl %1,%0\n\t"
       REFCOUNT_CHECK_LT_ZERO
       : [counter] "+m" (r->refs.counter)
       : "ir" (i)
       : "cc", "cx");
}
 
static __always_inline void refcount_inc(refcount_t *r)
{
   asm volatile(LOCK_PREFIX "incl %0\n\t"
       REFCOUNT_CHECK_LT_ZERO
       : [counter] "+m" (r->refs.counter)
       : : "cc", "cx");
}
 
static __always_inline void refcount_dec(refcount_t *r)
{
   asm volatile(LOCK_PREFIX "decl %0\n\t"
       REFCOUNT_CHECK_LE_ZERO
       : [counter] "+m" (r->refs.counter)
       : : "cc", "cx");
}
 
static __always_inline __must_check
bool refcount_sub_and_test(unsigned int i, refcount_t *r)
{
   GEN_BINARY_SUFFIXED_RMWcc(LOCK_PREFIX "subl", REFCOUNT_CHECK_LT_ZERO,
                 r->refs.counter, "er", i, "%0", e, "cx");
}
 
static __always_inline __must_check bool refcount_dec_and_test(refcount_t *r)
{
   GEN_UNARY_SUFFIXED_RMWcc(LOCK_PREFIX "decl", REFCOUNT_CHECK_LT_ZERO,
                r->refs.counter, "%0", e, "cx");
}
 
static __always_inline __must_check
bool refcount_add_not_zero(unsigned int i, refcount_t *r)
{
   int c, result;
 
   c = atomic_read(&(r->refs));
   do {
       if (unlikely(c == 0))
           return false;
 
       result = c + i;
 
       /* Did we try to increment from/to an undesirable state? */
       if (unlikely(c < 0 || c == INT_MAX || result < c)) {
           asm volatile(REFCOUNT_ERROR
                    : : [counter] "m" (r->refs.counter)
                    : "cc", "cx");
           break;
       }
 
   } while (!atomic_try_cmpxchg(&(r->refs), &c, result));
 
   return c != 0;
}
 
static __always_inline __must_check bool refcount_inc_not_zero(refcount_t *r)
{
   return refcount_add_not_zero(1, r);
}
 
#endif