hc
2024-12-19 9370bb92b2d16684ee45cf24e879c93c509162da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
/*
 * Copyright (C) 2014 Stefan Kristiansson <stefan.kristiansson@saunalahti.fi>
 *
 * This file is licensed under the terms of the GNU General Public License
 * version 2.  This program is licensed "as is" without any warranty of any
 * kind, whether express or implied.
 */
 
#ifndef __ASM_OPENRISC_ATOMIC_H
#define __ASM_OPENRISC_ATOMIC_H
 
#include <linux/types.h>
 
/* Atomically perform op with v->counter and i */
#define ATOMIC_OP(op)                            \
static inline void atomic_##op(int i, atomic_t *v)            \
{                                    \
   int tmp;                            \
                                   \
   __asm__ __volatile__(                        \
       "1:    l.lwa    %0,0(%1)    \n"            \
       "    l." #op " %0,%0,%2    \n"            \
       "    l.swa    0(%1),%0    \n"            \
       "    l.bnf    1b        \n"            \
       "     l.nop            \n"            \
       : "=&r"(tmp)                        \
       : "r"(&v->counter), "r"(i)                \
       : "cc", "memory");                    \
}
 
/* Atomically perform op with v->counter and i, return the result */
#define ATOMIC_OP_RETURN(op)                        \
static inline int atomic_##op##_return(int i, atomic_t *v)        \
{                                    \
   int tmp;                            \
                                   \
   __asm__ __volatile__(                        \
       "1:    l.lwa    %0,0(%1)    \n"            \
       "    l." #op " %0,%0,%2    \n"            \
       "    l.swa    0(%1),%0    \n"            \
       "    l.bnf    1b        \n"            \
       "     l.nop            \n"            \
       : "=&r"(tmp)                        \
       : "r"(&v->counter), "r"(i)                \
       : "cc", "memory");                    \
                                   \
   return tmp;                            \
}
 
/* Atomically perform op with v->counter and i, return orig v->counter */
#define ATOMIC_FETCH_OP(op)                        \
static inline int atomic_fetch_##op(int i, atomic_t *v)            \
{                                    \
   int tmp, old;                            \
                                   \
   __asm__ __volatile__(                        \
       "1:    l.lwa    %0,0(%2)    \n"            \
       "    l." #op " %1,%0,%3    \n"            \
       "    l.swa    0(%2),%1    \n"            \
       "    l.bnf    1b        \n"            \
       "     l.nop            \n"            \
       : "=&r"(old), "=&r"(tmp)                \
       : "r"(&v->counter), "r"(i)                \
       : "cc", "memory");                    \
                                   \
   return old;                            \
}
 
ATOMIC_OP_RETURN(add)
ATOMIC_OP_RETURN(sub)
 
ATOMIC_FETCH_OP(add)
ATOMIC_FETCH_OP(sub)
ATOMIC_FETCH_OP(and)
ATOMIC_FETCH_OP(or)
ATOMIC_FETCH_OP(xor)
 
ATOMIC_OP(and)
ATOMIC_OP(or)
ATOMIC_OP(xor)
 
#undef ATOMIC_FETCH_OP
#undef ATOMIC_OP_RETURN
#undef ATOMIC_OP
 
#define atomic_add_return    atomic_add_return
#define atomic_sub_return    atomic_sub_return
#define atomic_fetch_add    atomic_fetch_add
#define atomic_fetch_sub    atomic_fetch_sub
#define atomic_fetch_and    atomic_fetch_and
#define atomic_fetch_or        atomic_fetch_or
#define atomic_fetch_xor    atomic_fetch_xor
#define atomic_and    atomic_and
#define atomic_or    atomic_or
#define atomic_xor    atomic_xor
 
/*
 * Atomically add a to v->counter as long as v is not already u.
 * Returns the original value at v->counter.
 *
 * This is often used through atomic_inc_not_zero()
 */
static inline int atomic_fetch_add_unless(atomic_t *v, int a, int u)
{
   int old, tmp;
 
   __asm__ __volatile__(
       "1:    l.lwa %0, 0(%2)        \n"
       "    l.sfeq %0, %4        \n"
       "    l.bf 2f            \n"
       "     l.add %1, %0, %3    \n"
       "    l.swa 0(%2), %1        \n"
       "    l.bnf 1b        \n"
       "     l.nop            \n"
       "2:                \n"
       : "=&r"(old), "=&r" (tmp)
       : "r"(&v->counter), "r"(a), "r"(u)
       : "cc", "memory");
 
   return old;
}
#define atomic_fetch_add_unless    atomic_fetch_add_unless
 
#include <asm-generic/atomic.h>
 
#endif /* __ASM_OPENRISC_ATOMIC_H */