hc
2024-05-10 23fa18eaa71266feff7ba8d83022d9e1cc83c65a
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef __ARCH_H8300_ATOMIC__
#define __ARCH_H8300_ATOMIC__
 
#include <linux/compiler.h>
#include <linux/types.h>
#include <asm/cmpxchg.h>
#include <asm/irqflags.h>
 
/*
 * Atomic operations that C can't guarantee us.  Useful for
 * resource counting etc..
 */
 
#define atomic_read(v)        READ_ONCE((v)->counter)
#define atomic_set(v, i)    WRITE_ONCE(((v)->counter), (i))
 
#define ATOMIC_OP_RETURN(op, c_op)                \
static inline int atomic_##op##_return(int i, atomic_t *v)    \
{                                \
   h8300flags flags;                    \
   int ret;                        \
                               \
   flags = arch_local_irq_save();                \
   ret = v->counter c_op i;                \
   arch_local_irq_restore(flags);                \
   return ret;                        \
}
 
#define ATOMIC_FETCH_OP(op, c_op)                \
static inline int atomic_fetch_##op(int i, atomic_t *v)        \
{                                \
   h8300flags flags;                    \
   int ret;                        \
                               \
   flags = arch_local_irq_save();                \
   ret = v->counter;                    \
   v->counter c_op i;                    \
   arch_local_irq_restore(flags);                \
   return ret;                        \
}
 
#define ATOMIC_OP(op, c_op)                    \
static inline void atomic_##op(int i, atomic_t *v)        \
{                                \
   h8300flags flags;                    \
                               \
   flags = arch_local_irq_save();                \
   v->counter c_op i;                    \
   arch_local_irq_restore(flags);                \
}
 
ATOMIC_OP_RETURN(add, +=)
ATOMIC_OP_RETURN(sub, -=)
 
#define ATOMIC_OPS(op, c_op)                    \
   ATOMIC_OP(op, c_op)                    \
   ATOMIC_FETCH_OP(op, c_op)
 
ATOMIC_OPS(and, &=)
ATOMIC_OPS(or,  |=)
ATOMIC_OPS(xor, ^=)
ATOMIC_OPS(add, +=)
ATOMIC_OPS(sub, -=)
 
#undef ATOMIC_OPS
#undef ATOMIC_OP_RETURN
#undef ATOMIC_OP
 
static inline int atomic_cmpxchg(atomic_t *v, int old, int new)
{
   int ret;
   h8300flags flags;
 
   flags = arch_local_irq_save();
   ret = v->counter;
   if (likely(ret == old))
       v->counter = new;
   arch_local_irq_restore(flags);
   return ret;
}
 
static inline int atomic_fetch_add_unless(atomic_t *v, int a, int u)
{
   int ret;
   h8300flags flags;
 
   flags = arch_local_irq_save();
   ret = v->counter;
   if (ret != u)
       v->counter += a;
   arch_local_irq_restore(flags);
   return ret;
}
#define atomic_fetch_add_unless        atomic_fetch_add_unless
 
#endif /* __ARCH_H8300_ATOMIC __ */