hc
2024-05-10 10ebd8556b7990499c896a550e3d416b444211e6
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef __ASM_SH_CMPXCHG_GRB_H
#define __ASM_SH_CMPXCHG_GRB_H
 
static inline unsigned long xchg_u32(volatile u32 *m, unsigned long val)
{
   unsigned long retval;
 
   __asm__ __volatile__ (
       "   .align 2              \n\t"
       "   mova    1f,   r0      \n\t" /* r0 = end point */
       "   nop                   \n\t"
       "   mov    r15,   r1      \n\t" /* r1 = saved sp */
       "   mov    #-4,   r15     \n\t" /* LOGIN */
       "   mov.l  @%1,   %0      \n\t" /* load  old value */
       "   mov.l   %2,   @%1     \n\t" /* store new value */
       "1: mov     r1,   r15     \n\t" /* LOGOUT */
       : "=&r" (retval),
         "+r"  (m),
         "+r"  (val)        /* inhibit r15 overloading */
       :
       : "memory", "r0", "r1");
 
   return retval;
}
 
static inline unsigned long xchg_u16(volatile u16 *m, unsigned long val)
{
   unsigned long retval;
 
   __asm__ __volatile__ (
       "   .align  2             \n\t"
       "   mova    1f,   r0      \n\t" /* r0 = end point */
       "   mov    r15,   r1      \n\t" /* r1 = saved sp */
       "   mov    #-6,   r15     \n\t" /* LOGIN */
       "   mov.w  @%1,   %0      \n\t" /* load  old value */
       "   extu.w  %0,   %0      \n\t" /* extend as unsigned */
       "   mov.w   %2,   @%1     \n\t" /* store new value */
       "1: mov     r1,   r15     \n\t" /* LOGOUT */
       : "=&r" (retval),
         "+r"  (m),
         "+r"  (val)        /* inhibit r15 overloading */
       :
       : "memory" , "r0", "r1");
 
   return retval;
}
 
static inline unsigned long xchg_u8(volatile u8 *m, unsigned long val)
{
   unsigned long retval;
 
   __asm__ __volatile__ (
       "   .align  2             \n\t"
       "   mova    1f,   r0      \n\t" /* r0 = end point */
       "   mov    r15,   r1      \n\t" /* r1 = saved sp */
       "   mov    #-6,   r15     \n\t" /* LOGIN */
       "   mov.b  @%1,   %0      \n\t" /* load  old value */
       "   extu.b  %0,   %0      \n\t" /* extend as unsigned */
       "   mov.b   %2,   @%1     \n\t" /* store new value */
       "1: mov     r1,   r15     \n\t" /* LOGOUT */
       : "=&r" (retval),
         "+r"  (m),
         "+r"  (val)        /* inhibit r15 overloading */
       :
       : "memory" , "r0", "r1");
 
   return retval;
}
 
static inline unsigned long __cmpxchg_u32(volatile int *m, unsigned long old,
                     unsigned long new)
{
   unsigned long retval;
 
   __asm__ __volatile__ (
       "   .align  2             \n\t"
       "   mova    1f,   r0      \n\t" /* r0 = end point */
       "   nop                   \n\t"
       "   mov    r15,   r1      \n\t" /* r1 = saved sp */
       "   mov    #-8,   r15     \n\t" /* LOGIN */
       "   mov.l  @%3,   %0      \n\t" /* load  old value */
       "   cmp/eq  %0,   %1      \n\t"
       "   bf            1f      \n\t" /* if not equal */
       "   mov.l   %2,   @%3     \n\t" /* store new value */
       "1: mov     r1,   r15     \n\t" /* LOGOUT */
       : "=&r" (retval),
         "+r"  (old), "+r"  (new) /* old or new can be r15 */
       :  "r"  (m)
       : "memory" , "r0", "r1", "t");
 
   return retval;
}
 
#endif /* __ASM_SH_CMPXCHG_GRB_H */