hc
2023-12-11 6778948f9de86c3cfaf36725a7c87dcff9ba247f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
/* SPDX-License-Identifier: GPL-2.0-only */
/*
 * xchg/cmpxchg operations for the Hexagon architecture
 *
 * Copyright (c) 2010-2011, The Linux Foundation. All rights reserved.
 */
 
#ifndef _ASM_CMPXCHG_H
#define _ASM_CMPXCHG_H
 
/*
 * __xchg - atomically exchange a register and a memory location
 * @x: value to swap
 * @ptr: pointer to memory
 * @size:  size of the value
 *
 * Only 4 bytes supported currently.
 *
 * Note:  there was an errata for V2 about .new's and memw_locked.
 *
 */
static inline unsigned long __xchg(unsigned long x, volatile void *ptr,
                  int size)
{
   unsigned long retval;
 
   /*  Can't seem to use printk or panic here, so just stop  */
   if (size != 4) do { asm volatile("brkpt;\n"); } while (1);
 
   __asm__ __volatile__ (
   "1:    %0 = memw_locked(%1);\n"    /*  load into retval */
   "    memw_locked(%1,P0) = %2;\n" /*  store into memory */
   "    if (!P0) jump 1b;\n"
   : "=&r" (retval)
   : "r" (ptr), "r" (x)
   : "memory", "p0"
   );
   return retval;
}
 
/*
 * Atomically swap the contents of a register with memory.  Should be atomic
 * between multiple CPU's and within interrupts on the same CPU.
 */
#define xchg(ptr, v) ((__typeof__(*(ptr)))__xchg((unsigned long)(v), (ptr), \
   sizeof(*(ptr))))
 
/*
 *  see rt-mutex-design.txt; cmpxchg supposedly checks if *ptr == A and swaps.
 *  looks just like atomic_cmpxchg on our arch currently with a bunch of
 *  variable casting.
 */
 
#define cmpxchg(ptr, old, new)                    \
({                                \
   __typeof__(ptr) __ptr = (ptr);                \
   __typeof__(*(ptr)) __old = (old);            \
   __typeof__(*(ptr)) __new = (new);            \
   __typeof__(*(ptr)) __oldval = 0;            \
                               \
   asm volatile(                        \
       "1:    %0 = memw_locked(%1);\n"        \
       "    { P0 = cmp.eq(%0,%2);\n"        \
       "      if (!P0.new) jump:nt 2f; }\n"        \
       "    memw_locked(%1,p0) = %3;\n"        \
       "    if (!P0) jump 1b;\n"            \
       "2:\n"                        \
       : "=&r" (__oldval)                \
       : "r" (__ptr), "r" (__old), "r" (__new)        \
       : "memory", "p0"                \
   );                            \
   __oldval;                        \
})
 
#endif /* _ASM_CMPXCHG_H */