hc
2023-12-09 b22da3d8526a935aa31e086e63f60ff3246cb61c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
From 3334dd4e9fc34c79c3925c3c24869939d8955f21 Mon Sep 17 00:00:00 2001
From: Rosen Penev <rosenp@gmail.com>
Date: Sat, 18 Jul 2020 12:16:00 -0700
Subject: [PATCH] hwaccess: use __asm__ as is done elsewhere
 
Fixes compilation under powerpc platform. Made the change for the SPARC
platform as well.
 
../hwaccess.c: In function 'sync_primitive':
../hwaccess.c:74:2: warning: implicit declaration of function 'asm'
 [-Wimplicit-function-declaration]
   74 |  asm("eieio" : : : "memory");
      |  ^~~
../hwaccess.c:74:13: error: expected ')' before ':' token
   74 |  asm("eieio" : : : "memory");
 
Upstream-Status: Submitted [https://github.com/flashrom/flashrom/pull/155]
Signed-off-by: Rosen Penev <rosenp@gmail.com>
Signed-off-by: Khem Raj <raj.khem@gmail.com>
---
 hwaccess.c | 6 +++---
 1 file changed, 3 insertions(+), 3 deletions(-)
 
diff --git a/hwaccess.c b/hwaccess.c
index 48ccb34..2a39989 100644
--- a/hwaccess.c
+++ b/hwaccess.c
@@ -71,18 +71,18 @@ static inline void sync_primitive(void)
  * See also https://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/tree/Documentation/memory-barriers.txt
  */
 #if IS_PPC // cf. http://lxr.free-electrons.com/source/arch/powerpc/include/asm/barrier.h
-    asm("eieio" : : : "memory");
+    __asm__ ("eieio" : : : "memory");
 #elif IS_SPARC
 #if defined(__sparc_v9__) || defined(__sparcv9)
     /* Sparc V9 CPUs support three different memory orderings that range from x86-like TSO to PowerPC-like
      * RMO. The modes can be switched at runtime thus to make sure we maintain the right order of access we
      * use the strongest hardware memory barriers that exist on Sparc V9. */
-    asm volatile ("membar #Sync" ::: "memory");
+    __asm__ volatile ("membar #Sync" ::: "memory");
 #elif defined(__sparc_v8__) || defined(__sparcv8)
     /* On SPARC V8 there is no RMO just PSO and that does not apply to I/O accesses... but if V8 code is run
      * on V9 CPUs it might apply... or not... we issue a write barrier anyway. That's the most suitable
      * operation in the V8 instruction set anyway. If you know better then please tell us. */
-    asm volatile ("stbar");
+    __asm__ volatile ("stbar");
 #else
     #error Unknown and/or unsupported SPARC instruction set version detected.
 #endif
-- 
2.32.0