hc
2023-02-13 e440ec23c5a540cdd3f7464e8779219be6fd3d95
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef ASM_EDAC_H
#define ASM_EDAC_H
 
#include <asm/compiler.h>
 
/* ECC atomic, DMA, SMP and interrupt safe scrub function */
 
static inline void edac_atomic_scrub(void *va, u32 size)
{
   unsigned long *virt_addr = va;
   unsigned long temp;
   u32 i;
 
   for (i = 0; i < size / sizeof(unsigned long); i++) {
       /*
        * Very carefully read and write to memory atomically
        * so we are interrupt, DMA and SMP safe.
        *
        * Intel: asm("lock; addl $0, %0"::"m"(*virt_addr));
        */
 
       __asm__ __volatile__ (
       "    .set    mips2                    \n"
       "1:    ll    %0, %1        # edac_atomic_scrub    \n"
       "    addu    %0, $0                    \n"
       "    sc    %0, %1                    \n"
       "    beqz    %0, 1b                    \n"
       "    .set    mips0                    \n"
       : "=&r" (temp), "=" GCC_OFF_SMALL_ASM() (*virt_addr)
       : GCC_OFF_SMALL_ASM() (*virt_addr));
 
       virt_addr++;
   }
}
 
#endif