hc
2024-11-01 2f529f9b558ca1c1bd74be7437a84e4711743404
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
/* SPDX-License-Identifier: GPL-2.0-only */
/*
 * Copyright (C) 2012 ARM Ltd.
 */
#ifndef __ASM_IRQFLAGS_H
#define __ASM_IRQFLAGS_H
 
#include <asm/alternative.h>
#include <asm/barrier.h>
#include <asm/ptrace.h>
#include <asm/sysreg.h>
 
#define IRQMASK_I_BIT    PSR_I_BIT
#define IRQMASK_I_POS    7
#define IRQMASK_i_POS    31
 
/*
 * Aarch64 has flags for masking: Debug, Asynchronous (serror), Interrupts and
 * FIQ exceptions, in the 'daif' register. We mask and unmask them in 'dai'
 * order:
 * Masking debug exceptions causes all other exceptions to be masked too/
 * Masking SError masks irq, but not debug exceptions. Masking irqs has no
 * side effects for other flags. Keeping to this order makes it easier for
 * entry.S to know which exceptions should be unmasked.
 *
 * FIQ is never expected, but we mask it when we disable debug exceptions, and
 * unmask it at all other times.
 */
 
/*
 * CPU interrupt mask handling.
 */
static inline void native_irq_enable(void)
{
   if (system_has_prio_mask_debugging()) {
       u32 pmr = read_sysreg_s(SYS_ICC_PMR_EL1);
 
       WARN_ON_ONCE(pmr != GIC_PRIO_IRQON && pmr != GIC_PRIO_IRQOFF);
   }
 
   asm volatile(ALTERNATIVE(
       "msr    daifclr, #2        // native_irq_enable",
       __msr_s(SYS_ICC_PMR_EL1, "%0"),
       ARM64_HAS_IRQ_PRIO_MASKING)
       :
       : "r" ((unsigned long) GIC_PRIO_IRQON)
       : "memory");
 
   pmr_sync();
}
 
static inline void native_irq_disable(void)
{
   if (system_has_prio_mask_debugging()) {
       u32 pmr = read_sysreg_s(SYS_ICC_PMR_EL1);
 
       WARN_ON_ONCE(pmr != GIC_PRIO_IRQON && pmr != GIC_PRIO_IRQOFF);
   }
 
   asm volatile(ALTERNATIVE(
       "msr    daifset, #2        // native_irq_disable",
       __msr_s(SYS_ICC_PMR_EL1, "%0"),
       ARM64_HAS_IRQ_PRIO_MASKING)
       :
       : "r" ((unsigned long) GIC_PRIO_IRQOFF)
       : "memory");
}
 
static inline void native_irq_sync(void)
{
   native_irq_enable();
   isb();
   native_irq_disable();
}
 
/*
 * Save the current interrupt enable state.
 */
static inline unsigned long native_save_flags(void)
{
   unsigned long flags;
 
   asm volatile(ALTERNATIVE(
       "mrs    %0, daif",
       __mrs_s("%0", SYS_ICC_PMR_EL1),
       ARM64_HAS_IRQ_PRIO_MASKING)
       : "=&r" (flags)
       :
       : "memory");
 
   return flags;
}
 
static inline int native_irqs_disabled_flags(unsigned long flags)
{
   int res;
 
   asm volatile(ALTERNATIVE(
       "and    %w0, %w1, #" __stringify(PSR_I_BIT),
       "eor    %w0, %w1, #" __stringify(GIC_PRIO_IRQON),
       ARM64_HAS_IRQ_PRIO_MASKING)
       : "=&r" (res)
       : "r" ((int) flags)
       : "memory");
 
   return res;
}
 
static inline unsigned long native_irq_save(void)
{
   unsigned long flags;
 
   flags = native_save_flags();
 
   /*
    * There are too many states with IRQs disabled, just keep the current
    * state if interrupts are already disabled/masked.
    */
   if (!native_irqs_disabled_flags(flags))
       native_irq_disable();
 
   return flags;
}
 
/*
 * restore saved IRQ state
 */
static inline void native_irq_restore(unsigned long flags)
{
   asm volatile(ALTERNATIVE(
       "msr    daif, %0",
       __msr_s(SYS_ICC_PMR_EL1, "%0"),
       ARM64_HAS_IRQ_PRIO_MASKING)
       :
       : "r" (flags)
       : "memory");
 
   pmr_sync();
}
 
static inline bool native_irqs_disabled(void)
{
   unsigned long flags = native_save_flags();
   return native_irqs_disabled_flags(flags);
}
 
#include <asm/irq_pipeline.h>
 
#endif /* __ASM_IRQFLAGS_H */