hc
2023-02-13 e440ec23c5a540cdd3f7464e8779219be6fd3d95
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef LINUX_HARDIRQ_H
#define LINUX_HARDIRQ_H
 
#include <linux/preempt.h>
#include <linux/lockdep.h>
#include <linux/ftrace_irq.h>
#include <linux/vtime.h>
#include <asm/hardirq.h>
 
 
extern void synchronize_irq(unsigned int irq);
extern bool synchronize_hardirq(unsigned int irq);
 
#if defined(CONFIG_TINY_RCU)
 
static inline void rcu_nmi_enter(void)
{
}
 
static inline void rcu_nmi_exit(void)
{
}
 
#else
extern void rcu_nmi_enter(void);
extern void rcu_nmi_exit(void);
#endif
 
/*
 * It is safe to do non-atomic ops on ->hardirq_context,
 * because NMI handlers may not preempt and the ops are
 * always balanced, so the interrupted value of ->hardirq_context
 * will always be restored.
 */
#define __irq_enter()                    \
   do {                        \
       account_irq_enter_time(current);    \
       preempt_count_add(HARDIRQ_OFFSET);    \
       trace_hardirq_enter();            \
   } while (0)
 
/*
 * Enter irq context (on NO_HZ, update jiffies):
 */
extern void irq_enter(void);
 
/*
 * Exit irq context without processing softirqs:
 */
#define __irq_exit()                    \
   do {                        \
       trace_hardirq_exit();            \
       account_irq_exit_time(current);        \
       preempt_count_sub(HARDIRQ_OFFSET);    \
   } while (0)
 
/*
 * Exit irq context and process softirqs if needed:
 */
extern void irq_exit(void);
 
#ifndef arch_nmi_enter
#define arch_nmi_enter()    do { } while (0)
#define arch_nmi_exit()        do { } while (0)
#endif
 
#define nmi_enter()                        \
   do {                            \
       arch_nmi_enter();                \
       printk_nmi_enter();                \
       lockdep_off();                    \
       ftrace_nmi_enter();                \
       BUG_ON(in_nmi());                \
       preempt_count_add(NMI_OFFSET + HARDIRQ_OFFSET);    \
       rcu_nmi_enter();                \
       trace_hardirq_enter();                \
   } while (0)
 
#define nmi_exit()                        \
   do {                            \
       trace_hardirq_exit();                \
       rcu_nmi_exit();                    \
       BUG_ON(!in_nmi());                \
       preempt_count_sub(NMI_OFFSET + HARDIRQ_OFFSET);    \
       ftrace_nmi_exit();                \
       lockdep_on();                    \
       printk_nmi_exit();                \
       arch_nmi_exit();                \
   } while (0)
 
#endif /* LINUX_HARDIRQ_H */