hc
2024-12-19 9370bb92b2d16684ee45cf24e879c93c509162da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
// SPDX-License-Identifier: GPL-2.0
/*
 * Stack trace management functions
 *
 *  Copyright IBM Corp. 2006
 *  Author(s): Heiko Carstens <heiko.carstens@de.ibm.com>
 */
 
#include <linux/stacktrace.h>
#include <asm/stacktrace.h>
#include <asm/unwind.h>
#include <asm/kprobes.h>
 
void arch_stack_walk(stack_trace_consume_fn consume_entry, void *cookie,
            struct task_struct *task, struct pt_regs *regs)
{
   struct unwind_state state;
   unsigned long addr;
 
   unwind_for_each_frame(&state, task, regs, 0) {
       addr = unwind_get_return_address(&state);
       if (!addr || !consume_entry(cookie, addr))
           break;
   }
}
 
/*
 * This function returns an error if it detects any unreliable features of the
 * stack.  Otherwise it guarantees that the stack trace is reliable.
 *
 * If the task is not 'current', the caller *must* ensure the task is inactive.
 */
int arch_stack_walk_reliable(stack_trace_consume_fn consume_entry,
                void *cookie, struct task_struct *task)
{
   struct unwind_state state;
   unsigned long addr;
 
   unwind_for_each_frame(&state, task, NULL, 0) {
       if (state.stack_info.type != STACK_TYPE_TASK)
           return -EINVAL;
 
       if (state.regs)
           return -EINVAL;
 
       addr = unwind_get_return_address(&state);
       if (!addr)
           return -EINVAL;
 
#ifdef CONFIG_KPROBES
       /*
        * Mark stacktraces with kretprobed functions on them
        * as unreliable.
        */
       if (state.ip == (unsigned long)kretprobe_trampoline)
           return -EINVAL;
#endif
 
       if (!consume_entry(cookie, addr))
           return -EINVAL;
   }
 
   /* Check for stack corruption */
   if (unwind_error(&state))
       return -EINVAL;
   return 0;
}