hc
2024-12-19 9370bb92b2d16684ee45cf24e879c93c509162da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef __MMU_H
#define __MMU_H
 
#include <linux/cpumask.h>
#include <linux/errno.h>
 
typedef struct {
   spinlock_t lock;
   cpumask_t cpu_attach_mask;
   atomic_t flush_count;
   unsigned int flush_mm;
   struct list_head pgtable_list;
   struct list_head gmap_list;
   unsigned long gmap_asce;
   unsigned long asce;
   unsigned long asce_limit;
   unsigned long vdso_base;
   /* The mmu context belongs to a secure guest. */
   atomic_t is_protected;
   /*
    * The following bitfields need a down_write on the mm
    * semaphore when they are written to. As they are only
    * written once, they can be read without a lock.
    *
    * The mmu context allocates 4K page tables.
    */
   unsigned int alloc_pgste:1;
   /* The mmu context uses extended page tables. */
   unsigned int has_pgste:1;
   /* The mmu context uses storage keys. */
   unsigned int uses_skeys:1;
   /* The mmu context uses CMM. */
   unsigned int uses_cmm:1;
   /* The gmaps associated with this context are allowed to use huge pages. */
   unsigned int allow_gmap_hpage_1m:1;
} mm_context_t;
 
#define INIT_MM_CONTEXT(name)                           \
   .context.lock =    __SPIN_LOCK_UNLOCKED(name.context.lock),       \
   .context.pgtable_list = LIST_HEAD_INIT(name.context.pgtable_list), \
   .context.gmap_list = LIST_HEAD_INIT(name.context.gmap_list),
 
static inline int tprot(unsigned long addr)
{
   int rc = -EFAULT;
 
   asm volatile(
       "    tprot    0(%1),0\n"
       "0:    ipm    %0\n"
       "    srl    %0,28\n"
       "1:\n"
       EX_TABLE(0b,1b)
       : "+d" (rc) : "a" (addr) : "cc");
   return rc;
}
 
#endif