hc
2024-08-16 a24a44ff9ca902811b99aa9663d697cf452e08ef
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef __SPARC_MMAN_H__
#define __SPARC_MMAN_H__
 
#include <uapi/asm/mman.h>
 
#ifndef __ASSEMBLY__
#define arch_mmap_check(addr,len,flags)    sparc_mmap_check(addr,len)
int sparc_mmap_check(unsigned long addr, unsigned long len);
 
#ifdef CONFIG_SPARC64
#include <asm/adi_64.h>
 
static inline void ipi_set_tstate_mcde(void *arg)
{
   struct mm_struct *mm = arg;
 
   /* Set TSTATE_MCDE for the task using address map that ADI has been
    * enabled on if the task is running. If not, it will be set
    * automatically at the next context switch
    */
   if (current->mm == mm) {
       struct pt_regs *regs;
 
       regs = task_pt_regs(current);
       regs->tstate |= TSTATE_MCDE;
   }
}
 
#define arch_calc_vm_prot_bits(prot, pkey) sparc_calc_vm_prot_bits(prot)
static inline unsigned long sparc_calc_vm_prot_bits(unsigned long prot)
{
   if (adi_capable() && (prot & PROT_ADI)) {
       struct pt_regs *regs;
 
       if (!current->mm->context.adi) {
           regs = task_pt_regs(current);
           regs->tstate |= TSTATE_MCDE;
           current->mm->context.adi = true;
           on_each_cpu_mask(mm_cpumask(current->mm),
                    ipi_set_tstate_mcde, current->mm, 0);
       }
       return VM_SPARC_ADI;
   } else {
       return 0;
   }
}
 
#define arch_vm_get_page_prot(vm_flags) sparc_vm_get_page_prot(vm_flags)
static inline pgprot_t sparc_vm_get_page_prot(unsigned long vm_flags)
{
   return (vm_flags & VM_SPARC_ADI) ? __pgprot(_PAGE_MCD_4V) : __pgprot(0);
}
 
#define arch_validate_prot(prot, addr) sparc_validate_prot(prot, addr)
static inline int sparc_validate_prot(unsigned long prot, unsigned long addr)
{
   if (prot & ~(PROT_READ | PROT_WRITE | PROT_EXEC | PROT_SEM | PROT_ADI))
       return 0;
   return 1;
}
 
#define arch_validate_flags(vm_flags) arch_validate_flags(vm_flags)
/* arch_validate_flags() - Ensure combination of flags is valid for a
 *    VMA.
 */
static inline bool arch_validate_flags(unsigned long vm_flags)
{
   /* If ADI is being enabled on this VMA, check for ADI
    * capability on the platform and ensure VMA is suitable
    * for ADI
    */
   if (vm_flags & VM_SPARC_ADI) {
       if (!adi_capable())
           return false;
 
       /* ADI can not be enabled on PFN mapped pages */
       if (vm_flags & (VM_PFNMAP | VM_MIXEDMAP))
           return false;
 
       /* Mergeable pages can become unmergeable
        * if ADI is enabled on them even if they
        * have identical data on them. This can be
        * because ADI enabled pages with identical
        * data may still not have identical ADI
        * tags on them. Disallow ADI on mergeable
        * pages.
        */
       if (vm_flags & VM_MERGEABLE)
           return false;
   }
   return true;
}
#endif /* CONFIG_SPARC64 */
 
#endif /* __ASSEMBLY__ */
#endif /* __SPARC_MMAN_H__ */