hc
2023-10-25 6c2073b7aa40e29d0eca7d571dd7bc590c7ecaa7
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef _ASM_POWERPC_BOOK3S_64_HUGETLB_H
#define _ASM_POWERPC_BOOK3S_64_HUGETLB_H
/*
 * For radix we want generic code to handle hugetlb. But then if we want
 * both hash and radix to be enabled together we need to workaround the
 * limitations.
 */
void radix__flush_hugetlb_page(struct vm_area_struct *vma, unsigned long vmaddr);
void radix__local_flush_hugetlb_page(struct vm_area_struct *vma, unsigned long vmaddr);
extern unsigned long
radix__hugetlb_get_unmapped_area(struct file *file, unsigned long addr,
               unsigned long len, unsigned long pgoff,
               unsigned long flags);
 
static inline int hstate_get_psize(struct hstate *hstate)
{
   unsigned long shift;
 
   shift = huge_page_shift(hstate);
   if (shift == mmu_psize_defs[MMU_PAGE_2M].shift)
       return MMU_PAGE_2M;
   else if (shift == mmu_psize_defs[MMU_PAGE_1G].shift)
       return MMU_PAGE_1G;
   else if (shift == mmu_psize_defs[MMU_PAGE_16M].shift)
       return MMU_PAGE_16M;
   else if (shift == mmu_psize_defs[MMU_PAGE_16G].shift)
       return MMU_PAGE_16G;
   else {
       WARN(1, "Wrong huge page shift\n");
       return mmu_virtual_psize;
   }
}
 
#ifdef CONFIG_ARCH_HAS_GIGANTIC_PAGE
static inline bool gigantic_page_supported(void)
{
   /*
    * We used gigantic page reservation with hypervisor assist in some case.
    * We cannot use runtime allocation of gigantic pages in those platforms
    * This is hash translation mode LPARs.
    */
   if (firmware_has_feature(FW_FEATURE_LPAR) && !radix_enabled())
       return false;
 
   return true;
}
#endif
 
#endif