hc
2023-10-25 6c2073b7aa40e29d0eca7d571dd7bc590c7ecaa7
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
/*
 * Copyright (C) 2012 ARM Ltd.
 *
 * This program is free software; you can redistribute it and/or modify
 * it under the terms of the GNU General Public License version 2 as
 * published by the Free Software Foundation.
 *
 * This program is distributed in the hope that it will be useful,
 * but WITHOUT ANY WARRANTY; without even the implied warranty of
 * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 * GNU General Public License for more details.
 *
 * You should have received a copy of the GNU General Public License
 * along with this program.  If not, see <http://www.gnu.org/licenses/>.
 */
#ifndef __ASM_CACHE_H
#define __ASM_CACHE_H
 
#include <asm/cputype.h>
 
#define CTR_L1IP_SHIFT        14
#define CTR_L1IP_MASK        3
#define CTR_DMINLINE_SHIFT    16
#define CTR_IMINLINE_SHIFT    0
#define CTR_IMINLINE_MASK    0xf
#define CTR_ERG_SHIFT        20
#define CTR_CWG_SHIFT        24
#define CTR_CWG_MASK        15
#define CTR_IDC_SHIFT        28
#define CTR_DIC_SHIFT        29
 
#define CTR_CACHE_MINLINE_MASK    \
   (0xf << CTR_DMINLINE_SHIFT | CTR_IMINLINE_MASK << CTR_IMINLINE_SHIFT)
 
#define CTR_L1IP(ctr)        (((ctr) >> CTR_L1IP_SHIFT) & CTR_L1IP_MASK)
 
#define ICACHE_POLICY_VPIPT    0
#define ICACHE_POLICY_VIPT    2
#define ICACHE_POLICY_PIPT    3
 
#define L1_CACHE_SHIFT        (6)
#define L1_CACHE_BYTES        (1 << L1_CACHE_SHIFT)
 
/*
 * Memory returned by kmalloc() may be used for DMA, so we must make
 * sure that all such allocations are cache aligned. Otherwise,
 * unrelated code may cause parts of the buffer to be read into the
 * cache before the transfer is done, causing old data to be seen by
 * the CPU.
 */
#define ARCH_DMA_MINALIGN    (128)
 
#ifdef CONFIG_KASAN_SW_TAGS
#define ARCH_SLAB_MINALIGN    (1ULL << KASAN_SHADOW_SCALE_SHIFT)
#endif
 
#ifndef __ASSEMBLY__
 
#include <linux/bitops.h>
 
#define ICACHEF_ALIASING    0
#define ICACHEF_VPIPT        1
extern unsigned long __icache_flags;
 
/*
 * Whilst the D-side always behaves as PIPT on AArch64, aliasing is
 * permitted in the I-cache.
 */
static inline int icache_is_aliasing(void)
{
   return test_bit(ICACHEF_ALIASING, &__icache_flags);
}
 
static inline int icache_is_vpipt(void)
{
   return test_bit(ICACHEF_VPIPT, &__icache_flags);
}
 
static inline u32 cache_type_cwg(void)
{
   return (read_cpuid_cachetype() >> CTR_CWG_SHIFT) & CTR_CWG_MASK;
}
 
#define __read_mostly __attribute__((__section__(".data..read_mostly")))
 
static inline int cache_line_size(void)
{
   u32 cwg = cache_type_cwg();
   return cwg ? 4 << cwg : ARCH_DMA_MINALIGN;
}
 
#endif    /* __ASSEMBLY__ */
 
#endif