hc
2024-03-22 619f0f87159c5dbd2755b1b0a0eb35784be84e7a
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
 /*
 * SPDX-License-Identifier: BSD-2-Clause
 *
 * Copyright (c) 2019 Western Digital Corporation or its affiliates.
 *
 * Authors:
 *   Anup Patel <anup.patel@wdc.com>
 */
 
#include <sbi/riscv_locks.h>
#include <sbi/sbi_hart.h>
#include <sbi/sbi_hartmask.h>
#include <sbi/sbi_platform.h>
#include <sbi/sbi_scratch.h>
#include <sbi/sbi_string.h>
 
u32 last_hartid_having_scratch = SBI_HARTMASK_MAX_BITS;
struct sbi_scratch *hartid_to_scratch_table[SBI_HARTMASK_MAX_BITS] = { 0 };
 
static spinlock_t extra_lock = SPIN_LOCK_INITIALIZER;
static unsigned long extra_offset = SBI_SCRATCH_EXTRA_SPACE_OFFSET;
 
typedef struct sbi_scratch *(*hartid2scratch)(ulong hartid, ulong hartindex);
 
int sbi_scratch_init(struct sbi_scratch *scratch)
{
   u32 i;
   const struct sbi_platform *plat = sbi_platform_ptr(scratch);
 
   for (i = 0; i < SBI_HARTMASK_MAX_BITS; i++) {
       if (sbi_platform_hart_invalid(plat, i))
           continue;
       hartid_to_scratch_table[i] =
           ((hartid2scratch)scratch->hartid_to_scratch)(i,
                   sbi_platform_hart_index(plat, i));
       if (hartid_to_scratch_table[i])
           last_hartid_having_scratch = i;
   }
 
   return 0;
}
 
unsigned long sbi_scratch_alloc_offset(unsigned long size, const char *owner)
{
   u32 i;
   void *ptr;
   unsigned long ret = 0;
   struct sbi_scratch *rscratch;
 
   /*
    * We have a simple brain-dead allocator which never expects
    * anything to be free-ed hence it keeps incrementing the
    * next allocation offset until it runs-out of space.
    *
    * In future, we will have more sophisticated allocator which
    * will allow us to re-claim free-ed space.
    */
 
   if (!size)
       return 0;
 
   if (size & (__SIZEOF_POINTER__ - 1))
       size = (size & ~(__SIZEOF_POINTER__ - 1)) + __SIZEOF_POINTER__;
 
   spin_lock(&extra_lock);
 
   if (SBI_SCRATCH_SIZE < (extra_offset + size))
       goto done;
 
   ret = extra_offset;
   extra_offset += size;
 
done:
   spin_unlock(&extra_lock);
 
   if (ret) {
       for (i = 0; i < sbi_scratch_last_hartid(); i++) {
           rscratch = sbi_hartid_to_scratch(i);
           if (!rscratch)
               continue;
           ptr = sbi_scratch_offset_ptr(rscratch, ret);
           sbi_memset(ptr, 0, size);
       }
   }
 
   return ret;
}
 
void sbi_scratch_free_offset(unsigned long offset)
{
   if ((offset < SBI_SCRATCH_EXTRA_SPACE_OFFSET) ||
       (SBI_SCRATCH_SIZE <= offset))
       return;
 
   /*
    * We don't actually free-up because it's a simple
    * brain-dead allocator.
    */
}