hc
2024-05-10 9999e48639b3cecb08ffb37358bcba3b48161b29
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
/*
 * Copyright (c) 2017, NVIDIA CORPORATION. All rights reserved.
 *
 * Permission is hereby granted, free of charge, to any person obtaining a
 * copy of this software and associated documentation files (the "Software"),
 * to deal in the Software without restriction, including without limitation
 * the rights to use, copy, modify, merge, publish, distribute, sublicense,
 * and/or sell copies of the Software, and to permit persons to whom the
 * Software is furnished to do so, subject to the following conditions:
 *
 * The above copyright notice and this permission notice shall be included in
 * all copies or substantial portions of the Software.
 *
 * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
 * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
 * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
 * THE COPYRIGHT HOLDER(S) OR AUTHOR(S) BE LIABLE FOR ANY CLAIM, DAMAGES OR
 * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
 * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
 * OTHER DEALINGS IN THE SOFTWARE.
 *
 */
#include "qmgr.h"
 
struct nvkm_falcon_qmgr_seq *
nvkm_falcon_qmgr_seq_acquire(struct nvkm_falcon_qmgr *qmgr)
{
   const struct nvkm_subdev *subdev = qmgr->falcon->owner;
   struct nvkm_falcon_qmgr_seq *seq;
   u32 index;
 
   mutex_lock(&qmgr->seq.mutex);
   index = find_first_zero_bit(qmgr->seq.tbl, NVKM_FALCON_QMGR_SEQ_NUM);
   if (index >= NVKM_FALCON_QMGR_SEQ_NUM) {
       nvkm_error(subdev, "no free sequence available\n");
       mutex_unlock(&qmgr->seq.mutex);
       return ERR_PTR(-EAGAIN);
   }
 
   set_bit(index, qmgr->seq.tbl);
   mutex_unlock(&qmgr->seq.mutex);
 
   seq = &qmgr->seq.id[index];
   seq->state = SEQ_STATE_PENDING;
   return seq;
}
 
void
nvkm_falcon_qmgr_seq_release(struct nvkm_falcon_qmgr *qmgr,
                struct nvkm_falcon_qmgr_seq *seq)
{
   /* no need to acquire seq.mutex since clear_bit is atomic */
   seq->state = SEQ_STATE_FREE;
   seq->callback = NULL;
   reinit_completion(&seq->done);
   clear_bit(seq->id, qmgr->seq.tbl);
}
 
void
nvkm_falcon_qmgr_del(struct nvkm_falcon_qmgr **pqmgr)
{
   struct nvkm_falcon_qmgr *qmgr = *pqmgr;
   if (qmgr) {
       kfree(*pqmgr);
       *pqmgr = NULL;
   }
}
 
int
nvkm_falcon_qmgr_new(struct nvkm_falcon *falcon,
            struct nvkm_falcon_qmgr **pqmgr)
{
   struct nvkm_falcon_qmgr *qmgr;
   int i;
 
   if (!(qmgr = *pqmgr = kzalloc(sizeof(*qmgr), GFP_KERNEL)))
       return -ENOMEM;
 
   qmgr->falcon = falcon;
   mutex_init(&qmgr->seq.mutex);
   for (i = 0; i < NVKM_FALCON_QMGR_SEQ_NUM; i++) {
       qmgr->seq.id[i].id = i;
       init_completion(&qmgr->seq.id[i].done);
   }
 
   return 0;
}