hc
2025-02-14 bbb9540dc49f70f6b703d1c8d1b85fa5f602d86e
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
/* SPDX-License-Identifier: GPL-2.0-only */
/*
 * Copyright (C) 2013 Red Hat
 * Author: Rob Clark <robdclark@gmail.com>
 */
 
#ifndef __MSM_RINGBUFFER_H__
#define __MSM_RINGBUFFER_H__
 
#include "msm_drv.h"
 
#define rbmemptr(ring, member)  \
   ((ring)->memptrs_iova + offsetof(struct msm_rbmemptrs, member))
 
#define rbmemptr_stats(ring, index, member) \
   (rbmemptr((ring), stats) + \
    ((index) * sizeof(struct msm_gpu_submit_stats)) + \
    offsetof(struct msm_gpu_submit_stats, member))
 
struct msm_gpu_submit_stats {
   u64 cpcycles_start;
   u64 cpcycles_end;
   u64 alwayson_start;
   u64 alwayson_end;
};
 
#define MSM_GPU_SUBMIT_STATS_COUNT 64
 
struct msm_rbmemptrs {
   volatile uint32_t rptr;
   volatile uint32_t fence;
 
   volatile struct msm_gpu_submit_stats stats[MSM_GPU_SUBMIT_STATS_COUNT];
   volatile u64 ttbr0;
};
 
struct msm_ringbuffer {
   struct msm_gpu *gpu;
   int id;
   struct drm_gem_object *bo;
   uint32_t *start, *end, *cur, *next;
   struct list_head submits;
   uint64_t iova;
   uint32_t seqno;
   uint32_t hangcheck_fence;
   struct msm_rbmemptrs *memptrs;
   uint64_t memptrs_iova;
   struct msm_fence_context *fctx;
   spinlock_t lock;
};
 
struct msm_ringbuffer *msm_ringbuffer_new(struct msm_gpu *gpu, int id,
       void *memptrs, uint64_t memptrs_iova);
void msm_ringbuffer_destroy(struct msm_ringbuffer *ring);
 
/* ringbuffer helpers (the parts that are same for a3xx/a2xx/z180..) */
 
static inline void
OUT_RING(struct msm_ringbuffer *ring, uint32_t data)
{
   /*
    * ring->next points to the current command being written - it won't be
    * committed as ring->cur until the flush
    */
   if (ring->next == ring->end)
       ring->next = ring->start;
   *(ring->next++) = data;
}
 
#endif /* __MSM_RINGBUFFER_H__ */