hc
2024-08-16 a24a44ff9ca902811b99aa9663d697cf452e08ef
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
// SPDX-License-Identifier: GPL-2.0-only
/*
 * DMA-BUF sysfs statistics.
 *
 * Copyright (C) 2021 Google LLC.
 */
 
#include <linux/dma-buf.h>
#include <linux/dma-resv.h>
#include <linux/kobject.h>
#include <linux/printk.h>
#include <linux/slab.h>
#include <linux/sysfs.h>
#include <linux/workqueue.h>
 
#include <trace/hooks/dmabuf.h>
 
#include "dma-buf-sysfs-stats.h"
 
#define to_dma_buf_entry_from_kobj(x) container_of(x, struct dma_buf_sysfs_entry, kobj)
 
struct dma_buf_stats_attribute {
   struct attribute attr;
   ssize_t (*show)(struct dma_buf *dmabuf,
           struct dma_buf_stats_attribute *attr, char *buf);
};
#define to_dma_buf_stats_attr(x) container_of(x, struct dma_buf_stats_attribute, attr)
 
static ssize_t dma_buf_stats_attribute_show(struct kobject *kobj,
                       struct attribute *attr,
                       char *buf)
{
   struct dma_buf_stats_attribute *attribute;
   struct dma_buf_sysfs_entry *sysfs_entry;
   struct dma_buf *dmabuf;
 
   attribute = to_dma_buf_stats_attr(attr);
   sysfs_entry = to_dma_buf_entry_from_kobj(kobj);
   dmabuf = sysfs_entry->dmabuf;
 
   if (!dmabuf || !attribute->show)
       return -EIO;
 
   return attribute->show(dmabuf, attribute, buf);
}
 
static const struct sysfs_ops dma_buf_stats_sysfs_ops = {
   .show = dma_buf_stats_attribute_show,
};
 
static ssize_t exporter_name_show(struct dma_buf *dmabuf,
                 struct dma_buf_stats_attribute *attr,
                 char *buf)
{
   return sysfs_emit(buf, "%s\n", dmabuf->exp_name);
}
 
static ssize_t size_show(struct dma_buf *dmabuf,
            struct dma_buf_stats_attribute *attr,
            char *buf)
{
   return sysfs_emit(buf, "%zu\n", dmabuf->size);
}
 
static struct dma_buf_stats_attribute exporter_name_attribute =
   __ATTR_RO(exporter_name);
static struct dma_buf_stats_attribute size_attribute = __ATTR_RO(size);
 
static struct attribute *dma_buf_stats_default_attrs[] = {
   &exporter_name_attribute.attr,
   &size_attribute.attr,
   NULL,
};
ATTRIBUTE_GROUPS(dma_buf_stats_default);
 
static void dma_buf_sysfs_release(struct kobject *kobj)
{
   struct dma_buf_sysfs_entry *sysfs_entry;
 
   sysfs_entry = to_dma_buf_entry_from_kobj(kobj);
   kfree(sysfs_entry);
}
 
static struct kobj_type dma_buf_ktype = {
   .sysfs_ops = &dma_buf_stats_sysfs_ops,
   .release = dma_buf_sysfs_release,
   .default_groups = dma_buf_stats_default_groups,
};
 
void dma_buf_stats_teardown(struct dma_buf *dmabuf)
{
   struct dma_buf_sysfs_entry *sysfs_entry;
   bool skip_sysfs_release = false;
 
   sysfs_entry = dmabuf->sysfs_entry;
   if (!sysfs_entry)
       return;
 
   trace_android_rvh_dma_buf_stats_teardown(sysfs_entry, &skip_sysfs_release);
   if (!skip_sysfs_release) {
       kobject_del(&sysfs_entry->kobj);
       kobject_put(&sysfs_entry->kobj);
   }
}
 
/*
 * Statistics files do not need to send uevents.
 */
static int dmabuf_sysfs_uevent_filter(struct kset *kset, struct kobject *kobj)
{
   return 0;
}
 
static const struct kset_uevent_ops dmabuf_sysfs_no_uevent_ops = {
   .filter = dmabuf_sysfs_uevent_filter,
};
 
static struct kset *dma_buf_stats_kset;
static struct kset *dma_buf_per_buffer_stats_kset;
int dma_buf_init_sysfs_statistics(void)
{
   dma_buf_stats_kset = kset_create_and_add("dmabuf",
                        &dmabuf_sysfs_no_uevent_ops,
                        kernel_kobj);
   if (!dma_buf_stats_kset)
       return -ENOMEM;
 
   dma_buf_per_buffer_stats_kset = kset_create_and_add("buffers",
                               &dmabuf_sysfs_no_uevent_ops,
                               &dma_buf_stats_kset->kobj);
   if (!dma_buf_per_buffer_stats_kset) {
       kset_unregister(dma_buf_stats_kset);
       return -ENOMEM;
   }
 
   return 0;
}
 
void dma_buf_uninit_sysfs_statistics(void)
{
   kset_unregister(dma_buf_per_buffer_stats_kset);
   kset_unregister(dma_buf_stats_kset);
}
 
struct dma_buf_create_sysfs_entry {
   struct dma_buf *dmabuf;
   struct work_struct work;
};
 
union dma_buf_create_sysfs_work_entry {
   struct dma_buf_create_sysfs_entry create_entry;
   struct dma_buf_sysfs_entry sysfs_entry;
};
 
static void sysfs_add_workfn(struct work_struct *work)
{
   struct dma_buf_create_sysfs_entry *create_entry =
       container_of(work, struct dma_buf_create_sysfs_entry, work);
   struct dma_buf *dmabuf = create_entry->dmabuf;
 
   /*
    * A dmabuf is ref-counted via its file member. If this handler holds the only
    * reference to the dmabuf, there is no need for sysfs kobject creation. This is an
    * optimization and a race; when the reference count drops to 1 immediately after
    * this check it is not harmful as the sysfs entry will still get cleaned up in
    * dma_buf_stats_teardown, which won't get called until the final dmabuf reference
    * is released, and that can't happen until the end of this function.
    */
   if (file_count(dmabuf->file) > 1) {
       dmabuf->sysfs_entry->dmabuf = dmabuf;
       /*
        * kobject_init_and_add expects kobject to be zero-filled, but we have populated it
        * to trigger this work function.
        */
       memset(&dmabuf->sysfs_entry->kobj, 0, sizeof(dmabuf->sysfs_entry->kobj));
       dmabuf->sysfs_entry->kobj.kset = dma_buf_per_buffer_stats_kset;
       if (kobject_init_and_add(&dmabuf->sysfs_entry->kobj, &dma_buf_ktype, NULL,
                       "%lu", file_inode(dmabuf->file)->i_ino)) {
           kobject_put(&dmabuf->sysfs_entry->kobj);
           dmabuf->sysfs_entry = NULL;
       }
   } else {
       /*
        * Free the sysfs_entry and reset the pointer so dma_buf_stats_teardown doesn't
        * attempt to operate on it.
        */
       kfree(dmabuf->sysfs_entry);
       dmabuf->sysfs_entry = NULL;
   }
   dma_buf_put(dmabuf);
}
 
int dma_buf_stats_setup(struct dma_buf *dmabuf)
{
   struct dma_buf_create_sysfs_entry *create_entry;
   union dma_buf_create_sysfs_work_entry *work_entry;
 
   if (!dmabuf || !dmabuf->file)
       return -EINVAL;
 
   if (!dmabuf->exp_name) {
       pr_err("exporter name must not be empty if stats needed\n");
       return -EINVAL;
   }
 
   work_entry = kmalloc(sizeof(union dma_buf_create_sysfs_work_entry), GFP_KERNEL);
   if (!work_entry)
       return -ENOMEM;
 
   dmabuf->sysfs_entry = &work_entry->sysfs_entry;
 
   create_entry = &work_entry->create_entry;
   create_entry->dmabuf = dmabuf;
 
   INIT_WORK(&create_entry->work, sysfs_add_workfn);
   get_dma_buf(dmabuf); /* This reference will be dropped in sysfs_add_workfn. */
   schedule_work(&create_entry->work);
 
   return 0;
}