hc
2023-12-09 b22da3d8526a935aa31e086e63f60ff3246cb61c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
/*
 * include/linux/ion.h
 *
 * Copyright (C) 2011 Google, Inc.
 *
 * This software is licensed under the terms of the GNU General Public
 * License version 2, as published by the Free Software Foundation, and
 * may be copied, distributed, and modified under those terms.
 *
 * This program is distributed in the hope that it will be useful,
 * but WITHOUT ANY WARRANTY; without even the implied warranty of
 * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
 * GNU General Public License for more details.
 *
 */
 
#ifndef _LINUX_ION_H
#define _LINUX_ION_H
 
#include <linux/types.h>
#define ION_VERSION     "1.0"
 
typedef int ion_user_handle_t;
 
/**
 * enum ion_heap_types - list of all possible types of heaps
 * @ION_HEAP_TYPE_SYSTEM:    memory allocated via vmalloc
 * @ION_HEAP_TYPE_SYSTEM_CONTIG: memory allocated via kmalloc
 * @ION_HEAP_TYPE_CARVEOUT:  memory allocated from a prereserved
 *               carveout heap, allocations are physically
 *               contiguous
 * @ION_HEAP_TYPE_DMA:       memory allocated via DMA API
 * @ION_NUM_HEAPS:       helper for iterating over heaps, a bit mask
 *               is used to identify the heaps, so only 32
 *               total heap types are supported
 */
enum ion_heap_type {
    ION_HEAP_TYPE_SYSTEM,
    ION_HEAP_TYPE_SYSTEM_CONTIG,
    ION_HEAP_TYPE_CARVEOUT,
    ION_HEAP_TYPE_CHUNK,
    ION_HEAP_TYPE_DMA,
    ION_HEAP_TYPE_CUSTOM, /* must be last so device specific heaps always
                 are at the end of this enum */
    ION_NUM_HEAPS = 16,
};
enum ion_heap_ids {
    ION_NOR_HEAP_ID = 0,
    ION_CMA_HEAP_ID = 1,
 
    ION_VPU_ID = 16,
    ION_CAM_ID = 17,
    ION_UI_ID = 18,
};
 
#define ION_HEAP_SYSTEM_MASK        (1 << ION_HEAP_TYPE_SYSTEM)
#define ION_HEAP_SYSTEM_CONTIG_MASK (1 << ION_HEAP_TYPE_SYSTEM_CONTIG)
#define ION_HEAP_CARVEOUT_MASK      (1 << ION_HEAP_TYPE_CARVEOUT)
#define ION_HEAP_TYPE_DMA_MASK      (1 << ION_HEAP_TYPE_DMA)
 
#ifdef __KERNEL__
struct ion_device;
struct ion_heap;
struct ion_mapper;
struct ion_client;
struct ion_buffer;
 
/* This should be removed some day when phys_addr_t's are fully
   plumbed in the kernel, and all instances of ion_phys_addr_t should
   be converted to phys_addr_t.  For the time being many kernel interfaces
   do not accept phys_addr_t's that would have to */
#define ion_phys_addr_t unsigned long
 
/**
 * struct ion_platform_heap - defines a heap in the given platform
 * @type:   type of the heap from ion_heap_type enum
 * @id:     unique identifier for heap.  When allocating (lower numbers
 *      will be allocated from first)
 * @name:   used for debug purposes
 * @base:   base address of heap in physical memory if applicable
 * @size:   size of the heap in bytes if applicable
 *
 * Provided by the board file.
 */
struct ion_platform_heap {
    enum ion_heap_type type;
    unsigned int id;
    const char *name;
    ion_phys_addr_t base;
    size_t size;
};
 
/**
 * struct ion_platform_data - array of platform heaps passed from board file
 * @nr:     number of structures in the array
 * @heaps:  array of platform_heap structions
 *
 * Provided by the board file in the form of platform data to a platform device.
 */
struct ion_platform_data {
    int nr;
    struct ion_platform_heap heaps[];
};
 
/**
 * ion_client_create() -  allocate a client and returns it
 * @dev:    the global ion device
 * @heap_mask:  mask of heaps this client can allocate from
 * @name:   used for debugging
 */
struct ion_client *ion_client_create(struct ion_device *dev,
                                     unsigned int heap_mask, const char *name);
 
/**
 * ion_client_destroy() -  free's a client and all it's handles
 * @client: the client
 *
 * Free the provided client and all it's resources including
 * any handles it is holding.
 */
void ion_client_destroy(struct ion_client *client);
 
/**
 * ion_alloc - allocate ion memory
 * @client: the client
 * @len:    size of the allocation
 * @align:  requested allocation alignment, lots of hardware blocks have
 *      alignment requirements of some kind
 * @flags:  mask of heaps to allocate from, if multiple bits are set
 *      heaps will be tried in order from lowest to highest order bit
 *
 * Allocate memory in one of the heaps provided in heap mask and return
 * an opaque handle to it.
 */
struct ion_handle *ion_alloc(struct ion_client *client, size_t len,
                             size_t align, unsigned int flags);
 
/**
 * ion_free - free a handle
 * @client: the client
 * @handle: the handle to free
 *
 * Free the provided handle.
 */
void ion_free(struct ion_client *client, struct ion_handle *handle);
 
/**
 * ion_phys - returns the physical address and len of a handle
 * @client: the client
 * @handle: the handle
 * @addr:   a pointer to put the address in
 * @len:    a pointer to put the length in
 *
 * This function queries the heap for a particular handle to get the
 * handle's physical address.  It't output is only correct if
 * a heap returns physically contiguous memory -- in other cases
 * this api should not be implemented -- ion_map_dma should be used
 * instead.  Returns -EINVAL if the handle is invalid.  This has
 * no implications on the reference counting of the handle --
 * the returned value may not be valid if the caller is not
 * holding a reference.
 */
int ion_phys(struct ion_client *client, struct ion_handle *handle,
             ion_phys_addr_t *addr, size_t *len);
 
/**
 * ion_map_kernel - create mapping for the given handle
 * @client: the client
 * @handle: handle to map
 *
 * Map the given handle into the kernel and return a kernel address that
 * can be used to access this address.
 */
void *ion_map_kernel(struct ion_client *client, struct ion_handle *handle);
 
/**
 * ion_unmap_kernel() - destroy a kernel mapping for a handle
 * @client: the client
 * @handle: handle to unmap
 */
void ion_unmap_kernel(struct ion_client *client, struct ion_handle *handle);
 
/**
 * ion_map_dma - create a dma mapping for a given handle
 * @client: the client
 * @handle: handle to map
 *
 * Return an sglist describing the given handle
 */
struct scatterlist *ion_map_dma(struct ion_client *client,
                                struct ion_handle *handle);
 
/**
 * ion_unmap_dma() - destroy a dma mapping for a handle
 * @client: the client
 * @handle: handle to unmap
 */
void ion_unmap_dma(struct ion_client *client, struct ion_handle *handle);
 
/**
 * ion_share() - given a handle, obtain a buffer to pass to other clients
 * @client: the client
 * @handle: the handle to share
 *
 * Given a handle, return a buffer, which exists in a global name
 * space, and can be passed to other clients.  Should be passed into ion_import
 * to obtain a new handle for this buffer.
 *
 * NOTE: This function does do not an extra reference.  The burden is on the
 * caller to make sure the buffer doesn't go away while it's being passed to
 * another client.  That is, ion_free should not be called on this handle until
 * the buffer has been imported into the other client.
 */
struct ion_buffer *ion_share(struct ion_client *client,
                             struct ion_handle *handle);
 
/**
 * ion_import() - given an buffer in another client, import it
 * @client: this blocks client
 * @buffer: the buffer to import (as obtained from ion_share)
 *
 * Given a buffer, add it to the client and return the handle to use to refer
 * to it further.  This is called to share a handle from one kernel client to
 * another.
 */
struct ion_handle *ion_import(struct ion_client *client,
                              struct ion_buffer *buffer);
 
/**
 * ion_import_fd() - given an fd obtained via ION_IOC_SHARE ioctl, import it
 * @client: this blocks client
 * @fd:     the fd
 *
 * A helper function for drivers that will be recieving ion buffers shared
 * with them from userspace.  These buffers are represented by a file
 * descriptor obtained as the return from the ION_IOC_SHARE ioctl.
 * This function coverts that fd into the underlying buffer, and returns
 * the handle to use to refer to it further.
 */
struct ion_handle *ion_import_fd(struct ion_client *client, int fd);
#endif /* __KERNEL__ */
 
/**
 * DOC: Ion Userspace API
 *
 * create a client by opening /dev/ion
 * most operations handled via following ioctls
 *
 */
 
/**
 * struct ion_allocation_data - metadata passed from userspace for allocations
 * @len:    size of the allocation
 * @align:  required alignment of the allocation
 * @flags:  flags passed to heap
 * @handle: pointer that will be populated with a cookie to use to refer
 *      to this allocation
 *
 * Provided by userspace as an argument to the ioctl
 */
struct ion_allocation_data {
    size_t len;
    size_t align;
    unsigned int heap_id_mask;
    unsigned int flags;
    ion_user_handle_t handle;
};
 
/**
 * struct ion_fd_data - metadata passed to/from userspace for a handle/fd pair
 * @handle: a handle
 * @fd:     a file descriptor representing that handle
 *
 * For ION_IOC_SHARE or ION_IOC_MAP userspace populates the handle field with
 * the handle returned from ion alloc, and the kernel returns the file
 * descriptor to share or map in the fd field.  For ION_IOC_IMPORT, userspace
 * provides the file descriptor and the kernel returns the handle.
 */
struct ion_fd_data {
    ion_user_handle_t handle;
    int fd;
};
 
/**
 * struct ion_handle_data - a handle passed to/from the kernel
 * @handle: a handle
 */
struct ion_handle_data {
    ion_user_handle_t handle;
};
 
/**
 * struct ion_custom_data - metadata passed to/from userspace for a custom ioctl
 * @cmd:    the custom ioctl function to call
 * @arg:    additional data to pass to the custom ioctl, typically a user
 *      pointer to a predefined structure
 *
 * This works just like the regular cmd and arg fields of an ioctl.
 */
struct ion_custom_data {
    unsigned int cmd;
    unsigned long arg;
};
 
/* struct ion_flush_data - data passed to ion for flushing caches
 *
 * @handle: handle with data to flush
 * @fd:     fd to flush
 * @vaddr:  userspace virtual address mapped with mmap
 * @offset: offset into the handle to flush
 * @length: length of handle to flush
 *
 * Performs cache operations on the handle. If p is the start address
 * of the handle, p + offset through p + offset + length will have
 * the cache operations performed
 */
struct ion_flush_data {
    //struct ion_handle *handle;
    ion_user_handle_t handle;
    int fd;
    void *vaddr;
    unsigned int offset;
    unsigned int length;
};
 
/// no available in new ion-kernel
struct ion_phys_data {
    //struct ion_handle *handle;
    ion_user_handle_t handle;
    unsigned long phys;
    unsigned long size;
};
 
struct ion_cacheop_data {
#define ION_CACHE_FLUSH     0
#define ION_CACHE_CLEAN     1
#define ION_CACHE_INV       2
    unsigned int type;
    struct ion_handle *handle;
    void *virt;
};
struct ion_buffer_info {
    unsigned long phys;
    unsigned long size;
};
struct ion_client_info {
#define MAX_BUFFER_COUNT    127
    unsigned int count;
    unsigned long total_size;
    struct ion_buffer_info buf[MAX_BUFFER_COUNT];
};
struct ion_heap_info {
    unsigned int id;
    unsigned long allocated_size;
    unsigned long max_allocated;
    unsigned long total_size;
};
 
struct ion_share_obj_data {
    int fd;
    void *obj;
};
///////////////////////////////////////////////////
 
#define ION_IOC_MAGIC       'I'
 
/**
 * DOC: ION_IOC_ALLOC - allocate memory
 *
 * Takes an ion_allocation_data struct and returns it with the handle field
 * populated with the opaque handle for the allocation.
 */
#define ION_IOC_ALLOC       _IOWR(ION_IOC_MAGIC, 0, \
                      struct ion_allocation_data)
 
/**
 * DOC: ION_IOC_FREE - free memory
 *
 * Takes an ion_handle_data struct and frees the handle.
 */
#define ION_IOC_FREE        _IOWR(ION_IOC_MAGIC, 1, struct ion_handle_data)
 
/**
 * DOC: ION_IOC_MAP - get a file descriptor to mmap
 *
 * Takes an ion_fd_data struct with the handle field populated with a valid
 * opaque handle.  Returns the struct with the fd field set to a file
 * descriptor open in the current address space.  This file descriptor
 * can then be used as an argument to mmap.
 */
#define ION_IOC_MAP     _IOWR(ION_IOC_MAGIC, 2, struct ion_fd_data)
 
/**
 * DOC: ION_IOC_SHARE - creates a file descriptor to use to share an allocation
 *
 * Takes an ion_fd_data struct with the handle field populated with a valid
 * opaque handle.  Returns the struct with the fd field set to a file
 * descriptor open in the current address space.  This file descriptor
 * can then be passed to another process.  The corresponding opaque handle can
 * be retrieved via ION_IOC_IMPORT.
 */
#define ION_IOC_SHARE       _IOWR(ION_IOC_MAGIC, 4, struct ion_fd_data)
 
/**
 * DOC: ION_IOC_IMPORT - imports a shared file descriptor
 *
 * Takes an ion_fd_data struct with the fd field populated with a valid file
 * descriptor obtained from ION_IOC_SHARE and returns the struct with the handle
 * filed set to the corresponding opaque handle.
 */
#define ION_IOC_IMPORT      _IOWR(ION_IOC_MAGIC, 5, struct ion_fd_data)
 
/**
 * DOC: ION_IOC_SYNC - syncs a shared file descriptors to memory
 *
 * Deprecated in favor of using the dma_buf api's correctly (syncing
 * will happend automatically when the buffer is mapped to a device).
 * If necessary should be used after touching a cached buffer from the cpu,
 * this will make the buffer in memory coherent.
 */
#define ION_IOC_SYNC        _IOWR(ION_IOC_MAGIC, 7, struct ion_fd_data)
 
/**
 * DOC: ION_IOC_CUSTOM - call architecture specific ion ioctl
 *
 * Takes the argument of the architecture specific ioctl to call and
 * passes appropriate userdata for that ioctl
 */
#define ION_IOC_CUSTOM          _IOWR(ION_IOC_MAGIC, 6, struct ion_custom_data)
 
 
#if 1
#define ION_IOC_ROCKCHIP_MAGIC 'R'
 
/**
 * Clean the caches of the handle specified.
 */
#define ION_IOC_CLEAN_CACHES    _IOWR(ION_IOC_ROCKCHIP_MAGIC, 0, \
                        struct ion_flush_data)
/**
 * Invalidate the caches of the handle specified.
 */
#define ION_IOC_INV_CACHES  _IOWR(ION_IOC_ROCKCHIP_MAGIC, 1, \
                        struct ion_flush_data)
/**
 * Clean and invalidate the caches of the handle specified.
 */
#define ION_IOC_CLEAN_INV_CACHES    _IOWR(ION_IOC_ROCKCHIP_MAGIC, 2, \
                        struct ion_flush_data)
 
/**
 * Get phys addr of the handle specified.
 */
#define ION_IOC_GET_PHYS    _IOWR(ION_IOC_ROCKCHIP_MAGIC, 3, \
                        struct ion_phys_data)
 
#define ION_IOC_CLEAN_CACHES _IOWR(ION_IOC_ROCKCHIP_MAGIC, 0,   struct ion_flush_data)
#define ION_IOC_INV_CACHES _IOWR(ION_IOC_ROCKCHIP_MAGIC, 1,   struct ion_flush_data)
/* WARNING: DO NOT EDIT, AUTO-GENERATED CODE - SEE TOP FOR INSTRUCTIONS */
#define ION_IOC_CLEAN_INV_CACHES _IOWR(ION_IOC_ROCKCHIP_MAGIC, 2,   struct ion_flush_data)
 
#define ION_IOC_GET_SHARE _IOWR(ION_IOC_ROCKCHIP_MAGIC, 4, struct ion_share_obj_data)
#define ION_IOC_SET_SHARE _IOWR(ION_IOC_ROCKCHIP_MAGIC, 5, struct ion_share_obj_data)
 
#else
/// no available in new ion-kernel.
#define ION_CUSTOM_GET_PHYS     _IOWR(ION_IOC_MAGIC, 15, \
                            struct ion_phys_data)
 
#define ION_CUSTOM_CACHE_OP     _IOWR(ION_IOC_MAGIC, 8, \
                            struct ion_cacheop_data)
 
#define ION_CUSTOM_GET_CLIENT_INFO  _IOWR(ION_IOC_MAGIC, 9, \
                            struct ion_client_info)
 
#define ION_CUSTOM_GET_HEAP_INFO    _IOWR(ION_IOC_MAGIC, 10, \
                            struct ion_heap_info)
/* Compatible with pmem */
struct ion_pmem_region {
    unsigned long offset;
    unsigned long len;
};
#define ION_PMEM_GET_PHYS       _IOW('p', 1, unsigned int)
#define ION_PMEM_CACHE_FLUSH        _IOW('p', 8, unsigned int)
#endif
///////////////////////////////////////////
 
#endif /* _LINUX_ION_H */