hc
2024-12-19 9370bb92b2d16684ee45cf24e879c93c509162da
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
/* SPDX-License-Identifier: GPL-2.0 */
/* Copyright (c) 2018, Intel Corporation. */
 
#ifndef _ICE_CONTROLQ_H_
#define _ICE_CONTROLQ_H_
 
#include "ice_adminq_cmd.h"
 
/* Maximum buffer lengths for all control queue types */
#define ICE_AQ_MAX_BUF_LEN 4096
#define ICE_MBXQ_MAX_BUF_LEN 4096
 
#define ICE_CTL_Q_DESC(R, i) \
   (&(((struct ice_aq_desc *)((R).desc_buf.va))[i]))
 
#define ICE_CTL_Q_DESC_UNUSED(R) \
   (u16)((((R)->next_to_clean > (R)->next_to_use) ? 0 : (R)->count) + \
         (R)->next_to_clean - (R)->next_to_use - 1)
 
/* Defines that help manage the driver vs FW API checks.
 * Take a look at ice_aq_ver_check in ice_controlq.c for actual usage.
 */
#define EXP_FW_API_VER_BRANCH        0x00
#define EXP_FW_API_VER_MAJOR        0x01
#define EXP_FW_API_VER_MINOR        0x05
 
/* Different control queue types: These are mainly for SW consumption. */
enum ice_ctl_q {
   ICE_CTL_Q_UNKNOWN = 0,
   ICE_CTL_Q_ADMIN,
   ICE_CTL_Q_MAILBOX,
};
 
/* Control Queue timeout settings - max delay 1s */
#define ICE_CTL_Q_SQ_CMD_TIMEOUT    10000 /* Count 10000 times */
#define ICE_CTL_Q_SQ_CMD_USEC        100   /* Check every 100usec */
#define ICE_CTL_Q_ADMIN_INIT_TIMEOUT    10    /* Count 10 times */
#define ICE_CTL_Q_ADMIN_INIT_MSEC    100   /* Check every 100msec */
 
struct ice_ctl_q_ring {
   void *dma_head;            /* Virtual address to DMA head */
   struct ice_dma_mem desc_buf;    /* descriptor ring memory */
   void *cmd_buf;            /* command buffer memory */
 
   union {
       struct ice_dma_mem *sq_bi;
       struct ice_dma_mem *rq_bi;
   } r;
 
   u16 count;        /* Number of descriptors */
 
   /* used for interrupt processing */
   u16 next_to_use;
   u16 next_to_clean;
 
   /* used for queue tracking */
   u32 head;
   u32 tail;
   u32 len;
   u32 bah;
   u32 bal;
   u32 len_mask;
   u32 len_ena_mask;
   u32 len_crit_mask;
   u32 head_mask;
};
 
/* sq transaction details */
struct ice_sq_cd {
   struct ice_aq_desc *wb_desc;
};
 
#define ICE_CTL_Q_DETAILS(R, i) (&(((struct ice_sq_cd *)((R).cmd_buf))[i]))
 
/* rq event information */
struct ice_rq_event_info {
   struct ice_aq_desc desc;
   u16 msg_len;
   u16 buf_len;
   u8 *msg_buf;
};
 
/* Control Queue information */
struct ice_ctl_q_info {
   enum ice_ctl_q qtype;
   enum ice_aq_err rq_last_status;    /* last status on receive queue */
   struct ice_ctl_q_ring rq;    /* receive queue */
   struct ice_ctl_q_ring sq;    /* send queue */
   u32 sq_cmd_timeout;        /* send queue cmd write back timeout */
   u16 num_rq_entries;        /* receive queue depth */
   u16 num_sq_entries;        /* send queue depth */
   u16 rq_buf_size;        /* receive queue buffer size */
   u16 sq_buf_size;        /* send queue buffer size */
   enum ice_aq_err sq_last_status;    /* last status on send queue */
   struct mutex sq_lock;        /* Send queue lock */
   struct mutex rq_lock;        /* Receive queue lock */
};
 
#endif /* _ICE_CONTROLQ_H_ */