hc
2025-02-14 bbb9540dc49f70f6b703d1c8d1b85fa5f602d86e
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
/* SPDX-License-Identifier: GPL-2.0 */
 
/* Copyright (c) 2012-2018, The Linux Foundation. All rights reserved.
 * Copyright (C) 2019-2020 Linaro Ltd.
 */
#ifndef _IPA_ENDPOINT_H_
#define _IPA_ENDPOINT_H_
 
#include <linux/types.h>
#include <linux/workqueue.h>
#include <linux/if_ether.h>
 
#include "gsi.h"
#include "ipa_reg.h"
 
struct net_device;
struct sk_buff;
 
struct ipa;
struct ipa_gsi_endpoint_data;
 
/* Non-zero granularity of counter used to implement aggregation timeout */
#define IPA_AGGR_GRANULARITY        500    /* microseconds */
 
#define IPA_MTU            ETH_DATA_LEN
 
enum ipa_endpoint_name {
   IPA_ENDPOINT_AP_MODEM_TX    = 0,
   IPA_ENDPOINT_MODEM_LAN_TX,
   IPA_ENDPOINT_MODEM_COMMAND_TX,
   IPA_ENDPOINT_AP_COMMAND_TX,
   IPA_ENDPOINT_MODEM_AP_TX,
   IPA_ENDPOINT_AP_LAN_RX,
   IPA_ENDPOINT_AP_MODEM_RX,
   IPA_ENDPOINT_MODEM_AP_RX,
   IPA_ENDPOINT_MODEM_LAN_RX,
   IPA_ENDPOINT_COUNT,    /* Number of names (not an index) */
};
 
#define IPA_ENDPOINT_MAX        32    /* Max supported by driver */
 
/**
 * enum ipa_replenish_flag:    RX buffer replenish flags
 *
 * @IPA_REPLENISH_ENABLED:    Whether receive buffer replenishing is enabled
 * @IPA_REPLENISH_ACTIVE:    Whether replenishing is underway
 * @IPA_REPLENISH_COUNT:    Number of defined replenish flags
 */
enum ipa_replenish_flag {
   IPA_REPLENISH_ENABLED,
   IPA_REPLENISH_ACTIVE,
   IPA_REPLENISH_COUNT,    /* Number of flags (must be last) */
};
 
/**
 * struct ipa_endpoint - IPA endpoint information
 * @channel_id:    EP's GSI channel
 * @evt_ring_id: EP's GSI channel event ring
 */
struct ipa_endpoint {
   struct ipa *ipa;
   enum ipa_seq_type seq_type;
   enum gsi_ee_id ee_id;
   u32 channel_id;
   u32 endpoint_id;
   bool toward_ipa;
   const struct ipa_endpoint_config_data *data;
 
   u32 trans_tre_max;    /* maximum descriptors per transaction */
   u32 evt_ring_id;
 
   /* Net device this endpoint is associated with, if any */
   struct net_device *netdev;
 
   /* Receive buffer replenishing for RX endpoints */
   DECLARE_BITMAP(replenish_flags, IPA_REPLENISH_COUNT);
   u32 replenish_ready;
   atomic_t replenish_saved;
   atomic_t replenish_backlog;
   struct delayed_work replenish_work;        /* global wq */
};
 
void ipa_endpoint_modem_hol_block_clear_all(struct ipa *ipa);
 
void ipa_endpoint_modem_pause_all(struct ipa *ipa, bool enable);
 
int ipa_endpoint_modem_exception_reset_all(struct ipa *ipa);
 
int ipa_endpoint_skb_tx(struct ipa_endpoint *endpoint, struct sk_buff *skb);
 
void ipa_endpoint_exit_one(struct ipa_endpoint *endpoint);
 
int ipa_endpoint_enable_one(struct ipa_endpoint *endpoint);
void ipa_endpoint_disable_one(struct ipa_endpoint *endpoint);
 
void ipa_endpoint_suspend_one(struct ipa_endpoint *endpoint);
void ipa_endpoint_resume_one(struct ipa_endpoint *endpoint);
 
void ipa_endpoint_suspend(struct ipa *ipa);
void ipa_endpoint_resume(struct ipa *ipa);
 
void ipa_endpoint_setup(struct ipa *ipa);
void ipa_endpoint_teardown(struct ipa *ipa);
 
int ipa_endpoint_config(struct ipa *ipa);
void ipa_endpoint_deconfig(struct ipa *ipa);
 
void ipa_endpoint_default_route_set(struct ipa *ipa, u32 endpoint_id);
void ipa_endpoint_default_route_clear(struct ipa *ipa);
 
u32 ipa_endpoint_init(struct ipa *ipa, u32 count,
             const struct ipa_gsi_endpoint_data *data);
void ipa_endpoint_exit(struct ipa *ipa);
 
void ipa_endpoint_trans_complete(struct ipa_endpoint *ipa,
                struct gsi_trans *trans);
void ipa_endpoint_trans_release(struct ipa_endpoint *ipa,
               struct gsi_trans *trans);
 
#endif /* _IPA_ENDPOINT_H_ */