]> CyberLeo.Net >> Repos - FreeBSD/releng/10.0.git/blob - sys/dev/cxgb/ulp/iw_cxgb/iw_cxgb.h
- Copy stable/10 (r259064) to releng/10.0 as part of the
[FreeBSD/releng/10.0.git] / sys / dev / cxgb / ulp / iw_cxgb / iw_cxgb.h
1 /**************************************************************************
2
3 Copyright (c) 2007, 2008 Chelsio Inc.
4 All rights reserved.
5
6 Redistribution and use in source and binary forms, with or without
7 modification, are permitted provided that the following conditions are met:
8
9  1. Redistributions of source code must retain the above copyright notice,
10     this list of conditions and the following disclaimer.
11
12  2. Neither the name of the Chelsio Corporation nor the names of its
13     contributors may be used to endorse or promote products derived from
14     this software without specific prior written permission.
15
16 THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
17 AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
18 IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
19 ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR CONTRIBUTORS BE
20 LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
21 CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
22 SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
23 INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
24 CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
25 ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
26 POSSIBILITY OF SUCH DAMAGE.
27
28 $FreeBSD$
29
30 ***************************************************************************/
31
32 #ifndef __IWCH_H__
33 #define __IWCH_H__
34
35 struct iwch_pd;
36 struct iwch_cq;
37 struct iwch_qp;
38 struct iwch_mr;
39
40 enum t3ctype {
41         T3A = 0,
42         T3B,
43         T3C
44 };
45
46 #define PAGE_MASK_IWARP (~(PAGE_SIZE-1))
47
48 struct iwch_rnic_attributes {
49         u32 vendor_id;
50         u32 vendor_part_id;
51         u32 max_qps;
52         u32 max_wrs;                            /* Max for any SQ/RQ */
53         u32 max_sge_per_wr;
54         u32 max_sge_per_rdma_write_wr;  /* for RDMA Write WR */
55         u32 max_cqs;
56         u32 max_cqes_per_cq;
57         u32 max_mem_regs;
58         u32 max_phys_buf_entries;               /* for phys buf list */
59         u32 max_pds;
60
61         /*
62          * The memory page sizes supported by this RNIC.
63          * Bit position i in bitmap indicates page of
64          * size (4k)^i.  Phys block list mode unsupported.
65          */
66         u32 mem_pgsizes_bitmask;
67         u64 max_mr_size;
68         u8 can_resize_wq;
69
70         /*
71          * The maximum number of RDMA Reads that can be outstanding
72          * per QP with this RNIC as the target.
73          */
74         u32 max_rdma_reads_per_qp;
75
76         /*
77          * The maximum number of resources used for RDMA Reads
78          * by this RNIC with this RNIC as the target.
79          */
80         u32 max_rdma_read_resources;
81
82         /*
83          * The max depth per QP for initiation of RDMA Read
84          * by this RNIC.
85          */
86         u32 max_rdma_read_qp_depth;
87
88         /*
89          * The maximum depth for initiation of RDMA Read
90          * operations by this RNIC on all QPs
91          */
92         u32 max_rdma_read_depth;
93         u8 rq_overflow_handled;
94         u32 can_modify_ird;
95         u32 can_modify_ord;
96         u32 max_mem_windows;
97         u32 stag0_value;
98         u8 zbva_support;
99         u8 local_invalidate_fence;
100         u32 cq_overflow_detection;
101 };
102
103 struct iwch_dev {
104         struct ib_device ibdev;
105         struct cxio_rdev rdev;
106         u32 device_cap_flags;
107         struct iwch_rnic_attributes attr;
108         struct idr cqidr;
109         struct idr qpidr;
110         struct idr mmidr;
111         struct mtx lock;
112         TAILQ_ENTRY(iwch_dev) entry;
113 };
114
115 #ifndef container_of
116 #define container_of(p, stype, field) ((stype *)(((uint8_t *)(p)) - offsetof(stype, field)))
117 #endif
118
119 static inline struct iwch_dev *to_iwch_dev(struct ib_device *ibdev)
120 {
121         return container_of(ibdev, struct iwch_dev, ibdev);
122 }
123
124 static inline int t3b_device(const struct iwch_dev *rhp __unused)
125 {
126         return (0);
127 }
128
129 static inline int t3a_device(const struct iwch_dev *rhp __unused)
130 {
131         return (0);
132 }
133
134 static inline struct iwch_cq *get_chp(struct iwch_dev *rhp, u32 cqid)
135 {
136         return idr_find(&rhp->cqidr, cqid);
137 }
138
139 static inline struct iwch_qp *get_qhp(struct iwch_dev *rhp, u32 qpid)
140 {
141         return idr_find(&rhp->qpidr, qpid);
142 }
143
144 static inline struct iwch_mr *get_mhp(struct iwch_dev *rhp, u32 mmid)
145 {
146         return idr_find(&rhp->mmidr, mmid);
147 }
148
149 static inline int insert_handle(struct iwch_dev *rhp, struct idr *idr,
150                                 void *handle, u32 id)
151 {
152         int ret;
153         u32 newid;
154
155         do {
156                 if (!idr_pre_get(idr, GFP_KERNEL)) {
157                         return -ENOMEM;
158                 }
159                 mtx_lock(&rhp->lock);
160                 ret = idr_get_new_above(idr, handle, id, &newid);
161                 WARN_ON(ret != 0);
162                 WARN_ON(!ret && newid != id);
163                 mtx_unlock(&rhp->lock);
164         } while (ret == -EAGAIN);
165
166         return ret;
167 }
168
169 static inline void remove_handle(struct iwch_dev *rhp, struct idr *idr, u32 id)
170 {
171         mtx_lock(&rhp->lock);
172         idr_remove(idr, id);
173         mtx_unlock(&rhp->lock);
174 }
175
176 void iwch_ev_dispatch(struct iwch_dev *, struct mbuf *);
177 #endif