]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/netinet/sctp_lock_bsd.h
This commit was generated by cvs2svn to compensate for changes in r168463,
[FreeBSD/FreeBSD.git] / sys / netinet / sctp_lock_bsd.h
1 #ifndef __sctp_lock_bsd_h__
2 #define __sctp_lock_bsd_h__
3 /*-
4  * Copyright (c) 2001-2006, Cisco Systems, Inc. All rights reserved.
5  *
6  * Redistribution and use in source and binary forms, with or without
7  * modification, are permitted provided that the following conditions are met:
8  *
9  * a) Redistributions of source code must retain the above copyright notice,
10  *   this list of conditions and the following disclaimer.
11  *
12  * b) Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in
14  *   the documentation and/or other materials provided with the distribution.
15  *
16  * c) Neither the name of Cisco Systems, Inc. nor the names of its
17  *    contributors may be used to endorse or promote products derived
18  *    from this software without specific prior written permission.
19  *
20  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
21  * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO,
22  * THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
23  * ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR CONTRIBUTORS BE
24  * LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
25  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
26  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
27  * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
28  * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
29  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF
30  * THE POSSIBILITY OF SUCH DAMAGE.
31  */
32
33 /*
34  * General locking concepts: The goal of our locking is to of course provide
35  * consistency and yet minimize overhead. We will attempt to use
36  * non-recursive locks which are supposed to be quite inexpensive. Now in
37  * order to do this the goal is that most functions are not aware of locking.
38  * Once we have a TCB we lock it and unlock when we are through. This means
39  * that the TCB lock is kind-of a "global" lock when working on an
40  * association. Caution must be used when asserting a TCB_LOCK since if we
41  * recurse we deadlock.
42  *
43  * Most other locks (INP and INFO) attempt to localize the locking i.e. we try
44  * to contain the lock and unlock within the function that needs to lock it.
45  * This sometimes mean we do extra locks and unlocks and lose a bit of
46  * efficency, but if the performance statements about non-recursive locks are
47  * true this should not be a problem.  One issue that arises with this only
48  * lock when needed is that if an implicit association setup is done we have
49  * a problem. If at the time I lookup an association I have NULL in the tcb
50  * return, by the time I call to create the association some other processor
51  * could have created it. This is what the CREATE lock on the endpoint.
52  * Places where we will be implicitly creating the association OR just
53  * creating an association (the connect call) will assert the CREATE_INP
54  * lock. This will assure us that during all the lookup of INP and INFO if
55  * another creator is also locking/looking up we can gate the two to
56  * synchronize. So the CREATE_INP lock is also another one we must use
57  * extreme caution in locking to make sure we don't hit a re-entrancy issue.
58  *
59  * For non FreeBSD 5.x we provide a bunch of EMPTY lock macros so we can
60  * blatantly put locks everywhere and they reduce to nothing on
61  * NetBSD/OpenBSD and FreeBSD 4.x
62  *
63  */
64
65 /*
66  * When working with the global SCTP lists we lock and unlock the INP_INFO
67  * lock. So when we go to lookup an association we will want to do a
68  * SCTP_INP_INFO_RLOCK() and then when we want to add a new association to
69  * the sctppcbinfo list's we will do a SCTP_INP_INFO_WLOCK().
70  */
71 #include <sys/cdefs.h>
72 __FBSDID("$FreeBSD$");
73
74
75 extern struct sctp_foo_stuff sctp_logoff[];
76 extern int sctp_logoff_stuff;
77
78 #define SCTP_IPI_COUNT_INIT()
79
80 #define SCTP_STATLOG_INIT_LOCK()
81 #define SCTP_STATLOG_LOCK()
82 #define SCTP_STATLOG_UNLOCK()
83 #define SCTP_STATLOG_DESTROY()
84
85 #define SCTP_STATLOG_GETREF(x) { \
86         x = atomic_fetchadd_int(&global_sctp_cwnd_log_at, 1); \
87         if(x == SCTP_STAT_LOG_SIZE) { \
88            global_sctp_cwnd_log_at = 1; \
89            x = 0; \
90            global_sctp_cwnd_log_rolled = 1; \
91         } \
92 }
93
94
95 #define SCTP_INP_INFO_LOCK_INIT() \
96         mtx_init(&sctppcbinfo.ipi_ep_mtx, "sctp-info", "inp_info", MTX_DEF)
97
98
99 #define SCTP_INP_INFO_RLOCK()   do {                                    \
100              mtx_lock(&sctppcbinfo.ipi_ep_mtx);                         \
101 } while (0)
102
103
104 #define SCTP_INP_INFO_WLOCK()   do {                                    \
105              mtx_lock(&sctppcbinfo.ipi_ep_mtx);                         \
106 } while (0)
107
108
109 #define SCTP_IPI_ADDR_INIT() \
110         mtx_init(&sctppcbinfo.ipi_addr_mtx, "sctp-addr", "sctp_addr", MTX_DEF)
111
112 #define SCTP_IPI_ADDR_DESTROY() \
113         mtx_destroy(&sctppcbinfo.ipi_addr_mtx)
114
115 #define SCTP_IPI_ADDR_LOCK()    do {                                    \
116              mtx_lock(&sctppcbinfo.ipi_addr_mtx);                         \
117 } while (0)
118
119 #define SCTP_IPI_ADDR_UNLOCK()          mtx_unlock(&sctppcbinfo.ipi_addr_mtx)
120
121
122
123 #define SCTP_IPI_ITERATOR_WQ_INIT() \
124         mtx_init(&sctppcbinfo.ipi_iterator_wq_mtx, "sctp-it-wq", "sctp_it_wq", MTX_DEF)
125
126 #define SCTP_IPI_ITERATOR_WQ_DESTROY() \
127         mtx_destroy(&sctppcbinfo.ipi_iterator_wq_mtx)
128
129 #define SCTP_IPI_ITERATOR_WQ_LOCK()     do {                                    \
130              mtx_lock(&sctppcbinfo.ipi_iterator_wq_mtx);                \
131 } while (0)
132
133 #define SCTP_IPI_ITERATOR_WQ_UNLOCK()           mtx_unlock(&sctppcbinfo.ipi_iterator_wq_mtx)
134
135
136
137
138
139 #define SCTP_INP_INFO_RUNLOCK()         mtx_unlock(&sctppcbinfo.ipi_ep_mtx)
140 #define SCTP_INP_INFO_WUNLOCK()         mtx_unlock(&sctppcbinfo.ipi_ep_mtx)
141
142 /*
143  * The INP locks we will use for locking an SCTP endpoint, so for example if
144  * we want to change something at the endpoint level for example random_store
145  * or cookie secrets we lock the INP level.
146  */
147
148 #define SCTP_INP_READ_INIT(_inp) \
149         mtx_init(&(_inp)->inp_rdata_mtx, "sctp-read", "inpr", MTX_DEF | MTX_DUPOK)
150
151 #define SCTP_INP_READ_DESTROY(_inp) \
152         mtx_destroy(&(_inp)->inp_rdata_mtx)
153
154 #define SCTP_INP_READ_LOCK(_inp)        do { \
155         mtx_lock(&(_inp)->inp_rdata_mtx);    \
156 } while (0)
157
158
159 #define SCTP_INP_READ_UNLOCK(_inp) mtx_unlock(&(_inp)->inp_rdata_mtx)
160
161
162 #define SCTP_INP_LOCK_INIT(_inp) \
163         mtx_init(&(_inp)->inp_mtx, "sctp-inp", "inp", MTX_DEF | MTX_DUPOK)
164 #define SCTP_ASOC_CREATE_LOCK_INIT(_inp) \
165         mtx_init(&(_inp)->inp_create_mtx, "sctp-create", "inp_create", \
166                  MTX_DEF | MTX_DUPOK)
167
168 #define SCTP_INP_LOCK_DESTROY(_inp) \
169         mtx_destroy(&(_inp)->inp_mtx)
170
171 #define SCTP_ASOC_CREATE_LOCK_DESTROY(_inp) \
172         mtx_destroy(&(_inp)->inp_create_mtx)
173
174
175 #ifdef SCTP_LOCK_LOGGING
176 #define SCTP_INP_RLOCK(_inp)    do {                                    \
177         sctp_log_lock(_inp, (struct sctp_tcb *)NULL, SCTP_LOG_LOCK_INP);\
178         mtx_lock(&(_inp)->inp_mtx);                                     \
179 } while (0)
180
181 #define SCTP_INP_WLOCK(_inp)    do {                                    \
182         sctp_log_lock(_inp, (struct sctp_tcb *)NULL, SCTP_LOG_LOCK_INP);\
183         mtx_lock(&(_inp)->inp_mtx);                                     \
184 } while (0)
185
186 #else
187
188 #define SCTP_INP_RLOCK(_inp)    do {                                    \
189         mtx_lock(&(_inp)->inp_mtx);                                     \
190 } while (0)
191
192 #define SCTP_INP_WLOCK(_inp)    do {                                    \
193         mtx_lock(&(_inp)->inp_mtx);                                     \
194 } while (0)
195
196 #endif
197
198
199 #define SCTP_TCB_SEND_LOCK_INIT(_tcb) \
200         mtx_init(&(_tcb)->tcb_send_mtx, "sctp-send-tcb", "tcbs", MTX_DEF | MTX_DUPOK)
201
202 #define SCTP_TCB_SEND_LOCK_DESTROY(_tcb) mtx_destroy(&(_tcb)->tcb_send_mtx)
203
204 #define SCTP_TCB_SEND_LOCK(_tcb)  do { \
205         mtx_lock(&(_tcb)->tcb_send_mtx); \
206 } while (0)
207
208 #define SCTP_TCB_SEND_UNLOCK(_tcb) mtx_unlock(&(_tcb)->tcb_send_mtx)
209
210 #define SCTP_INP_INCR_REF(_inp) atomic_add_int(&((_inp)->refcount), 1)
211 #define SCTP_INP_DECR_REF(_inp) atomic_add_int(&((_inp)->refcount), -1)
212
213
214 #ifdef SCTP_LOCK_LOGGING
215 #define SCTP_ASOC_CREATE_LOCK(_inp) \
216         do {                                                            \
217                 sctp_log_lock(_inp, (struct sctp_tcb *)NULL, SCTP_LOG_LOCK_CREATE); \
218                 mtx_lock(&(_inp)->inp_create_mtx);                      \
219         } while (0)
220 #else
221
222 #define SCTP_ASOC_CREATE_LOCK(_inp) \
223         do {                                                            \
224                 mtx_lock(&(_inp)->inp_create_mtx);                      \
225         } while (0)
226 #endif
227
228 #define SCTP_INP_RUNLOCK(_inp)          mtx_unlock(&(_inp)->inp_mtx)
229 #define SCTP_INP_WUNLOCK(_inp)          mtx_unlock(&(_inp)->inp_mtx)
230 #define SCTP_ASOC_CREATE_UNLOCK(_inp)   mtx_unlock(&(_inp)->inp_create_mtx)
231
232 /*
233  * For the majority of things (once we have found the association) we will
234  * lock the actual association mutex. This will protect all the assoiciation
235  * level queues and streams and such. We will need to lock the socket layer
236  * when we stuff data up into the receiving sb_mb. I.e. we will need to do an
237  * extra SOCKBUF_LOCK(&so->so_rcv) even though the association is locked.
238  */
239
240 #define SCTP_TCB_LOCK_INIT(_tcb) \
241         mtx_init(&(_tcb)->tcb_mtx, "sctp-tcb", "tcb", MTX_DEF | MTX_DUPOK)
242
243 #define SCTP_TCB_LOCK_DESTROY(_tcb)     mtx_destroy(&(_tcb)->tcb_mtx)
244
245 #ifdef SCTP_LOCK_LOGGING
246 #define SCTP_TCB_LOCK(_tcb)  do {                                       \
247         sctp_log_lock(_tcb->sctp_ep, _tcb, SCTP_LOG_LOCK_TCB);          \
248         mtx_lock(&(_tcb)->tcb_mtx);                                     \
249 } while (0)
250
251 #else
252 #define SCTP_TCB_LOCK(_tcb)  do {                                       \
253         mtx_lock(&(_tcb)->tcb_mtx);                                     \
254 } while (0)
255
256 #endif
257
258
259 #define SCTP_TCB_TRYLOCK(_tcb)  mtx_trylock(&(_tcb)->tcb_mtx)
260
261 #define SCTP_TCB_UNLOCK(_tcb)           mtx_unlock(&(_tcb)->tcb_mtx)
262
263 #define SCTP_TCB_UNLOCK_IFOWNED(_tcb)         do { \
264                                                 if (mtx_owned(&(_tcb)->tcb_mtx)) \
265                                                      mtx_unlock(&(_tcb)->tcb_mtx); \
266                                               } while (0)
267
268
269
270 #ifdef INVARIANTS
271 #define SCTP_TCB_LOCK_ASSERT(_tcb) do { \
272                             if (mtx_owned(&(_tcb)->tcb_mtx) == 0) \
273                                 panic("Don't own TCB lock"); \
274                             } while (0)
275 #else
276 #define SCTP_TCB_LOCK_ASSERT(_tcb)
277 #endif
278
279 #define SCTP_ITERATOR_LOCK_INIT() \
280         mtx_init(&sctppcbinfo.it_mtx, "sctp-it", "iterator", MTX_DEF)
281
282 #ifdef INVARIANTS
283 #define SCTP_ITERATOR_LOCK() \
284         do {                                                            \
285                 if (mtx_owned(&sctppcbinfo.it_mtx))                     \
286                         panic("Iterator Lock");                         \
287                 mtx_lock(&sctppcbinfo.it_mtx);                          \
288         } while (0)
289 #else
290 #define SCTP_ITERATOR_LOCK() \
291         do {                                                            \
292                 mtx_lock(&sctppcbinfo.it_mtx);                          \
293         } while (0)
294
295 #endif
296
297 #define SCTP_ITERATOR_UNLOCK()          mtx_unlock(&sctppcbinfo.it_mtx)
298 #define SCTP_ITERATOR_LOCK_DESTROY()    mtx_destroy(&sctppcbinfo.it_mtx)
299
300
301 #define SCTP_INCR_EP_COUNT() \
302                 do { \
303                        atomic_add_int(&sctppcbinfo.ipi_count_ep, 1); \
304                 } while (0)
305
306 #define SCTP_DECR_EP_COUNT() \
307                 do { \
308                        atomic_add_int(&sctppcbinfo.ipi_count_ep,-1); \
309                 } while (0)
310
311 #define SCTP_INCR_ASOC_COUNT() \
312                 do { \
313                        atomic_add_int(&sctppcbinfo.ipi_count_asoc, 1); \
314                 } while (0)
315
316 #define SCTP_DECR_ASOC_COUNT() \
317                 do { \
318                        atomic_add_int(&sctppcbinfo.ipi_count_asoc, -1); \
319                 } while (0)
320
321 #define SCTP_INCR_LADDR_COUNT() \
322                 do { \
323                        atomic_add_int(&sctppcbinfo.ipi_count_laddr, 1); \
324                 } while (0)
325
326 #define SCTP_DECR_LADDR_COUNT() \
327                 do { \
328                        atomic_add_int(&sctppcbinfo.ipi_count_laddr, -1); \
329                 } while (0)
330
331 #define SCTP_INCR_RADDR_COUNT() \
332                 do { \
333                        atomic_add_int(&sctppcbinfo.ipi_count_raddr,1); \
334                 } while (0)
335
336 #define SCTP_DECR_RADDR_COUNT() \
337                 do { \
338                        atomic_add_int(&sctppcbinfo.ipi_count_raddr,-1); \
339                 } while (0)
340
341 #define SCTP_INCR_CHK_COUNT() \
342                 do { \
343                        atomic_add_int(&sctppcbinfo.ipi_count_chunk, 1); \
344                 } while (0)
345
346 #define SCTP_DECR_CHK_COUNT() \
347                 do { \
348                        if(sctppcbinfo.ipi_count_chunk == 0) \
349                              panic("chunk count to 0?");    \
350                        atomic_add_int(&sctppcbinfo.ipi_count_chunk,-1); \
351                 } while (0)
352
353 #define SCTP_INCR_READQ_COUNT() \
354                 do { \
355                        atomic_add_int(&sctppcbinfo.ipi_count_readq,1); \
356                 } while (0)
357
358 #define SCTP_DECR_READQ_COUNT() \
359                 do { \
360                        atomic_add_int(&sctppcbinfo.ipi_count_readq, -1); \
361                 } while (0)
362
363 #define SCTP_INCR_STRMOQ_COUNT() \
364                 do { \
365                        atomic_add_int(&sctppcbinfo.ipi_count_strmoq, 1); \
366                 } while (0)
367
368 #define SCTP_DECR_STRMOQ_COUNT() \
369                 do { \
370                        atomic_add_int(&sctppcbinfo.ipi_count_strmoq,-1); \
371                 } while (0)
372
373
374
375
376
377 #endif