]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/net/netmap.h
zfs: merge openzfs/zfs@ef83e07db (zfs-2.1-release) into stable/13
[FreeBSD/FreeBSD.git] / sys / net / netmap.h
1 /*-
2  * SPDX-License-Identifier: BSD-2-Clause-FreeBSD
3  *
4  * Copyright (C) 2011-2014 Matteo Landi, Luigi Rizzo. All rights reserved.
5  *
6  * Redistribution and use in source and binary forms, with or without
7  * modification, are permitted provided that the following conditions
8  * are met:
9  *
10  *   1. Redistributions of source code must retain the above copyright
11  *      notice, this list of conditions and the following disclaimer.
12  *   2. Redistributions in binary form must reproduce the above copyright
13  *      notice, this list of conditions and the following disclaimer in the
14  *      documentation and/or other materials provided with the distribution.
15  *
16  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``S IS''AND
17  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
18  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
19  * ARE DISCLAIMED. IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
20  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
21  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
22  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
23  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
24  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
25  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
26  * SUCH DAMAGE.
27  */
28
29 /*
30  * $FreeBSD$
31  *
32  * Definitions of constants and the structures used by the netmap
33  * framework, for the part visible to both kernel and userspace.
34  * Detailed info on netmap is available with "man netmap" or at
35  *
36  *      http://info.iet.unipi.it/~luigi/netmap/
37  *
38  * This API is also used to communicate with the VALE software switch
39  */
40
41 #ifndef _NET_NETMAP_H_
42 #define _NET_NETMAP_H_
43
44 #define NETMAP_API      14              /* current API version */
45
46 #define NETMAP_MIN_API  14              /* min and max versions accepted */
47 #define NETMAP_MAX_API  15
48 /*
49  * Some fields should be cache-aligned to reduce contention.
50  * The alignment is architecture and OS dependent, but rather than
51  * digging into OS headers to find the exact value we use an estimate
52  * that should cover most architectures.
53  */
54 #define NM_CACHE_ALIGN  128
55
56 /*
57  * --- Netmap data structures ---
58  *
59  * The userspace data structures used by netmap are shown below.
60  * They are allocated by the kernel and mmap()ed by userspace threads.
61  * Pointers are implemented as memory offsets or indexes,
62  * so that they can be easily dereferenced in kernel and userspace.
63
64    KERNEL (opaque, obviously)
65
66   ====================================================================
67                                           |
68    USERSPACE                              |      struct netmap_ring
69                                           +---->+---------------+
70                                               / | head,cur,tail |
71    struct netmap_if (nifp, 1 per fd)         /  | buf_ofs       |
72     +----------------+                      /   | other fields  |
73     | ni_tx_rings    |                     /    +===============+
74     | ni_rx_rings    |                    /     | buf_idx, len  | slot[0]
75     |                |                   /      | flags, ptr    |
76     |                |                  /       +---------------+
77     +================+                 /        | buf_idx, len  | slot[1]
78     | txring_ofs[0]  | (rel.to nifp)--'         | flags, ptr    |
79     | txring_ofs[1]  |                          +---------------+
80      (tx+htx entries)                           (num_slots entries)
81     | txring_ofs[t]  |                          | buf_idx, len  | slot[n-1]
82     +----------------+                          | flags, ptr    |
83     | rxring_ofs[0]  |                          +---------------+
84     | rxring_ofs[1]  |
85      (rx+hrx entries)
86     | rxring_ofs[r]  |
87     +----------------+
88
89  * For each "interface" (NIC, host stack, PIPE, VALE switch port) bound to
90  * a file descriptor, the mmap()ed region contains a (logically readonly)
91  * struct netmap_if pointing to struct netmap_ring's.
92  *
93  * There is one netmap_ring per physical NIC ring, plus at least one tx/rx ring
94  * pair attached to the host stack (these pairs are unused for non-NIC ports).
95  *
96  * All physical/host stack ports share the same memory region,
97  * so that zero-copy can be implemented between them.
98  * VALE switch ports instead have separate memory regions.
99  *
100  * The netmap_ring is the userspace-visible replica of the NIC ring.
101  * Each slot has the index of a buffer (MTU-sized and residing in the
102  * mmapped region), its length and some flags. An extra 64-bit pointer
103  * is provided for user-supplied buffers in the tx path.
104  *
105  * In user space, the buffer address is computed as
106  *      (char *)ring + buf_ofs + index * NETMAP_BUF_SIZE
107  *
108  * Added in NETMAP_API 11:
109  *
110  * + NIOCREGIF can request the allocation of extra spare buffers from
111  *   the same memory pool. The desired number of buffers must be in
112  *   nr_arg3. The ioctl may return fewer buffers, depending on memory
113  *   availability. nr_arg3 will return the actual value, and, once
114  *   mapped, nifp->ni_bufs_head will be the index of the first buffer.
115  *
116  *   The buffers are linked to each other using the first uint32_t
117  *   as the index. On close, ni_bufs_head must point to the list of
118  *   buffers to be released.
119  *
120  * + NIOCREGIF can attach to PIPE rings sharing the same memory
121  *   space with a parent device. The ifname indicates the parent device,
122  *   which must already exist. Flags in nr_flags indicate if we want to
123  *   bind the master or slave side, the index (from nr_ringid)
124  *   is just a cookie and does not need to be sequential.
125  *
126  * + NIOCREGIF can also attach to 'monitor' rings that replicate
127  *   the content of specific rings, also from the same memory space.
128  *
129  *   Extra flags in nr_flags support the above functions.
130  *   Application libraries may use the following naming scheme:
131  *      netmap:foo                      all NIC rings pairs
132  *      netmap:foo^                     only host rings pairs
133  *      netmap:foo^k                    the k-th host rings pair
134  *      netmap:foo+                     all NIC rings + host rings pairs
135  *      netmap:foo-k                    the k-th NIC rings pair
136  *      netmap:foo{k                    PIPE rings pair k, master side
137  *      netmap:foo}k                    PIPE rings pair k, slave side
138  *
139  * Some notes about host rings:
140  *
141  * + The RX host rings are used to store those packets that the host network
142  *   stack is trying to transmit through a NIC queue, but only if that queue
143  *   is currently in netmap mode. Netmap will not intercept host stack mbufs
144  *   designated to NIC queues that are not in netmap mode. As a consequence,
145  *   registering a netmap port with netmap:foo^ is not enough to intercept
146  *   mbufs in the RX host rings; the netmap port should be registered with
147  *   netmap:foo*, or another registration should be done to open at least a
148  *   NIC TX queue in netmap mode.
149  *
150  * + Netmap is not currently able to deal with intercepted trasmit mbufs which
151  *   require offloadings like TSO, UFO, checksumming offloadings, etc. It is
152  *   responsibility of the user to disable those offloadings (e.g. using
153  *   ifconfig on FreeBSD or ethtool -K on Linux) for an interface that is being
154  *   used in netmap mode. If the offloadings are not disabled, GSO and/or
155  *   unchecksummed packets may be dropped immediately or end up in the host RX
156  *   rings, and will be dropped as soon as the packet reaches another netmap
157  *   adapter.
158  */
159
160 /*
161  * struct netmap_slot is a buffer descriptor
162  */
163 struct netmap_slot {
164         uint32_t buf_idx;       /* buffer index */
165         uint16_t len;           /* length for this slot */
166         uint16_t flags;         /* buf changed, etc. */
167         uint64_t ptr;           /* pointer for indirect buffers */
168 };
169
170 /*
171  * The following flags control how the slot is used
172  */
173
174 #define NS_BUF_CHANGED  0x0001  /* buf_idx changed */
175         /*
176          * must be set whenever buf_idx is changed (as it might be
177          * necessary to recompute the physical address and mapping)
178          *
179          * It is also set by the kernel whenever the buf_idx is
180          * changed internally (e.g., by pipes). Applications may
181          * use this information to know when they can reuse the
182          * contents of previously prepared buffers.
183          */
184
185 #define NS_REPORT       0x0002  /* ask the hardware to report results */
186         /*
187          * Request notification when slot is used by the hardware.
188          * Normally transmit completions are handled lazily and
189          * may be unreported. This flag lets us know when a slot
190          * has been sent (e.g. to terminate the sender).
191          */
192
193 #define NS_FORWARD      0x0004  /* pass packet 'forward' */
194         /*
195          * (Only for physical ports, rx rings with NR_FORWARD set).
196          * Slot released to the kernel (i.e. before ring->head) with
197          * this flag set are passed to the peer ring (host/NIC),
198          * thus restoring the host-NIC connection for these slots.
199          * This supports efficient traffic monitoring or firewalling.
200          */
201
202 #define NS_NO_LEARN     0x0008  /* disable bridge learning */
203         /*
204          * On a VALE switch, do not 'learn' the source port for
205          * this buffer.
206          */
207
208 #define NS_INDIRECT     0x0010  /* userspace buffer */
209         /*
210          * (VALE tx rings only) data is in a userspace buffer,
211          * whose address is in the 'ptr' field in the slot.
212          */
213
214 #define NS_MOREFRAG     0x0020  /* packet has more fragments */
215         /*
216          * (VALE ports, ptnetmap ports and some NIC ports, e.g.
217          * ixgbe and i40e on Linux)
218          * Set on all but the last slot of a multi-segment packet.
219          * The 'len' field refers to the individual fragment.
220          */
221
222 #define NS_TXMON        0x0040
223         /* (monitor ports only) the packet comes from the TX
224          * ring of the monitored port
225          */
226
227 #define NS_PORT_SHIFT   8
228 #define NS_PORT_MASK    (0xff << NS_PORT_SHIFT)
229         /*
230          * The high 8 bits of the flag, if not zero, indicate the
231          * destination port for the VALE switch, overriding
232          * the lookup table.
233          */
234
235 #define NS_RFRAGS(_slot)        ( ((_slot)->flags >> 8) & 0xff)
236         /*
237          * (VALE rx rings only) the high 8 bits
238          *  are the number of fragments.
239          */
240
241 #define NETMAP_MAX_FRAGS        64      /* max number of fragments */
242
243 /*
244  * struct netmap_ring
245  *
246  * Netmap representation of a TX or RX ring (also known as "queue").
247  * This is a queue implemented as a fixed-size circular array.
248  * At the software level the important fields are: head, cur, tail.
249  *
250  * In TX rings:
251  *
252  *      head    first slot available for transmission.
253  *      cur     wakeup point. select() and poll() will unblock
254  *              when 'tail' moves past 'cur'
255  *      tail    (readonly) first slot reserved to the kernel
256  *
257  *      [head .. tail-1] can be used for new packets to send;
258  *      'head' and 'cur' must be incremented as slots are filled
259  *          with new packets to be sent;
260  *      'cur' can be moved further ahead if we need more space
261  *      for new transmissions. XXX todo (2014-03-12)
262  *
263  * In RX rings:
264  *
265  *      head    first valid received packet
266  *      cur     wakeup point. select() and poll() will unblock
267  *              when 'tail' moves past 'cur'
268  *      tail    (readonly) first slot reserved to the kernel
269  *
270  *      [head .. tail-1] contain received packets;
271  *      'head' and 'cur' must be incremented as slots are consumed
272  *              and can be returned to the kernel;
273  *      'cur' can be moved further ahead if we want to wait for
274  *              new packets without returning the previous ones.
275  *
276  * DATA OWNERSHIP/LOCKING:
277  *      The netmap_ring, and all slots and buffers in the range
278  *      [head .. tail-1] are owned by the user program;
279  *      the kernel only accesses them during a netmap system call
280  *      and in the user thread context.
281  *
282  *      Other slots and buffers are reserved for use by the kernel
283  */
284 struct netmap_ring {
285         /*
286          * buf_ofs is meant to be used through macros.
287          * It contains the offset of the buffer region from this
288          * descriptor.
289          */
290         const int64_t   buf_ofs;
291         const uint32_t  num_slots;      /* number of slots in the ring. */
292         const uint32_t  nr_buf_size;
293         const uint16_t  ringid;
294         const uint16_t  dir;            /* 0: tx, 1: rx */
295
296         uint32_t        head;           /* (u) first user slot */
297         uint32_t        cur;            /* (u) wakeup point */
298         uint32_t        tail;           /* (k) first kernel slot */
299
300         uint32_t        flags;
301
302         struct timeval  ts;             /* (k) time of last *sync() */
303
304         /* opaque room for a mutex or similar object */
305 #if !defined(_WIN32) || defined(__CYGWIN__)
306         uint8_t __attribute__((__aligned__(NM_CACHE_ALIGN))) sem[128];
307 #else
308         uint8_t __declspec(align(NM_CACHE_ALIGN)) sem[128];
309 #endif
310
311         /* the slots follow. This struct has variable size */
312         struct netmap_slot slot[0];     /* array of slots. */
313 };
314
315 /*
316  * RING FLAGS
317  */
318 #define NR_TIMESTAMP    0x0002          /* set timestamp on *sync() */
319         /*
320          * updates the 'ts' field on each netmap syscall. This saves
321          * saves a separate gettimeofday(), and is not much worse than
322          * software timestamps generated in the interrupt handler.
323          */
324
325 #define NR_FORWARD      0x0004          /* enable NS_FORWARD for ring */
326         /*
327          * Enables the NS_FORWARD slot flag for the ring.
328          */
329
330 /*
331  * Helper functions for kernel and userspace
332  */
333
334 /*
335  * Check if space is available in the ring. We use ring->head, which
336  * points to the next netmap slot to be published to netmap. It is
337  * possible that the applications moves ring->cur ahead of ring->tail
338  * (e.g., by setting ring->cur <== ring->tail), if it wants more slots
339  * than the ones currently available, and it wants to be notified when
340  * more arrive. See netmap(4) for more details and examples.
341  */
342 static inline int
343 nm_ring_empty(struct netmap_ring *ring)
344 {
345         return (ring->head == ring->tail);
346 }
347
348 /*
349  * Netmap representation of an interface and its queue(s).
350  * This is initialized by the kernel when binding a file
351  * descriptor to a port, and should be considered as readonly
352  * by user programs. The kernel never uses it.
353  *
354  * There is one netmap_if for each file descriptor on which we want
355  * to select/poll.
356  * select/poll operates on one or all pairs depending on the value of
357  * nmr_queueid passed on the ioctl.
358  */
359 struct netmap_if {
360         char            ni_name[IFNAMSIZ]; /* name of the interface. */
361         const uint32_t  ni_version;     /* API version, currently unused */
362         const uint32_t  ni_flags;       /* properties */
363 #define NI_PRIV_MEM     0x1             /* private memory region */
364
365         /*
366          * The number of packet rings available in netmap mode.
367          * Physical NICs can have different numbers of tx and rx rings.
368          * Physical NICs also have at least a 'host' rings pair.
369          * Additionally, clients can request additional ring pairs to
370          * be used for internal communication.
371          */
372         const uint32_t  ni_tx_rings;    /* number of HW tx rings */
373         const uint32_t  ni_rx_rings;    /* number of HW rx rings */
374
375         uint32_t        ni_bufs_head;   /* head index for extra bufs */
376         const uint32_t  ni_host_tx_rings; /* number of SW tx rings */
377         const uint32_t  ni_host_rx_rings; /* number of SW rx rings */
378         uint32_t        ni_spare1[3];
379         /*
380          * The following array contains the offset of each netmap ring
381          * from this structure, in the following order:
382          *     - NIC tx rings (ni_tx_rings);
383          *     - host tx rings (ni_host_tx_rings);
384          *     - NIC rx rings (ni_rx_rings);
385          *     - host rx ring (ni_host_rx_rings);
386          *
387          * The area is filled up by the kernel on NETMAP_REQ_REGISTER,
388          * and then only read by userspace code.
389          */
390         const ssize_t   ring_ofs[0];
391 };
392
393 /* Legacy interface to interact with a netmap control device.
394  * Included for backward compatibility. The user should not include this
395  * file directly. */
396 #include "netmap_legacy.h"
397
398 /*
399  * New API to control netmap control devices. New applications should only use
400  * nmreq_xyz structs with the NIOCCTRL ioctl() command.
401  *
402  * NIOCCTRL takes a nmreq_header struct, which contains the required
403  * API version, the name of a netmap port, a command type, and pointers
404  * to request body and options.
405  *
406  *      nr_name (in)
407  *              The name of the port (em0, valeXXX:YYY, eth0{pn1 etc.)
408  *
409  *      nr_version (in/out)
410  *              Must match NETMAP_API as used in the kernel, error otherwise.
411  *              Always returns the desired value on output.
412  *
413  *      nr_reqtype (in)
414  *              One of the NETMAP_REQ_* command types below
415  *
416  *      nr_body (in)
417  *              Pointer to a command-specific struct, described by one
418  *              of the struct nmreq_xyz below.
419  *
420  *      nr_options (in)
421  *              Command specific options, if any.
422  *
423  * A NETMAP_REQ_REGISTER command activates netmap mode on the netmap
424  * port (e.g. physical interface) specified by nmreq_header.nr_name.
425  * The request body (struct nmreq_register) has several arguments to
426  * specify how the port is to be registered.
427  *
428  *      nr_tx_slots, nr_tx_slots, nr_tx_rings, nr_rx_rings,
429  *      nr_host_tx_rings, nr_host_rx_rings (in/out)
430  *              On input, non-zero values may be used to reconfigure the port
431  *              according to the requested values, but this is not guaranteed.
432  *              On output the actual values in use are reported.
433  *
434  *      nr_mode (in)
435  *              Indicate what set of rings must be bound to the netmap
436  *              device (e.g. all NIC rings, host rings only, NIC and
437  *              host rings, ...). Values are in NR_REG_*.
438  *
439  *      nr_ringid (in)
440  *              If nr_mode == NR_REG_ONE_NIC (only a single couple of TX/RX
441  *              rings), indicate which NIC TX and/or RX ring is to be bound
442  *              (0..nr_*x_rings-1).
443  *
444  *      nr_flags (in)
445  *              Indicate special options for how to open the port.
446  *
447  *              NR_NO_TX_POLL can be OR-ed to make select()/poll() push
448  *                      packets on tx rings only if POLLOUT is set.
449  *                      The default is to push any pending packet.
450  *
451  *              NR_DO_RX_POLL can be OR-ed to make select()/poll() release
452  *                      packets on rx rings also when POLLIN is NOT set.
453  *                      The default is to touch the rx ring only with POLLIN.
454  *                      Note that this is the opposite of TX because it
455  *                      reflects the common usage.
456  *
457  *              Other options are NR_MONITOR_TX, NR_MONITOR_RX, NR_ZCOPY_MON,
458  *              NR_EXCLUSIVE, NR_RX_RINGS_ONLY, NR_TX_RINGS_ONLY and
459  *              NR_ACCEPT_VNET_HDR.
460  *
461  *      nr_mem_id (in/out)
462  *              The identity of the memory region used.
463  *              On input, 0 means the system decides autonomously,
464  *              other values may try to select a specific region.
465  *              On return the actual value is reported.
466  *              Region '1' is the global allocator, normally shared
467  *              by all interfaces. Other values are private regions.
468  *              If two ports the same region zero-copy is possible.
469  *
470  *      nr_extra_bufs (in/out)
471  *              Number of extra buffers to be allocated.
472  *
473  * The other NETMAP_REQ_* commands are described below.
474  *
475  */
476
477 /* maximum size of a request, including all options */
478 #define NETMAP_REQ_MAXSIZE      4096
479
480 /* Header common to all request options. */
481 struct nmreq_option {
482         /* Pointer ot the next option. */
483         uint64_t                nro_next;
484         /* Option type. */
485         uint32_t                nro_reqtype;
486         /* (out) status of the option:
487          * 0: recognized and processed
488          * !=0: errno value
489          */
490         uint32_t                nro_status;
491         /* Option size, used only for options that can have variable size
492          * (e.g. because they contain arrays). For fixed-size options this
493          * field should be set to zero. */
494         uint64_t                nro_size;
495 };
496
497 /* Header common to all requests. Do not reorder these fields, as we need
498  * the second one (nr_reqtype) to know how much to copy from/to userspace. */
499 struct nmreq_header {
500         uint16_t                nr_version;     /* API version */
501         uint16_t                nr_reqtype;     /* nmreq type (NETMAP_REQ_*) */
502         uint32_t                nr_reserved;    /* must be zero */
503 #define NETMAP_REQ_IFNAMSIZ     64
504         char                    nr_name[NETMAP_REQ_IFNAMSIZ]; /* port name */
505         uint64_t                nr_options;     /* command-specific options */
506         uint64_t                nr_body;        /* ptr to nmreq_xyz struct */
507 };
508
509 enum {
510         /* Register a netmap port with the device. */
511         NETMAP_REQ_REGISTER = 1,
512         /* Get information from a netmap port. */
513         NETMAP_REQ_PORT_INFO_GET,
514         /* Attach a netmap port to a VALE switch. */
515         NETMAP_REQ_VALE_ATTACH,
516         /* Detach a netmap port from a VALE switch. */
517         NETMAP_REQ_VALE_DETACH,
518         /* List the ports attached to a VALE switch. */
519         NETMAP_REQ_VALE_LIST,
520         /* Set the port header length (was virtio-net header length). */
521         NETMAP_REQ_PORT_HDR_SET,
522         /* Get the port header length (was virtio-net header length). */
523         NETMAP_REQ_PORT_HDR_GET,
524         /* Create a new persistent VALE port. */
525         NETMAP_REQ_VALE_NEWIF,
526         /* Delete a persistent VALE port. */
527         NETMAP_REQ_VALE_DELIF,
528         /* Enable polling kernel thread(s) on an attached VALE port. */
529         NETMAP_REQ_VALE_POLLING_ENABLE,
530         /* Disable polling kernel thread(s) on an attached VALE port. */
531         NETMAP_REQ_VALE_POLLING_DISABLE,
532         /* Get info about the pools of a memory allocator. */
533         NETMAP_REQ_POOLS_INFO_GET,
534         /* Start an in-kernel loop that syncs the rings periodically or
535          * on notifications. The loop runs in the context of the ioctl
536          * syscall, and only stops on NETMAP_REQ_SYNC_KLOOP_STOP. */
537         NETMAP_REQ_SYNC_KLOOP_START,
538         /* Stops the thread executing the in-kernel loop. The thread
539          * returns from the ioctl syscall. */
540         NETMAP_REQ_SYNC_KLOOP_STOP,
541         /* Enable CSB mode on a registered netmap control device. */
542         NETMAP_REQ_CSB_ENABLE,
543 };
544
545 enum {
546         /* On NETMAP_REQ_REGISTER, ask netmap to use memory allocated
547          * from user-space allocated memory pools (e.g. hugepages).
548          */
549         NETMAP_REQ_OPT_EXTMEM = 1,
550
551         /* ON NETMAP_REQ_SYNC_KLOOP_START, ask netmap to use eventfd-based
552          * notifications to synchronize the kernel loop with the application.
553          */
554         NETMAP_REQ_OPT_SYNC_KLOOP_EVENTFDS,
555
556         /* On NETMAP_REQ_REGISTER, ask netmap to work in CSB mode, where
557          * head, cur and tail pointers are not exchanged through the
558          * struct netmap_ring header, but rather using an user-provided
559          * memory area (see struct nm_csb_atok and struct nm_csb_ktoa).
560          */
561         NETMAP_REQ_OPT_CSB,
562
563         /* An extension to NETMAP_REQ_OPT_SYNC_KLOOP_EVENTFDS, which specifies
564          * if the TX and/or RX rings are synced in the context of the VM exit.
565          * This requires the 'ioeventfd' fields to be valid (cannot be < 0).
566          */
567         NETMAP_REQ_OPT_SYNC_KLOOP_MODE,
568
569         /* This is a marker to count the number of available options.
570          * New options must be added above it. */
571         NETMAP_REQ_OPT_MAX,
572 };
573
574 /*
575  * nr_reqtype: NETMAP_REQ_REGISTER
576  * Bind (register) a netmap port to this control device.
577  */
578 struct nmreq_register {
579         uint64_t        nr_offset;      /* nifp offset in the shared region */
580         uint64_t        nr_memsize;     /* size of the shared region */
581         uint32_t        nr_tx_slots;    /* slots in tx rings */
582         uint32_t        nr_rx_slots;    /* slots in rx rings */
583         uint16_t        nr_tx_rings;    /* number of tx rings */
584         uint16_t        nr_rx_rings;    /* number of rx rings */
585         uint16_t        nr_host_tx_rings; /* number of host tx rings */
586         uint16_t        nr_host_rx_rings; /* number of host rx rings */
587
588         uint16_t        nr_mem_id;      /* id of the memory allocator */
589         uint16_t        nr_ringid;      /* ring(s) we care about */
590         uint32_t        nr_mode;        /* specify NR_REG_* modes */
591         uint32_t        nr_extra_bufs;  /* number of requested extra buffers */
592
593         uint64_t        nr_flags;       /* additional flags (see below) */
594 /* monitors use nr_ringid and nr_mode to select the rings to monitor */
595 #define NR_MONITOR_TX   0x100
596 #define NR_MONITOR_RX   0x200
597 #define NR_ZCOPY_MON    0x400
598 /* request exclusive access to the selected rings */
599 #define NR_EXCLUSIVE    0x800
600 /* 0x1000 unused */
601 #define NR_RX_RINGS_ONLY        0x2000
602 #define NR_TX_RINGS_ONLY        0x4000
603 /* Applications set this flag if they are able to deal with virtio-net headers,
604  * that is send/receive frames that start with a virtio-net header.
605  * If not set, NETMAP_REQ_REGISTER will fail with netmap ports that require
606  * applications to use those headers. If the flag is set, the application can
607  * use the NETMAP_VNET_HDR_GET command to figure out the header length. */
608 #define NR_ACCEPT_VNET_HDR      0x8000
609 /* The following two have the same meaning of NETMAP_NO_TX_POLL and
610  * NETMAP_DO_RX_POLL. */
611 #define NR_DO_RX_POLL           0x10000
612 #define NR_NO_TX_POLL           0x20000
613 };
614
615 /* Valid values for nmreq_register.nr_mode (see above). */
616 enum {  NR_REG_DEFAULT  = 0,    /* backward compat, should not be used. */
617         NR_REG_ALL_NIC  = 1,
618         NR_REG_SW       = 2,
619         NR_REG_NIC_SW   = 3,
620         NR_REG_ONE_NIC  = 4,
621         NR_REG_PIPE_MASTER = 5, /* deprecated, use "x{y" port name syntax */
622         NR_REG_PIPE_SLAVE = 6,  /* deprecated, use "x}y" port name syntax */
623         NR_REG_NULL     = 7,
624         NR_REG_ONE_SW   = 8,
625 };
626
627 /* A single ioctl number is shared by all the new API command.
628  * Demultiplexing is done using the hdr.nr_reqtype field.
629  * FreeBSD uses the size value embedded in the _IOWR to determine
630  * how much to copy in/out, so we define the ioctl() command
631  * specifying only nmreq_header, and copyin/copyout the rest. */
632 #define NIOCCTRL        _IOWR('i', 151, struct nmreq_header)
633
634 /* The ioctl commands to sync TX/RX netmap rings.
635  * NIOCTXSYNC, NIOCRXSYNC synchronize tx or rx queues,
636  *      whose identity is set in NETMAP_REQ_REGISTER through nr_ringid.
637  *      These are non blocking and take no argument. */
638 #define NIOCTXSYNC      _IO('i', 148) /* sync tx queues */
639 #define NIOCRXSYNC      _IO('i', 149) /* sync rx queues */
640
641 /*
642  * nr_reqtype: NETMAP_REQ_PORT_INFO_GET
643  * Get information about a netmap port, including number of rings.
644  * slots per ring, id of the memory allocator, etc. The netmap
645  * control device used for this operation does not need to be bound
646  * to a netmap port.
647  */
648 struct nmreq_port_info_get {
649         uint64_t        nr_memsize;     /* size of the shared region */
650         uint32_t        nr_tx_slots;    /* slots in tx rings */
651         uint32_t        nr_rx_slots;    /* slots in rx rings */
652         uint16_t        nr_tx_rings;    /* number of tx rings */
653         uint16_t        nr_rx_rings;    /* number of rx rings */
654         uint16_t        nr_host_tx_rings; /* number of host tx rings */
655         uint16_t        nr_host_rx_rings; /* number of host rx rings */
656         uint16_t        nr_mem_id;      /* memory allocator id (in/out) */
657         uint16_t        pad[3];
658 };
659
660 #define NM_BDG_NAME             "vale"  /* prefix for bridge port name */
661
662 /*
663  * nr_reqtype: NETMAP_REQ_VALE_ATTACH
664  * Attach a netmap port to a VALE switch. Both the name of the netmap
665  * port and the VALE switch are specified through the nr_name argument.
666  * The attach operation could need to register a port, so at least
667  * the same arguments are available.
668  * port_index will contain the index where the port has been attached.
669  */
670 struct nmreq_vale_attach {
671         struct nmreq_register reg;
672         uint32_t port_index;
673         uint32_t pad1;
674 };
675
676 /*
677  * nr_reqtype: NETMAP_REQ_VALE_DETACH
678  * Detach a netmap port from a VALE switch. Both the name of the netmap
679  * port and the VALE switch are specified through the nr_name argument.
680  * port_index will contain the index where the port was attached.
681  */
682 struct nmreq_vale_detach {
683         uint32_t port_index;
684         uint32_t pad1;
685 };
686
687 /*
688  * nr_reqtype: NETMAP_REQ_VALE_LIST
689  * List the ports of a VALE switch.
690  */
691 struct nmreq_vale_list {
692         /* Name of the VALE port (valeXXX:YYY) or empty. */
693         uint16_t        nr_bridge_idx;
694         uint16_t        pad1;
695         uint32_t        nr_port_idx;
696 };
697
698 /*
699  * nr_reqtype: NETMAP_REQ_PORT_HDR_SET or NETMAP_REQ_PORT_HDR_GET
700  * Set or get the port header length of the port identified by hdr.nr_name.
701  * The control device does not need to be bound to a netmap port.
702  */
703 struct nmreq_port_hdr {
704         uint32_t        nr_hdr_len;
705         uint32_t        pad1;
706 };
707
708 /*
709  * nr_reqtype: NETMAP_REQ_VALE_NEWIF
710  * Create a new persistent VALE port.
711  */
712 struct nmreq_vale_newif {
713         uint32_t        nr_tx_slots;    /* slots in tx rings */
714         uint32_t        nr_rx_slots;    /* slots in rx rings */
715         uint16_t        nr_tx_rings;    /* number of tx rings */
716         uint16_t        nr_rx_rings;    /* number of rx rings */
717         uint16_t        nr_mem_id;      /* id of the memory allocator */
718         uint16_t        pad1;
719 };
720
721 /*
722  * nr_reqtype: NETMAP_REQ_VALE_POLLING_ENABLE or NETMAP_REQ_VALE_POLLING_DISABLE
723  * Enable or disable polling kthreads on a VALE port.
724  */
725 struct nmreq_vale_polling {
726         uint32_t        nr_mode;
727 #define NETMAP_POLLING_MODE_SINGLE_CPU 1
728 #define NETMAP_POLLING_MODE_MULTI_CPU 2
729         uint32_t        nr_first_cpu_id;
730         uint32_t        nr_num_polling_cpus;
731         uint32_t        pad1;
732 };
733
734 /*
735  * nr_reqtype: NETMAP_REQ_POOLS_INFO_GET
736  * Get info about the pools of the memory allocator of the netmap
737  * port specified by hdr.nr_name and nr_mem_id. The netmap control
738  * device used for this operation does not need to be bound to a netmap
739  * port.
740  */
741 struct nmreq_pools_info {
742         uint64_t        nr_memsize;
743         uint16_t        nr_mem_id; /* in/out argument */
744         uint16_t        pad1[3];
745         uint64_t        nr_if_pool_offset;
746         uint32_t        nr_if_pool_objtotal;
747         uint32_t        nr_if_pool_objsize;
748         uint64_t        nr_ring_pool_offset;
749         uint32_t        nr_ring_pool_objtotal;
750         uint32_t        nr_ring_pool_objsize;
751         uint64_t        nr_buf_pool_offset;
752         uint32_t        nr_buf_pool_objtotal;
753         uint32_t        nr_buf_pool_objsize;
754 };
755
756 /*
757  * nr_reqtype: NETMAP_REQ_SYNC_KLOOP_START
758  * Start an in-kernel loop that syncs the rings periodically or on
759  * notifications. The loop runs in the context of the ioctl syscall,
760  * and only stops on NETMAP_REQ_SYNC_KLOOP_STOP.
761  * The registered netmap port must be open in CSB mode.
762  */
763 struct nmreq_sync_kloop_start {
764         /* Sleeping is the default synchronization method for the kloop.
765          * The 'sleep_us' field specifies how many microsconds to sleep for
766          * when there is no work to do, before doing another kloop iteration.
767          */
768         uint32_t        sleep_us;
769         uint32_t        pad1;
770 };
771
772 /* A CSB entry for the application --> kernel direction. */
773 struct nm_csb_atok {
774         uint32_t head;            /* AW+ KR+ the head of the appl netmap_ring */
775         uint32_t cur;             /* AW+ KR+ the cur of the appl netmap_ring */
776         uint32_t appl_need_kick;  /* AW+ KR+ kern --> appl notification enable */
777         uint32_t sync_flags;      /* AW+ KR+ the flags of the appl [tx|rx]sync() */
778         uint32_t pad[12];         /* pad to a 64 bytes cacheline */
779 };
780
781 /* A CSB entry for the application <-- kernel direction. */
782 struct nm_csb_ktoa {
783         uint32_t hwcur;           /* AR+ KW+ the hwcur of the kern netmap_kring */
784         uint32_t hwtail;          /* AR+ KW+ the hwtail of the kern netmap_kring */
785         uint32_t kern_need_kick;  /* AR+ KW+ appl-->kern notification enable */
786         uint32_t pad[13];
787 };
788
789 #ifdef __linux__
790
791 #ifdef __KERNEL__
792 #define nm_stst_barrier smp_wmb
793 #define nm_ldld_barrier smp_rmb
794 #define nm_stld_barrier smp_mb
795 #else  /* !__KERNEL__ */
796 static inline void nm_stst_barrier(void)
797 {
798         /* A memory barrier with release semantic has the combined
799          * effect of a store-store barrier and a load-store barrier,
800          * which is fine for us. */
801         __atomic_thread_fence(__ATOMIC_RELEASE);
802 }
803 static inline void nm_ldld_barrier(void)
804 {
805         /* A memory barrier with acquire semantic has the combined
806          * effect of a load-load barrier and a store-load barrier,
807          * which is fine for us. */
808         __atomic_thread_fence(__ATOMIC_ACQUIRE);
809 }
810 #endif /* !__KERNEL__ */
811
812 #elif defined(__FreeBSD__)
813
814 #ifdef _KERNEL
815 #define nm_stst_barrier atomic_thread_fence_rel
816 #define nm_ldld_barrier atomic_thread_fence_acq
817 #define nm_stld_barrier atomic_thread_fence_seq_cst
818 #else  /* !_KERNEL */
819 #include <stdatomic.h>
820 static inline void nm_stst_barrier(void)
821 {
822         atomic_thread_fence(memory_order_release);
823 }
824 static inline void nm_ldld_barrier(void)
825 {
826         atomic_thread_fence(memory_order_acquire);
827 }
828 #endif /* !_KERNEL */
829
830 #else  /* !__linux__ && !__FreeBSD__ */
831 #error "OS not supported"
832 #endif /* !__linux__ && !__FreeBSD__ */
833
834 /* Application side of sync-kloop: Write ring pointers (cur, head) to the CSB.
835  * This routine is coupled with sync_kloop_kernel_read(). */
836 static inline void
837 nm_sync_kloop_appl_write(struct nm_csb_atok *atok, uint32_t cur,
838                          uint32_t head)
839 {
840         /* Issue a first store-store barrier to make sure writes to the
841          * netmap ring do not overcome updates on atok->cur and atok->head. */
842         nm_stst_barrier();
843
844         /*
845          * We need to write cur and head to the CSB but we cannot do it atomically.
846          * There is no way we can prevent the host from reading the updated value
847          * of one of the two and the old value of the other. However, if we make
848          * sure that the host never reads a value of head more recent than the
849          * value of cur we are safe. We can allow the host to read a value of cur
850          * more recent than the value of head, since in the netmap ring cur can be
851          * ahead of head and cur cannot wrap around head because it must be behind
852          * tail. Inverting the order of writes below could instead result into the
853          * host to think head went ahead of cur, which would cause the sync
854          * prologue to fail.
855          *
856          * The following memory barrier scheme is used to make this happen:
857          *
858          *          Guest                Host
859          *
860          *          STORE(cur)           LOAD(head)
861          *          wmb() <----------->  rmb()
862          *          STORE(head)          LOAD(cur)
863          *
864          */
865         atok->cur = cur;
866         nm_stst_barrier();
867         atok->head = head;
868 }
869
870 /* Application side of sync-kloop: Read kring pointers (hwcur, hwtail) from
871  * the CSB. This routine is coupled with sync_kloop_kernel_write(). */
872 static inline void
873 nm_sync_kloop_appl_read(struct nm_csb_ktoa *ktoa, uint32_t *hwtail,
874                         uint32_t *hwcur)
875 {
876         /*
877          * We place a memory barrier to make sure that the update of hwtail never
878          * overtakes the update of hwcur.
879          * (see explanation in sync_kloop_kernel_write).
880          */
881         *hwtail = ktoa->hwtail;
882         nm_ldld_barrier();
883         *hwcur = ktoa->hwcur;
884
885         /* Make sure that loads from ktoa->hwtail and ktoa->hwcur are not delayed
886          * after the loads from the netmap ring. */
887         nm_ldld_barrier();
888 }
889
890 /*
891  * data for NETMAP_REQ_OPT_* options
892  */
893
894 struct nmreq_opt_sync_kloop_eventfds {
895         struct nmreq_option     nro_opt;        /* common header */
896         /* An array of N entries for bidirectional notifications between
897          * the kernel loop and the application. The number of entries and
898          * their order must agree with the CSB arrays passed in the
899          * NETMAP_REQ_OPT_CSB option. Each entry contains a file descriptor
900          * backed by an eventfd.
901          *
902          * If any of the 'ioeventfd' entries is < 0, the event loop uses
903          * the sleeping synchronization strategy (according to sleep_us),
904          * and keeps kern_need_kick always disabled.
905          * Each 'irqfd' can be < 0, and in that case the corresponding queue
906          * is never notified.
907          */
908         struct {
909                 /* Notifier for the application --> kernel loop direction. */
910                 int32_t ioeventfd;
911                 /* Notifier for the kernel loop --> application direction. */
912                 int32_t irqfd;
913         } eventfds[0];
914 };
915
916 struct nmreq_opt_sync_kloop_mode {
917         struct nmreq_option     nro_opt;        /* common header */
918 #define NM_OPT_SYNC_KLOOP_DIRECT_TX (1 << 0)
919 #define NM_OPT_SYNC_KLOOP_DIRECT_RX (1 << 1)
920         uint32_t mode;
921 };
922
923 struct nmreq_opt_extmem {
924         struct nmreq_option     nro_opt;        /* common header */
925         uint64_t                nro_usrptr;     /* (in) ptr to usr memory */
926         struct nmreq_pools_info nro_info;       /* (in/out) */
927 };
928
929 struct nmreq_opt_csb {
930         struct nmreq_option     nro_opt;
931
932         /* Array of CSB entries for application --> kernel communication
933          * (N entries). */
934         uint64_t                csb_atok;
935
936         /* Array of CSB entries for kernel --> application communication
937          * (N entries). */
938         uint64_t                csb_ktoa;
939 };
940
941 #endif /* _NET_NETMAP_H_ */