]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/dev/ixgbe/ixgbe.h
Merge OpenBSM 1.2 alpha 4.
[FreeBSD/FreeBSD.git] / sys / dev / ixgbe / ixgbe.h
1 /******************************************************************************
2
3   Copyright (c) 2001-2015, Intel Corporation 
4   All rights reserved.
5   
6   Redistribution and use in source and binary forms, with or without 
7   modification, are permitted provided that the following conditions are met:
8   
9    1. Redistributions of source code must retain the above copyright notice, 
10       this list of conditions and the following disclaimer.
11   
12    2. Redistributions in binary form must reproduce the above copyright 
13       notice, this list of conditions and the following disclaimer in the 
14       documentation and/or other materials provided with the distribution.
15   
16    3. Neither the name of the Intel Corporation nor the names of its 
17       contributors may be used to endorse or promote products derived from 
18       this software without specific prior written permission.
19   
20   THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
21   AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE 
22   IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE 
23   ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR CONTRIBUTORS BE 
24   LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR 
25   CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF 
26   SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS 
27   INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN 
28   CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) 
29   ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
30   POSSIBILITY OF SUCH DAMAGE.
31
32 ******************************************************************************/
33 /*$FreeBSD$*/
34
35
36 #ifndef _IXGBE_H_
37 #define _IXGBE_H_
38
39
40 #include <sys/param.h>
41 #include <sys/systm.h>
42 #ifndef IXGBE_LEGACY_TX
43 #include <sys/buf_ring.h>
44 #endif
45 #include <sys/mbuf.h>
46 #include <sys/protosw.h>
47 #include <sys/socket.h>
48 #include <sys/malloc.h>
49 #include <sys/kernel.h>
50 #include <sys/module.h>
51 #include <sys/sockio.h>
52 #include <sys/eventhandler.h>
53
54 #include <net/if.h>
55 #include <net/if_var.h>
56 #include <net/if_arp.h>
57 #include <net/bpf.h>
58 #include <net/ethernet.h>
59 #include <net/if_dl.h>
60 #include <net/if_media.h>
61
62 #include <net/bpf.h>
63 #include <net/if_types.h>
64 #include <net/if_vlan_var.h>
65
66 #include <netinet/in_systm.h>
67 #include <netinet/in.h>
68 #include <netinet/if_ether.h>
69 #include <netinet/ip.h>
70 #include <netinet/ip6.h>
71 #include <netinet/tcp.h>
72 #include <netinet/tcp_lro.h>
73 #include <netinet/udp.h>
74
75 #include <machine/in_cksum.h>
76
77 #include <sys/bus.h>
78 #include <machine/bus.h>
79 #include <sys/rman.h>
80 #include <machine/resource.h>
81 #include <vm/vm.h>
82 #include <vm/pmap.h>
83 #include <machine/clock.h>
84 #include <dev/pci/pcivar.h>
85 #include <dev/pci/pcireg.h>
86 #include <sys/proc.h>
87 #include <sys/sysctl.h>
88 #include <sys/endian.h>
89 #include <sys/taskqueue.h>
90 #include <sys/pcpu.h>
91 #include <sys/smp.h>
92 #include <machine/smp.h>
93 #include <sys/sbuf.h>
94
95 #ifdef PCI_IOV
96 #include <sys/nv.h>
97 #include <sys/iov_schema.h>
98 #include <dev/pci/pci_iov.h>
99 #endif
100
101 #include "ixgbe_api.h"
102 #include "ixgbe_common.h"
103 #include "ixgbe_phy.h"
104 #include "ixgbe_vf.h"
105
106 #ifdef PCI_IOV
107 #include "ixgbe_common.h"
108 #include "ixgbe_mbx.h"
109 #endif
110
111 /* Tunables */
112
113 /*
114  * TxDescriptors Valid Range: 64-4096 Default Value: 256 This value is the
115  * number of transmit descriptors allocated by the driver. Increasing this
116  * value allows the driver to queue more transmits. Each descriptor is 16
117  * bytes. Performance tests have show the 2K value to be optimal for top
118  * performance.
119  */
120 #define DEFAULT_TXD     1024
121 #define PERFORM_TXD     2048
122 #define MAX_TXD         4096
123 #define MIN_TXD         64
124
125 /*
126  * RxDescriptors Valid Range: 64-4096 Default Value: 256 This value is the
127  * number of receive descriptors allocated for each RX queue. Increasing this
128  * value allows the driver to buffer more incoming packets. Each descriptor
129  * is 16 bytes.  A receive buffer is also allocated for each descriptor. 
130  * 
131  * Note: with 8 rings and a dual port card, it is possible to bump up 
132  *      against the system mbuf pool limit, you can tune nmbclusters
133  *      to adjust for this.
134  */
135 #define DEFAULT_RXD     1024
136 #define PERFORM_RXD     2048
137 #define MAX_RXD         4096
138 #define MIN_RXD         64
139
140 /* Alignment for rings */
141 #define DBA_ALIGN       128
142
143 /*
144  * This parameter controls the maximum no of times the driver will loop in
145  * the isr. Minimum Value = 1
146  */
147 #define MAX_LOOP        10
148
149 /*
150  * This is the max watchdog interval, ie. the time that can
151  * pass between any two TX clean operations, such only happening
152  * when the TX hardware is functioning.
153  */
154 #define IXGBE_WATCHDOG                   (10 * hz)
155
156 /*
157  * This parameters control when the driver calls the routine to reclaim
158  * transmit descriptors.
159  */
160 #define IXGBE_TX_CLEANUP_THRESHOLD      (adapter->num_tx_desc / 8)
161 #define IXGBE_TX_OP_THRESHOLD           (adapter->num_tx_desc / 32)
162
163 /* These defines are used in MTU calculations */
164 #define IXGBE_MAX_FRAME_SIZE    9728
165 #define IXGBE_MTU_HDR           (ETHER_HDR_LEN + ETHER_CRC_LEN + \
166                                  ETHER_VLAN_ENCAP_LEN)
167 #define IXGBE_MAX_MTU           (IXGBE_MAX_FRAME_SIZE - IXGBE_MTU_HDR)
168
169 /* Flow control constants */
170 #define IXGBE_FC_PAUSE          0xFFFF
171 #define IXGBE_FC_HI             0x20000
172 #define IXGBE_FC_LO             0x10000
173
174 /*
175  * Used for optimizing small rx mbufs.  Effort is made to keep the copy
176  * small and aligned for the CPU L1 cache.
177  * 
178  * MHLEN is typically 168 bytes, giving us 8-byte alignment.  Getting
179  * 32 byte alignment needed for the fast bcopy results in 8 bytes being
180  * wasted.  Getting 64 byte alignment, which _should_ be ideal for
181  * modern Intel CPUs, results in 40 bytes wasted and a significant drop
182  * in observed efficiency of the optimization, 97.9% -> 81.8%.
183  */
184 #define IXGBE_RX_COPY_HDR_PADDED        ((((MPKTHSIZE - 1) / 32) + 1) * 32)
185 #define IXGBE_RX_COPY_LEN               (MSIZE - IXGBE_RX_COPY_HDR_PADDED)
186 #define IXGBE_RX_COPY_ALIGN             (IXGBE_RX_COPY_HDR_PADDED - MPKTHSIZE)
187
188 /* Keep older OS drivers building... */
189 #if !defined(SYSCTL_ADD_UQUAD)
190 #define SYSCTL_ADD_UQUAD SYSCTL_ADD_QUAD
191 #endif
192
193 /* Defines for printing debug information */
194 #define DEBUG_INIT  0
195 #define DEBUG_IOCTL 0
196 #define DEBUG_HW    0
197
198 #define INIT_DEBUGOUT(S)            if (DEBUG_INIT)  printf(S "\n")
199 #define INIT_DEBUGOUT1(S, A)        if (DEBUG_INIT)  printf(S "\n", A)
200 #define INIT_DEBUGOUT2(S, A, B)     if (DEBUG_INIT)  printf(S "\n", A, B)
201 #define IOCTL_DEBUGOUT(S)           if (DEBUG_IOCTL) printf(S "\n")
202 #define IOCTL_DEBUGOUT1(S, A)       if (DEBUG_IOCTL) printf(S "\n", A)
203 #define IOCTL_DEBUGOUT2(S, A, B)    if (DEBUG_IOCTL) printf(S "\n", A, B)
204 #define HW_DEBUGOUT(S)              if (DEBUG_HW) printf(S "\n")
205 #define HW_DEBUGOUT1(S, A)          if (DEBUG_HW) printf(S "\n", A)
206 #define HW_DEBUGOUT2(S, A, B)       if (DEBUG_HW) printf(S "\n", A, B)
207
208 #define MAX_NUM_MULTICAST_ADDRESSES     128
209 #define IXGBE_82598_SCATTER             100
210 #define IXGBE_82599_SCATTER             32
211 #define MSIX_82598_BAR                  3
212 #define MSIX_82599_BAR                  4
213 #define IXGBE_TSO_SIZE                  262140
214 #define IXGBE_TX_BUFFER_SIZE            ((u32) 1514)
215 #define IXGBE_RX_HDR                    128
216 #define IXGBE_VFTA_SIZE                 128
217 #define IXGBE_BR_SIZE                   4096
218 #define IXGBE_QUEUE_MIN_FREE            32
219 #define IXGBE_MAX_TX_BUSY               10
220 #define IXGBE_QUEUE_HUNG                0x80000000
221
222 #define IXV_EITR_DEFAULT                128
223
224 /* Offload bits in mbuf flag */
225 #if __FreeBSD_version >= 800000
226 #define CSUM_OFFLOAD            (CSUM_IP|CSUM_TCP|CSUM_UDP|CSUM_SCTP)
227 #else
228 #define CSUM_OFFLOAD            (CSUM_IP|CSUM_TCP|CSUM_UDP)
229 #endif
230
231 /* Backward compatibility items for very old versions */
232 #ifndef pci_find_cap
233 #define pci_find_cap pci_find_extcap
234 #endif
235
236 #ifndef DEVMETHOD_END
237 #define DEVMETHOD_END { NULL, NULL }
238 #endif
239
240 /*
241  * Interrupt Moderation parameters 
242  */
243 #define IXGBE_LOW_LATENCY       128
244 #define IXGBE_AVE_LATENCY       400
245 #define IXGBE_BULK_LATENCY      1200
246 #define IXGBE_LINK_ITR          2000
247
248 /* MAC type macros */
249 #define IXGBE_IS_X550VF(_adapter) \
250         ((_adapter->hw.mac.type == ixgbe_mac_X550_vf) || \
251          (_adapter->hw.mac.type == ixgbe_mac_X550EM_x_vf))
252
253 #define IXGBE_IS_VF(_adapter) \
254         (IXGBE_IS_X550VF(_adapter) || \
255          (_adapter->hw.mac.type == ixgbe_mac_X540_vf) || \
256          (_adapter->hw.mac.type == ixgbe_mac_82599_vf))
257
258 #ifdef PCI_IOV
259 #define IXGBE_VF_INDEX(vmdq)  ((vmdq) / 32)
260 #define IXGBE_VF_BIT(vmdq)    (1 << ((vmdq) % 32))
261
262 #define IXGBE_VT_MSG_MASK       0xFFFF
263
264 #define IXGBE_VT_MSGINFO(msg)   \
265         (((msg) & IXGBE_VT_MSGINFO_MASK) >> IXGBE_VT_MSGINFO_SHIFT)
266
267 #define IXGBE_VF_GET_QUEUES_RESP_LEN    5
268
269 #define IXGBE_API_VER_1_0       0               
270 #define IXGBE_API_VER_2_0       1       /* Solaris API.  Not supported. */
271 #define IXGBE_API_VER_1_1       2
272 #define IXGBE_API_VER_UNKNOWN   UINT16_MAX
273
274 enum ixgbe_iov_mode {
275         IXGBE_64_VM,
276         IXGBE_32_VM,
277         IXGBE_NO_VM
278 };
279 #endif /* PCI_IOV */
280
281
282 /*
283  *****************************************************************************
284  * vendor_info_array
285  * 
286  * This array contains the list of Subvendor/Subdevice IDs on which the driver
287  * should load.
288  * 
289  *****************************************************************************
290  */
291 typedef struct _ixgbe_vendor_info_t {
292         unsigned int    vendor_id;
293         unsigned int    device_id;
294         unsigned int    subvendor_id;
295         unsigned int    subdevice_id;
296         unsigned int    index;
297 } ixgbe_vendor_info_t;
298
299
300 struct ixgbe_tx_buf {
301         union ixgbe_adv_tx_desc *eop;
302         struct mbuf     *m_head;
303         bus_dmamap_t    map;
304 };
305
306 struct ixgbe_rx_buf {
307         struct mbuf     *buf;
308         struct mbuf     *fmp;
309         bus_dmamap_t    pmap;
310         u_int           flags;
311 #define IXGBE_RX_COPY   0x01
312         uint64_t        addr;
313 };
314
315 /*
316  * Bus dma allocation structure used by ixgbe_dma_malloc and ixgbe_dma_free.
317  */
318 struct ixgbe_dma_alloc {
319         bus_addr_t              dma_paddr;
320         caddr_t                 dma_vaddr;
321         bus_dma_tag_t           dma_tag;
322         bus_dmamap_t            dma_map;
323         bus_dma_segment_t       dma_seg;
324         bus_size_t              dma_size;
325         int                     dma_nseg;
326 };
327
328 struct ixgbe_mc_addr {
329         u8 addr[IXGBE_ETH_LENGTH_OF_ADDRESS];
330         u32 vmdq;
331 };
332
333 /*
334 ** Driver queue struct: this is the interrupt container
335 **  for the associated tx and rx ring.
336 */
337 struct ix_queue {
338         struct adapter          *adapter;
339         u32                     msix;           /* This queue's MSIX vector */
340         u32                     eims;           /* This queue's EIMS bit */
341         u32                     eitr_setting;
342         u32                     me;
343         struct resource         *res;
344         void                    *tag;
345         int                     busy;
346         struct tx_ring          *txr;
347         struct rx_ring          *rxr;
348         struct task             que_task;
349         struct taskqueue        *tq;
350         u64                     irqs;
351 };
352
353 /*
354  * The transmit ring, one per queue
355  */
356 struct tx_ring {
357         struct adapter          *adapter;
358         struct mtx              tx_mtx;
359         u32                     me;
360         u32                     tail;
361         int                     busy;
362         union ixgbe_adv_tx_desc *tx_base;
363         struct ixgbe_tx_buf     *tx_buffers;
364         struct ixgbe_dma_alloc  txdma;
365         volatile u16            tx_avail;
366         u16                     next_avail_desc;
367         u16                     next_to_clean;
368         u16                     num_desc;
369         u32                     txd_cmd;
370         bus_dma_tag_t           txtag;
371         char                    mtx_name[16];
372 #ifndef IXGBE_LEGACY_TX
373         struct buf_ring         *br;
374         struct task             txq_task;
375 #endif
376 #ifdef IXGBE_FDIR
377         u16                     atr_sample;
378         u16                     atr_count;
379 #endif
380         u32                     bytes;  /* used for AIM */
381         u32                     packets;
382         /* Soft Stats */
383         unsigned long           tso_tx;
384         unsigned long           no_tx_map_avail;
385         unsigned long           no_tx_dma_setup;
386         u64                     no_desc_avail;
387         u64                     total_packets;
388 };
389
390
391 /*
392  * The Receive ring, one per rx queue
393  */
394 struct rx_ring {
395         struct adapter          *adapter;
396         struct mtx              rx_mtx;
397         u32                     me;
398         u32                     tail;
399         union ixgbe_adv_rx_desc *rx_base;
400         struct ixgbe_dma_alloc  rxdma;
401         struct lro_ctrl         lro;
402         bool                    lro_enabled;
403         bool                    hw_rsc;
404         bool                    vtag_strip;
405         u16                     next_to_refresh;
406         u16                     next_to_check;
407         u16                     num_desc;
408         u16                     mbuf_sz;
409         char                    mtx_name[16];
410         struct ixgbe_rx_buf     *rx_buffers;
411         bus_dma_tag_t           ptag;
412
413         u32                     bytes; /* Used for AIM calc */
414         u32                     packets;
415
416         /* Soft stats */
417         u64                     rx_irq;
418         u64                     rx_copies;
419         u64                     rx_packets;
420         u64                     rx_bytes;
421         u64                     rx_discarded;
422         u64                     rsc_num;
423 #ifdef IXGBE_FDIR
424         u64                     flm;
425 #endif
426 };
427
428 #ifdef PCI_IOV
429 #define IXGBE_VF_CTS            (1 << 0) /* VF is clear to send. */
430 #define IXGBE_VF_CAP_MAC        (1 << 1) /* VF is permitted to change MAC. */
431 #define IXGBE_VF_CAP_VLAN       (1 << 2) /* VF is permitted to join vlans. */
432 #define IXGBE_VF_ACTIVE         (1 << 3) /* VF is active. */
433
434 #define IXGBE_MAX_VF_MC 30  /* Max number of multicast entries */
435
436 struct ixgbe_vf {
437         u_int           pool;
438         u_int           rar_index;
439         u_int           max_frame_size;
440         uint32_t        flags;
441         uint8_t         ether_addr[ETHER_ADDR_LEN];
442         uint16_t        mc_hash[IXGBE_MAX_VF_MC];
443         uint16_t        num_mc_hashes;
444         uint16_t        default_vlan;
445         uint16_t        vlan_tag;
446         uint16_t        api_ver;
447 };
448 #endif /* PCI_IOV */
449
450 /* Our adapter structure */
451 struct adapter {
452         struct ifnet            *ifp;
453         struct ixgbe_hw         hw;
454
455         struct ixgbe_osdep      osdep;
456         struct device           *dev;
457
458         struct resource         *pci_mem;
459         struct resource         *msix_mem;
460
461         /*
462          * Interrupt resources: this set is
463          * either used for legacy, or for Link
464          * when doing MSIX
465          */
466         void                    *tag;
467         struct resource         *res;
468
469         struct ifmedia          media;
470         struct callout          timer;
471         int                     msix;
472         int                     if_flags;
473
474         struct mtx              core_mtx;
475
476         eventhandler_tag        vlan_attach;
477         eventhandler_tag        vlan_detach;
478
479         u16                     num_vlans;
480         u16                     num_queues;
481
482         /*
483         ** Shadow VFTA table, this is needed because
484         ** the real vlan filter table gets cleared during
485         ** a soft reset and the driver needs to be able
486         ** to repopulate it.
487         */
488         u32                     shadow_vfta[IXGBE_VFTA_SIZE];
489
490         /* Info about the interface */
491         u32                     optics;
492         u32                     fc; /* local flow ctrl setting */
493         int                     advertise;  /* link speeds */
494         bool                    link_active;
495         u16                     max_frame_size;
496         u16                     num_segs;
497         u32                     link_speed;
498         bool                    link_up;
499         u32                     vector;
500         u16                     dmac;
501         bool                    eee_enabled;
502         u32                     phy_layer;
503
504         /* Power management-related */
505         bool                    wol_support;
506         u32                     wufc;
507
508         /* Mbuf cluster size */
509         u32                     rx_mbuf_sz;
510
511         /* Support for pluggable optics */
512         bool                    sfp_probe;
513         struct task             link_task;  /* Link tasklet */
514         struct task             mod_task;   /* SFP tasklet */
515         struct task             msf_task;   /* Multispeed Fiber */
516 #ifdef PCI_IOV
517         struct task             mbx_task;   /* VF -> PF mailbox interrupt */
518 #endif /* PCI_IOV */
519 #ifdef IXGBE_FDIR
520         int                     fdir_reinit;
521         struct task             fdir_task;
522 #endif
523         struct task             phy_task;   /* PHY intr tasklet */
524         struct taskqueue        *tq;
525
526         /*
527         ** Queues: 
528         **   This is the irq holder, it has
529         **   and RX/TX pair or rings associated
530         **   with it.
531         */
532         struct ix_queue         *queues;
533
534         /*
535          * Transmit rings:
536          *      Allocated at run time, an array of rings.
537          */
538         struct tx_ring          *tx_rings;
539         u32                     num_tx_desc;
540         u32                     tx_process_limit;
541
542         /*
543          * Receive rings:
544          *      Allocated at run time, an array of rings.
545          */
546         struct rx_ring          *rx_rings;
547         u64                     active_queues;
548         u32                     num_rx_desc;
549         u32                     rx_process_limit;
550
551         /* Multicast array memory */
552         struct ixgbe_mc_addr    *mta;
553         int                     num_vfs;
554         int                     pool;
555 #ifdef PCI_IOV
556         struct ixgbe_vf         *vfs;
557 #endif
558 #ifdef DEV_NETMAP
559         void                    (*init_locked)(struct adapter *);
560         void                    (*stop_locked)(void *);
561 #endif
562
563         /* Misc stats maintained by the driver */
564         unsigned long           dropped_pkts;
565         unsigned long           mbuf_defrag_failed;
566         unsigned long           mbuf_header_failed;
567         unsigned long           mbuf_packet_failed;
568         unsigned long           watchdog_events;
569         unsigned long           link_irq;
570         union {
571                 struct ixgbe_hw_stats pf;
572                 struct ixgbevf_hw_stats vf;
573         } stats;
574 #if __FreeBSD_version >= 1100036
575         /* counter(9) stats */
576         u64                     ipackets;
577         u64                     ierrors;
578         u64                     opackets;
579         u64                     oerrors;
580         u64                     ibytes;
581         u64                     obytes;
582         u64                     imcasts;
583         u64                     omcasts;
584         u64                     iqdrops;
585         u64                     noproto;
586 #endif
587 };
588
589
590 /* Precision Time Sync (IEEE 1588) defines */
591 #define ETHERTYPE_IEEE1588      0x88F7
592 #define PICOSECS_PER_TICK       20833
593 #define TSYNC_UDP_PORT          319 /* UDP port for the protocol */
594 #define IXGBE_ADVTXD_TSTAMP     0x00080000
595
596
597 #define IXGBE_CORE_LOCK_INIT(_sc, _name) \
598         mtx_init(&(_sc)->core_mtx, _name, "IXGBE Core Lock", MTX_DEF)
599 #define IXGBE_CORE_LOCK_DESTROY(_sc)      mtx_destroy(&(_sc)->core_mtx)
600 #define IXGBE_TX_LOCK_DESTROY(_sc)        mtx_destroy(&(_sc)->tx_mtx)
601 #define IXGBE_RX_LOCK_DESTROY(_sc)        mtx_destroy(&(_sc)->rx_mtx)
602 #define IXGBE_CORE_LOCK(_sc)              mtx_lock(&(_sc)->core_mtx)
603 #define IXGBE_TX_LOCK(_sc)                mtx_lock(&(_sc)->tx_mtx)
604 #define IXGBE_TX_TRYLOCK(_sc)             mtx_trylock(&(_sc)->tx_mtx)
605 #define IXGBE_RX_LOCK(_sc)                mtx_lock(&(_sc)->rx_mtx)
606 #define IXGBE_CORE_UNLOCK(_sc)            mtx_unlock(&(_sc)->core_mtx)
607 #define IXGBE_TX_UNLOCK(_sc)              mtx_unlock(&(_sc)->tx_mtx)
608 #define IXGBE_RX_UNLOCK(_sc)              mtx_unlock(&(_sc)->rx_mtx)
609 #define IXGBE_CORE_LOCK_ASSERT(_sc)       mtx_assert(&(_sc)->core_mtx, MA_OWNED)
610 #define IXGBE_TX_LOCK_ASSERT(_sc)         mtx_assert(&(_sc)->tx_mtx, MA_OWNED)
611
612 /* For backward compatibility */
613 #if !defined(PCIER_LINK_STA)
614 #define PCIER_LINK_STA PCIR_EXPRESS_LINK_STA
615 #endif
616
617 /* Stats macros */
618 #if __FreeBSD_version >= 1100036
619 #define IXGBE_SET_IPACKETS(sc, count)    (sc)->ipackets = (count)
620 #define IXGBE_SET_IERRORS(sc, count)     (sc)->ierrors = (count)
621 #define IXGBE_SET_OPACKETS(sc, count)    (sc)->opackets = (count)
622 #define IXGBE_SET_OERRORS(sc, count)     (sc)->oerrors = (count)
623 #define IXGBE_SET_COLLISIONS(sc, count)
624 #define IXGBE_SET_IBYTES(sc, count)      (sc)->ibytes = (count)
625 #define IXGBE_SET_OBYTES(sc, count)      (sc)->obytes = (count)
626 #define IXGBE_SET_IMCASTS(sc, count)     (sc)->imcasts = (count)
627 #define IXGBE_SET_OMCASTS(sc, count)     (sc)->omcasts = (count)
628 #define IXGBE_SET_IQDROPS(sc, count)     (sc)->iqdrops = (count)
629 #else
630 #define IXGBE_SET_IPACKETS(sc, count)    (sc)->ifp->if_ipackets = (count)
631 #define IXGBE_SET_IERRORS(sc, count)     (sc)->ifp->if_ierrors = (count)
632 #define IXGBE_SET_OPACKETS(sc, count)    (sc)->ifp->if_opackets = (count)
633 #define IXGBE_SET_OERRORS(sc, count)     (sc)->ifp->if_oerrors = (count)
634 #define IXGBE_SET_COLLISIONS(sc, count)  (sc)->ifp->if_collisions = (count)
635 #define IXGBE_SET_IBYTES(sc, count)      (sc)->ifp->if_ibytes = (count)
636 #define IXGBE_SET_OBYTES(sc, count)      (sc)->ifp->if_obytes = (count)
637 #define IXGBE_SET_IMCASTS(sc, count)     (sc)->ifp->if_imcasts = (count)
638 #define IXGBE_SET_OMCASTS(sc, count)     (sc)->ifp->if_omcasts = (count)
639 #define IXGBE_SET_IQDROPS(sc, count)     (sc)->ifp->if_iqdrops = (count)
640 #endif
641
642 /* External PHY register addresses */
643 #define IXGBE_PHY_CURRENT_TEMP          0xC820
644 #define IXGBE_PHY_OVERTEMP_STATUS       0xC830
645
646 /* Sysctl help messages; displayed with sysctl -d */
647 #define IXGBE_SYSCTL_DESC_ADV_SPEED \
648         "\nControl advertised link speed using these flags:\n" \
649         "\t0x1 - advertise 100M\n" \
650         "\t0x2 - advertise 1G\n" \
651         "\t0x4 - advertise 10G\n\n" \
652         "\t100M is only supported on certain 10GBaseT adapters.\n"
653
654 #define IXGBE_SYSCTL_DESC_SET_FC \
655         "\nSet flow control mode using these values:\n" \
656         "\t0 - off\n" \
657         "\t1 - rx pause\n" \
658         "\t2 - tx pause\n" \
659         "\t3 - tx and rx pause"
660
661 static inline bool
662 ixgbe_is_sfp(struct ixgbe_hw *hw)
663 {
664         switch (hw->phy.type) {
665         case ixgbe_phy_sfp_avago:
666         case ixgbe_phy_sfp_ftl:
667         case ixgbe_phy_sfp_intel:
668         case ixgbe_phy_sfp_unknown:
669         case ixgbe_phy_sfp_passive_tyco:
670         case ixgbe_phy_sfp_passive_unknown:
671         case ixgbe_phy_qsfp_passive_unknown:
672         case ixgbe_phy_qsfp_active_unknown:
673         case ixgbe_phy_qsfp_intel:
674         case ixgbe_phy_qsfp_unknown:
675                 return TRUE;
676         default:
677                 return FALSE;
678         }
679 }
680
681 /* Workaround to make 8.0 buildable */
682 #if __FreeBSD_version >= 800000 && __FreeBSD_version < 800504
683 static __inline int
684 drbr_needs_enqueue(struct ifnet *ifp, struct buf_ring *br)
685 {
686 #ifdef ALTQ
687         if (ALTQ_IS_ENABLED(&ifp->if_snd))
688                 return (1);
689 #endif
690         return (!buf_ring_empty(br));
691 }
692 #endif
693
694 /*
695 ** Find the number of unrefreshed RX descriptors
696 */
697 static inline u16
698 ixgbe_rx_unrefreshed(struct rx_ring *rxr)
699 {       
700         if (rxr->next_to_check > rxr->next_to_refresh)
701                 return (rxr->next_to_check - rxr->next_to_refresh - 1);
702         else
703                 return ((rxr->num_desc + rxr->next_to_check) -
704                     rxr->next_to_refresh - 1);
705 }       
706
707 /*
708 ** This checks for a zero mac addr, something that will be likely
709 ** unless the Admin on the Host has created one.
710 */
711 static inline bool
712 ixv_check_ether_addr(u8 *addr)
713 {
714         bool status = TRUE;
715
716         if ((addr[0] == 0 && addr[1]== 0 && addr[2] == 0 &&
717             addr[3] == 0 && addr[4]== 0 && addr[5] == 0))
718                 status = FALSE;
719         return (status);
720 }
721
722 /* Shared Prototypes */
723
724 #ifdef IXGBE_LEGACY_TX
725 void     ixgbe_start(struct ifnet *);
726 void     ixgbe_start_locked(struct tx_ring *, struct ifnet *);
727 #else /* ! IXGBE_LEGACY_TX */
728 int     ixgbe_mq_start(struct ifnet *, struct mbuf *);
729 int     ixgbe_mq_start_locked(struct ifnet *, struct tx_ring *);
730 void    ixgbe_qflush(struct ifnet *);
731 void    ixgbe_deferred_mq_start(void *, int);
732 #endif /* IXGBE_LEGACY_TX */
733
734 int     ixgbe_allocate_queues(struct adapter *);
735 int     ixgbe_allocate_transmit_buffers(struct tx_ring *);
736 int     ixgbe_setup_transmit_structures(struct adapter *);
737 void    ixgbe_free_transmit_structures(struct adapter *);
738 int     ixgbe_allocate_receive_buffers(struct rx_ring *);
739 int     ixgbe_setup_receive_structures(struct adapter *);
740 void    ixgbe_free_receive_structures(struct adapter *);
741 void    ixgbe_txeof(struct tx_ring *);
742 bool    ixgbe_rxeof(struct ix_queue *);
743
744 int     ixgbe_dma_malloc(struct adapter *,
745             bus_size_t, struct ixgbe_dma_alloc *, int);
746 void    ixgbe_dma_free(struct adapter *, struct ixgbe_dma_alloc *);
747
748 #ifdef PCI_IOV
749
750 static inline boolean_t
751 ixgbe_vf_mac_changed(struct ixgbe_vf *vf, const uint8_t *mac)
752 {
753         return (bcmp(mac, vf->ether_addr, ETHER_ADDR_LEN) != 0);
754 }
755
756 static inline void
757 ixgbe_send_vf_msg(struct adapter *adapter, struct ixgbe_vf *vf, u32 msg)
758 {
759
760         if (vf->flags & IXGBE_VF_CTS)
761                 msg |= IXGBE_VT_MSGTYPE_CTS;
762         
763         ixgbe_write_mbx(&adapter->hw, &msg, 1, vf->pool);
764 }
765
766 static inline void
767 ixgbe_send_vf_ack(struct adapter *adapter, struct ixgbe_vf *vf, u32 msg)
768 {
769         msg &= IXGBE_VT_MSG_MASK;
770         ixgbe_send_vf_msg(adapter, vf, msg | IXGBE_VT_MSGTYPE_ACK);
771 }
772
773 static inline void
774 ixgbe_send_vf_nack(struct adapter *adapter, struct ixgbe_vf *vf, u32 msg)
775 {
776         msg &= IXGBE_VT_MSG_MASK;
777         ixgbe_send_vf_msg(adapter, vf, msg | IXGBE_VT_MSGTYPE_NACK);
778 }
779
780 static inline void
781 ixgbe_process_vf_ack(struct adapter *adapter, struct ixgbe_vf *vf)
782 {
783         if (!(vf->flags & IXGBE_VF_CTS))
784                 ixgbe_send_vf_nack(adapter, vf, 0);
785 }
786
787 static inline enum ixgbe_iov_mode
788 ixgbe_get_iov_mode(struct adapter *adapter)
789 {
790         if (adapter->num_vfs == 0)
791                 return (IXGBE_NO_VM);
792         if (adapter->num_queues <= 2)
793                 return (IXGBE_64_VM);
794         else if (adapter->num_queues <= 4)
795                 return (IXGBE_32_VM);
796         else
797                 return (IXGBE_NO_VM);
798 }
799
800 static inline u16
801 ixgbe_max_vfs(enum ixgbe_iov_mode mode)
802 {
803         /*
804          * We return odd numbers below because we
805          * reserve 1 VM's worth of queues for the PF.
806          */
807         switch (mode) {
808         case IXGBE_64_VM:
809                 return (63);
810         case IXGBE_32_VM:
811                 return (31);
812         case IXGBE_NO_VM:
813         default:
814                 return (0);
815         }
816 }
817
818 static inline int
819 ixgbe_vf_queues(enum ixgbe_iov_mode mode)
820 {
821         switch (mode) {
822         case IXGBE_64_VM:
823                 return (2);
824         case IXGBE_32_VM:
825                 return (4);
826         case IXGBE_NO_VM:
827         default:
828                 return (0);
829         }
830 }
831
832 static inline int
833 ixgbe_vf_que_index(enum ixgbe_iov_mode mode, u32 vfnum, int num)
834 {
835         return ((vfnum * ixgbe_vf_queues(mode)) + num);
836 }
837
838 static inline int
839 ixgbe_pf_que_index(enum ixgbe_iov_mode mode, int num)
840 {
841         return (ixgbe_vf_que_index(mode, ixgbe_max_vfs(mode), num));
842 }
843
844 static inline void
845 ixgbe_update_max_frame(struct adapter * adapter, int max_frame)
846 {
847         if (adapter->max_frame_size < max_frame)
848                 adapter->max_frame_size = max_frame;
849 }
850
851 static inline u32
852 ixgbe_get_mrqc(enum ixgbe_iov_mode mode)
853 {
854        u32 mrqc = 0;
855        switch (mode) {
856        case IXGBE_64_VM:
857                mrqc = IXGBE_MRQC_VMDQRSS64EN;
858                break;
859        case IXGBE_32_VM:
860                mrqc = IXGBE_MRQC_VMDQRSS32EN;
861                break;
862         case IXGBE_NO_VM:
863                 mrqc = 0;
864                 break;
865        default:
866             panic("Unexpected SR-IOV mode %d", mode);
867        }
868         return(mrqc);
869 }
870
871
872 static inline u32
873 ixgbe_get_mtqc(enum ixgbe_iov_mode mode)
874 {
875        uint32_t mtqc = 0;
876         switch (mode) {
877         case IXGBE_64_VM:
878                mtqc |= IXGBE_MTQC_64VF | IXGBE_MTQC_VT_ENA;
879                 break;
880         case IXGBE_32_VM:
881                mtqc |= IXGBE_MTQC_32VF | IXGBE_MTQC_VT_ENA;
882                 break;
883         case IXGBE_NO_VM:
884                 mtqc = IXGBE_MTQC_64Q_1PB;
885                 break;
886         default:
887                 panic("Unexpected SR-IOV mode %d", mode);
888         }
889         return(mtqc);
890 }
891 #endif /* PCI_IOV */
892
893 #endif /* _IXGBE_H_ */