]> CyberLeo.Net >> Repos - FreeBSD/stable/10.git/blob - sys/ofed/include/linux/pci.h
MFC r276749:
[FreeBSD/stable/10.git] / sys / ofed / include / linux / pci.h
1 /*-
2  * Copyright (c) 2010 Isilon Systems, Inc.
3  * Copyright (c) 2010 iX Systems, Inc.
4  * Copyright (c) 2010 Panasas, Inc.
5  * Copyright (c) 2013, 2014 Mellanox Technologies, Ltd.
6  * All rights reserved.
7  *
8  * Redistribution and use in source and binary forms, with or without
9  * modification, are permitted provided that the following conditions
10  * are met:
11  * 1. Redistributions of source code must retain the above copyright
12  *    notice unmodified, this list of conditions, and the following
13  *    disclaimer.
14  * 2. Redistributions in binary form must reproduce the above copyright
15  *    notice, this list of conditions and the following disclaimer in the
16  *    documentation and/or other materials provided with the distribution.
17  *
18  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
19  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
20  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
21  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
22  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
23  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
24  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
25  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
26  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
27  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
28  */
29
30 #ifndef _LINUX_PCI_H_
31 #define _LINUX_PCI_H_
32
33 #define CONFIG_PCI_MSI
34
35 #include <linux/types.h>
36
37 #include <sys/param.h>
38 #include <sys/bus.h>
39 #include <sys/pciio.h>
40 #include <sys/rman.h>
41 #include <dev/pci/pcivar.h>
42 #include <dev/pci/pcireg.h>
43 #include <dev/pci/pci_private.h>
44
45 #include <machine/resource.h>
46
47 #include <linux/list.h>
48 #include <linux/dmapool.h>
49 #include <linux/dma-mapping.h>
50 #include <linux/compiler.h>
51 #include <linux/errno.h>
52 #include <asm/atomic.h>
53 #include <linux/device.h>
54
55 struct pci_device_id {
56         uint32_t        vendor;
57         uint32_t        device;
58         uint32_t        subvendor;
59         uint32_t        subdevice;
60         uint32_t        class_mask;
61         uintptr_t       driver_data;
62 };
63
64 #define MODULE_DEVICE_TABLE(bus, table)
65 #define PCI_ANY_ID              (-1)
66 #define PCI_VENDOR_ID_MELLANOX                  0x15b3
67 #define PCI_VENDOR_ID_TOPSPIN                   0x1867
68 #define PCI_DEVICE_ID_MELLANOX_TAVOR            0x5a44
69 #define PCI_DEVICE_ID_MELLANOX_TAVOR_BRIDGE     0x5a46
70 #define PCI_DEVICE_ID_MELLANOX_ARBEL_COMPAT     0x6278
71 #define PCI_DEVICE_ID_MELLANOX_ARBEL            0x6282
72 #define PCI_DEVICE_ID_MELLANOX_SINAI_OLD        0x5e8c
73 #define PCI_DEVICE_ID_MELLANOX_SINAI            0x6274
74
75 #define PCI_DEVFN(slot, func)   ((((slot) & 0x1f) << 3) | ((func) & 0x07))
76 #define PCI_SLOT(devfn)         (((devfn) >> 3) & 0x1f)
77 #define PCI_FUNC(devfn)         ((devfn) & 0x07)
78
79 #define PCI_VDEVICE(_vendor, _device)                                   \
80             .vendor = PCI_VENDOR_ID_##_vendor, .device = (_device),     \
81             .subvendor = PCI_ANY_ID, .subdevice = PCI_ANY_ID
82 #define PCI_DEVICE(_vendor, _device)                                    \
83             .vendor = (_vendor), .device = (_device),                   \
84             .subvendor = PCI_ANY_ID, .subdevice = PCI_ANY_ID
85
86 #define to_pci_dev(n)   container_of(n, struct pci_dev, dev)
87
88 #define PCI_VENDOR_ID           PCIR_DEVVENDOR
89 #define PCI_COMMAND             PCIR_COMMAND
90 #define PCI_EXP_DEVCTL          PCIER_DEVICE_CTL                /* Device Control */
91 #define PCI_EXP_LNKCTL          PCIER_LINK_CTL                  /* Link Control */
92 #define PCI_EXP_FLAGS_TYPE      PCIEM_FLAGS_TYPE                /* Device/Port type */
93 #define PCI_EXP_DEVCAP          PCIER_DEVICE_CAP                /* Device capabilities */
94 #define PCI_EXP_DEVSTA          PCIER_DEVICE_STA                /* Device Status */
95 #define PCI_EXP_LNKCAP          PCIER_LINK_CAP                  /* Link Capabilities */
96 #define PCI_EXP_LNKSTA          PCIER_LINK_STA                  /* Link Status */
97 #define PCI_EXP_SLTCAP          PCIER_SLOT_CAP                  /* Slot Capabilities */
98 #define PCI_EXP_SLTCTL          PCIER_SLOT_CTL                  /* Slot Control */
99 #define PCI_EXP_SLTSTA          PCIER_SLOT_STA                  /* Slot Status */
100 #define PCI_EXP_RTCTL           PCIER_ROOT_CTL                  /* Root Control */
101 #define PCI_EXP_RTCAP           PCIER_ROOT_CAP                  /* Root Capabilities */
102 #define PCI_EXP_RTSTA           PCIER_ROOT_STA                  /* Root Status */
103 #define PCI_EXP_DEVCAP2         PCIER_DEVICE_CAP2               /* Device Capabilities 2 */
104 #define PCI_EXP_DEVCTL2         PCIER_DEVICE_CTL2               /* Device Control 2 */
105 #define PCI_EXP_LNKCAP2         PCIER_LINK_CAP2                 /* Link Capabilities 2 */
106 #define PCI_EXP_LNKCTL2         PCIER_LINK_CTL2                 /* Link Control 2 */
107 #define PCI_EXP_LNKSTA2         PCIER_LINK_STA2                 /* Link Status 2 */
108 #define PCI_EXP_FLAGS           PCIER_FLAGS                     /* Capabilities register */
109 #define PCI_EXP_FLAGS_VERS      PCIEM_FLAGS_VERSION             /* Capability version */
110 #define PCI_EXP_TYPE_ROOT_PORT  PCIEM_TYPE_ROOT_PORT            /* Root Port */
111 #define PCI_EXP_TYPE_ENDPOINT   PCIEM_TYPE_ENDPOINT             /* Express Endpoint */
112 #define PCI_EXP_TYPE_LEG_END    PCIEM_TYPE_LEGACY_ENDPOINT      /* Legacy Endpoint */
113 #define PCI_EXP_TYPE_DOWNSTREAM PCIEM_TYPE_DOWNSTREAM_PORT      /* Downstream Port */
114 #define PCI_EXP_FLAGS_SLOT      PCIEM_FLAGS_SLOT                /* Slot implemented */
115 #define PCI_EXP_TYPE_RC_EC      PCIEM_TYPE_ROOT_EC              /* Root Complex Event Collector */
116
117
118 #define IORESOURCE_MEM  SYS_RES_MEMORY
119 #define IORESOURCE_IO   SYS_RES_IOPORT
120 #define IORESOURCE_IRQ  SYS_RES_IRQ
121
122 struct pci_dev;
123
124
125 struct pci_driver {
126         struct list_head                links;
127         char                            *name;
128         const struct pci_device_id              *id_table;
129         int  (*probe)(struct pci_dev *dev, const struct pci_device_id *id);
130         void (*remove)(struct pci_dev *dev);
131         int  (*suspend) (struct pci_dev *dev, pm_message_t state);      /* Device suspended */
132         int  (*resume) (struct pci_dev *dev);                   /* Device woken up */
133         driver_t                        driver;
134         devclass_t                      bsdclass;
135         const struct pci_error_handlers       *err_handler;
136 };
137
138 extern struct list_head pci_drivers;
139 extern struct list_head pci_devices;
140 extern spinlock_t pci_lock;
141
142 #define __devexit_p(x)  x
143
144 struct pci_dev {
145         struct device           dev;
146         struct list_head        links;
147         struct pci_driver       *pdrv;
148         uint64_t                dma_mask;
149         uint16_t                device;
150         uint16_t                vendor;
151         unsigned int            irq;
152         unsigned int            devfn;
153         u8                      revision;
154 };
155
156 static inline struct resource_list_entry *
157 _pci_get_rle(struct pci_dev *pdev, int type, int rid)
158 {
159         struct pci_devinfo *dinfo;
160         struct resource_list *rl;
161
162         dinfo = device_get_ivars(pdev->dev.bsddev);
163         rl = &dinfo->resources;
164         return resource_list_find(rl, type, rid);
165 }
166
167 static inline struct resource_list_entry *
168 _pci_get_bar(struct pci_dev *pdev, int bar)
169 {
170         struct resource_list_entry *rle;
171
172         bar = PCIR_BAR(bar);
173         if ((rle = _pci_get_rle(pdev, SYS_RES_MEMORY, bar)) == NULL)
174                 rle = _pci_get_rle(pdev, SYS_RES_IOPORT, bar);
175         return (rle);
176 }
177
178 static inline struct device *
179 _pci_find_irq_dev(unsigned int irq)
180 {
181         struct pci_dev *pdev;
182
183         spin_lock(&pci_lock);
184         list_for_each_entry(pdev, &pci_devices, links) {
185                 if (irq == pdev->dev.irq)
186                         break;
187                 if (irq >= pdev->dev.msix && irq < pdev->dev.msix_max)
188                         break;
189         }
190         spin_unlock(&pci_lock);
191         if (pdev)
192                 return &pdev->dev;
193         return (NULL);
194 }
195
196 static inline unsigned long
197 pci_resource_start(struct pci_dev *pdev, int bar)
198 {
199         struct resource_list_entry *rle;
200
201         if ((rle = _pci_get_bar(pdev, bar)) == NULL)
202                 return (0);
203         return rle->start;
204 }
205
206 static inline unsigned long
207 pci_resource_len(struct pci_dev *pdev, int bar)
208 {
209         struct resource_list_entry *rle;
210
211         if ((rle = _pci_get_bar(pdev, bar)) == NULL)
212                 return (0);
213         return rle->count;
214 }
215
216 /*
217  * All drivers just seem to want to inspect the type not flags.
218  */
219 static inline int
220 pci_resource_flags(struct pci_dev *pdev, int bar)
221 {
222         struct resource_list_entry *rle;
223
224         if ((rle = _pci_get_bar(pdev, bar)) == NULL)
225                 return (0);
226         return rle->type;
227 }
228
229 static inline const char *
230 pci_name(struct pci_dev *d)
231 {
232
233         return device_get_desc(d->dev.bsddev);
234 }
235
236 static inline void *
237 pci_get_drvdata(struct pci_dev *pdev)
238 {
239
240         return dev_get_drvdata(&pdev->dev);
241 }
242
243 static inline void
244 pci_set_drvdata(struct pci_dev *pdev, void *data)
245 {
246
247         dev_set_drvdata(&pdev->dev, data);
248 }
249
250 static inline int
251 pci_enable_device(struct pci_dev *pdev)
252 {
253
254         pci_enable_io(pdev->dev.bsddev, SYS_RES_IOPORT);
255         pci_enable_io(pdev->dev.bsddev, SYS_RES_MEMORY);
256         return (0);
257 }
258
259 static inline void
260 pci_disable_device(struct pci_dev *pdev)
261 {
262 }
263
264 static inline int
265 pci_set_master(struct pci_dev *pdev)
266 {
267
268         pci_enable_busmaster(pdev->dev.bsddev);
269         return (0);
270 }
271
272 static inline int
273 pci_request_region(struct pci_dev *pdev, int bar, const char *res_name)
274 {
275         int rid;
276         int type;
277
278         type = pci_resource_flags(pdev, bar);
279         if (type == 0)
280                 return (-ENODEV);
281         rid = PCIR_BAR(bar);
282         if (bus_alloc_resource_any(pdev->dev.bsddev, type, &rid,
283             RF_ACTIVE) == NULL)
284                 return (-EINVAL);
285         return (0);
286 }
287
288 static inline void
289 pci_release_region(struct pci_dev *pdev, int bar)
290 {
291         struct resource_list_entry *rle;
292
293         if ((rle = _pci_get_bar(pdev, bar)) == NULL)
294                 return;
295         bus_release_resource(pdev->dev.bsddev, rle->type, rle->rid, rle->res);
296 }
297
298 static inline void
299 pci_release_regions(struct pci_dev *pdev)
300 {
301         int i;
302
303         for (i = 0; i <= PCIR_MAX_BAR_0; i++)
304                 pci_release_region(pdev, i);
305 }
306
307 static inline int
308 pci_request_regions(struct pci_dev *pdev, const char *res_name)
309 {
310         int error;
311         int i;
312
313         for (i = 0; i <= PCIR_MAX_BAR_0; i++) {
314                 error = pci_request_region(pdev, i, res_name);
315                 if (error && error != -ENODEV) {
316                         pci_release_regions(pdev);
317                         return (error);
318                 }
319         }
320         return (0);
321 }
322
323 static inline void
324 pci_disable_msix(struct pci_dev *pdev)
325 {
326
327         pci_release_msi(pdev->dev.bsddev);
328 }
329
330 #define PCI_CAP_ID_EXP  PCIY_EXPRESS
331 #define PCI_CAP_ID_PCIX PCIY_PCIX
332
333
334 static inline int
335 pci_find_capability(struct pci_dev *pdev, int capid)
336 {
337         int reg;
338
339         if (pci_find_cap(pdev->dev.bsddev, capid, &reg))
340                 return (0);
341         return (reg);
342 }
343
344
345
346
347 /**
348  * pci_pcie_cap - get the saved PCIe capability offset
349  * @dev: PCI device
350  *
351  * PCIe capability offset is calculated at PCI device initialization
352  * time and saved in the data structure. This function returns saved
353  * PCIe capability offset. Using this instead of pci_find_capability()
354  * reduces unnecessary search in the PCI configuration space. If you
355  * need to calculate PCIe capability offset from raw device for some
356  * reasons, please use pci_find_capability() instead.
357  */
358 static inline int pci_pcie_cap(struct pci_dev *dev)
359 {
360         return pci_find_capability(dev, PCI_CAP_ID_EXP);
361 }
362
363
364 static inline int
365 pci_read_config_byte(struct pci_dev *pdev, int where, u8 *val)
366 {
367
368         *val = (u8)pci_read_config(pdev->dev.bsddev, where, 1);
369         return (0);
370 }
371
372 static inline int
373 pci_read_config_word(struct pci_dev *pdev, int where, u16 *val)
374 {
375
376         *val = (u16)pci_read_config(pdev->dev.bsddev, where, 2);
377         return (0);
378 }
379
380 static inline int
381 pci_read_config_dword(struct pci_dev *pdev, int where, u32 *val)
382 {
383
384         *val = (u32)pci_read_config(pdev->dev.bsddev, where, 4);
385         return (0);
386
387
388 static inline int
389 pci_write_config_byte(struct pci_dev *pdev, int where, u8 val)
390 {
391
392         pci_write_config(pdev->dev.bsddev, where, val, 1);
393         return (0);
394 }
395
396 static inline int
397 pci_write_config_word(struct pci_dev *pdev, int where, u16 val)
398 {
399
400         pci_write_config(pdev->dev.bsddev, where, val, 2);
401         return (0);
402 }
403
404 static inline int
405 pci_write_config_dword(struct pci_dev *pdev, int where, u32 val)
406
407
408         pci_write_config(pdev->dev.bsddev, where, val, 4);
409         return (0);
410 }
411
412 static struct pci_driver *
413 linux_pci_find(device_t dev, const struct pci_device_id **idp)
414 {
415         const struct pci_device_id *id;
416         struct pci_driver *pdrv;
417         uint16_t vendor;
418         uint16_t device;
419
420         vendor = pci_get_vendor(dev);
421         device = pci_get_device(dev);
422
423         spin_lock(&pci_lock);
424         list_for_each_entry(pdrv, &pci_drivers, links) {
425                 for (id = pdrv->id_table; id->vendor != 0; id++) {
426                         if (vendor == id->vendor && device == id->device) {
427                                 *idp = id;
428                                 spin_unlock(&pci_lock);
429                                 return (pdrv);
430                         }
431                 }
432         }
433         spin_unlock(&pci_lock);
434         return (NULL);
435 }
436
437 static inline int
438 linux_pci_probe(device_t dev)
439 {
440         const struct pci_device_id *id;
441         struct pci_driver *pdrv;
442
443         if ((pdrv = linux_pci_find(dev, &id)) == NULL)
444                 return (ENXIO);
445         if (device_get_driver(dev) != &pdrv->driver)
446                 return (ENXIO);
447         device_set_desc(dev, pdrv->name);
448         return (0);
449 }
450
451 static inline int
452 linux_pci_attach(device_t dev)
453 {
454         struct resource_list_entry *rle;
455         struct pci_dev *pdev;
456         struct pci_driver *pdrv;
457         const struct pci_device_id *id;
458         int error;
459
460         pdrv = linux_pci_find(dev, &id);
461         pdev = device_get_softc(dev);
462         pdev->dev.parent = &linux_rootdev;
463         pdev->dev.bsddev = dev;
464         INIT_LIST_HEAD(&pdev->dev.irqents);
465         pdev->device = id->device;
466         pdev->vendor = id->vendor;
467         pdev->dev.dma_mask = &pdev->dma_mask;
468         pdev->pdrv = pdrv;
469         kobject_init(&pdev->dev.kobj, &dev_ktype);
470         kobject_set_name(&pdev->dev.kobj, device_get_nameunit(dev));
471         kobject_add(&pdev->dev.kobj, &linux_rootdev.kobj,
472             kobject_name(&pdev->dev.kobj));
473         rle = _pci_get_rle(pdev, SYS_RES_IRQ, 0);
474         if (rle)
475                 pdev->dev.irq = rle->start;
476         else
477                 pdev->dev.irq = 0;
478         pdev->irq = pdev->dev.irq;
479         mtx_unlock(&Giant);
480         spin_lock(&pci_lock);
481         list_add(&pdev->links, &pci_devices);
482         spin_unlock(&pci_lock);
483         error = pdrv->probe(pdev, id);
484         mtx_lock(&Giant);
485         if (error) {
486                 spin_lock(&pci_lock);
487                 list_del(&pdev->links);
488                 spin_unlock(&pci_lock);
489                 put_device(&pdev->dev);
490                 return (-error);
491         }
492         return (0);
493 }
494
495 static inline int
496 linux_pci_detach(device_t dev)
497 {
498         struct pci_dev *pdev;
499
500         pdev = device_get_softc(dev);
501         mtx_unlock(&Giant);
502         pdev->pdrv->remove(pdev);
503         mtx_lock(&Giant);
504         spin_lock(&pci_lock);
505         list_del(&pdev->links);
506         spin_unlock(&pci_lock);
507         put_device(&pdev->dev);
508
509         return (0);
510 }
511
512 static device_method_t pci_methods[] = {
513         DEVMETHOD(device_probe, linux_pci_probe),
514         DEVMETHOD(device_attach, linux_pci_attach),
515         DEVMETHOD(device_detach, linux_pci_detach),
516         {0, 0}
517 };
518
519 static inline int
520 pci_register_driver(struct pci_driver *pdrv)
521 {
522         devclass_t bus;
523         int error;
524
525         spin_lock(&pci_lock);
526         list_add(&pdrv->links, &pci_drivers);
527         spin_unlock(&pci_lock);
528         bus = devclass_find("pci");
529         pdrv->driver.name = pdrv->name;
530         pdrv->driver.methods = pci_methods;
531         pdrv->driver.size = sizeof(struct pci_dev);
532         mtx_lock(&Giant);
533         error = devclass_add_driver(bus, &pdrv->driver, BUS_PASS_DEFAULT,
534             &pdrv->bsdclass);
535         mtx_unlock(&Giant);
536         if (error)
537                 return (-error);
538         return (0);
539 }
540
541 static inline void
542 pci_unregister_driver(struct pci_driver *pdrv)
543 {
544         devclass_t bus;
545
546         list_del(&pdrv->links);
547         bus = devclass_find("pci");
548         mtx_lock(&Giant);
549         devclass_delete_driver(bus, &pdrv->driver);
550         mtx_unlock(&Giant);
551 }
552
553 struct msix_entry {
554         int entry;
555         int vector;
556 };
557
558 /*
559  * Enable msix, positive errors indicate actual number of available
560  * vectors.  Negative errors are failures.
561  */
562 static inline int
563 pci_enable_msix(struct pci_dev *pdev, struct msix_entry *entries, int nreq)
564 {
565         struct resource_list_entry *rle;
566         int error;
567         int avail;
568         int i;
569
570         avail = pci_msix_count(pdev->dev.bsddev);
571         if (avail < nreq) {
572                 if (avail == 0)
573                         return -EINVAL;
574                 return avail;
575         }
576         avail = nreq;
577         if ((error = -pci_alloc_msix(pdev->dev.bsddev, &avail)) != 0)
578                 return error;
579         /*
580          * Handle case where "pci_alloc_msix()" may allocate less
581          * interrupts than available and return with no error:
582          */
583         if (avail < nreq) {
584                 pci_release_msi(pdev->dev.bsddev);
585                 return avail;
586         }
587         rle = _pci_get_rle(pdev, SYS_RES_IRQ, 1);
588         pdev->dev.msix = rle->start;
589         pdev->dev.msix_max = rle->start + avail;
590         for (i = 0; i < nreq; i++)
591                 entries[i].vector = pdev->dev.msix + i;
592         return (0);
593 }
594
595 static inline int pci_channel_offline(struct pci_dev *pdev)
596 {
597         return false;
598 }
599
600 static inline int pci_enable_sriov(struct pci_dev *dev, int nr_virtfn)
601 {
602         return -ENODEV;
603 }
604 static inline void pci_disable_sriov(struct pci_dev *dev)
605 {
606 }
607
608 /**
609  * DEFINE_PCI_DEVICE_TABLE - macro used to describe a pci device table
610  * @_table: device table name
611  *
612  * This macro is used to create a struct pci_device_id array (a device table)
613  * in a generic manner.
614  */
615 #define DEFINE_PCI_DEVICE_TABLE(_table) \
616         const struct pci_device_id _table[] __devinitdata
617
618
619 /* XXX This should not be necessary. */
620 #define pcix_set_mmrbc(d, v)    0
621 #define pcix_get_max_mmrbc(d)   0
622 #define pcie_set_readrq(d, v)   0
623
624 #define PCI_DMA_BIDIRECTIONAL   0
625 #define PCI_DMA_TODEVICE        1
626 #define PCI_DMA_FROMDEVICE      2
627 #define PCI_DMA_NONE            3
628
629 #define pci_pool                dma_pool
630 #define pci_pool_destroy        dma_pool_destroy
631 #define pci_pool_alloc          dma_pool_alloc
632 #define pci_pool_free           dma_pool_free
633 #define pci_pool_create(_name, _pdev, _size, _align, _alloc)            \
634             dma_pool_create(_name, &(_pdev)->dev, _size, _align, _alloc)
635 #define pci_free_consistent(_hwdev, _size, _vaddr, _dma_handle)         \
636             dma_free_coherent((_hwdev) == NULL ? NULL : &(_hwdev)->dev, \
637                 _size, _vaddr, _dma_handle)
638 #define pci_map_sg(_hwdev, _sg, _nents, _dir)                           \
639             dma_map_sg((_hwdev) == NULL ? NULL : &(_hwdev->dev),        \
640                 _sg, _nents, (enum dma_data_direction)_dir)
641 #define pci_map_single(_hwdev, _ptr, _size, _dir)                       \
642             dma_map_single((_hwdev) == NULL ? NULL : &(_hwdev->dev),    \
643                 (_ptr), (_size), (enum dma_data_direction)_dir)
644 #define pci_unmap_single(_hwdev, _addr, _size, _dir)                    \
645             dma_unmap_single((_hwdev) == NULL ? NULL : &(_hwdev)->dev,  \
646                 _addr, _size, (enum dma_data_direction)_dir)
647 #define pci_unmap_sg(_hwdev, _sg, _nents, _dir)                         \
648             dma_unmap_sg((_hwdev) == NULL ? NULL : &(_hwdev)->dev,      \
649                 _sg, _nents, (enum dma_data_direction)_dir)
650 #define pci_map_page(_hwdev, _page, _offset, _size, _dir)               \
651             dma_map_page((_hwdev) == NULL ? NULL : &(_hwdev)->dev, _page,\
652                 _offset, _size, (enum dma_data_direction)_dir)
653 #define pci_unmap_page(_hwdev, _dma_address, _size, _dir)               \
654             dma_unmap_page((_hwdev) == NULL ? NULL : &(_hwdev)->dev,    \
655                 _dma_address, _size, (enum dma_data_direction)_dir)
656 #define pci_set_dma_mask(_pdev, mask)   dma_set_mask(&(_pdev)->dev, (mask))
657 #define pci_dma_mapping_error(_pdev, _dma_addr)                         \
658             dma_mapping_error(&(_pdev)->dev, _dma_addr)
659 #define pci_set_consistent_dma_mask(_pdev, _mask)                       \
660             dma_set_coherent_mask(&(_pdev)->dev, (_mask))
661 #define DECLARE_PCI_UNMAP_ADDR(x)       DEFINE_DMA_UNMAP_ADDR(x);
662 #define DECLARE_PCI_UNMAP_LEN(x)        DEFINE_DMA_UNMAP_LEN(x);
663 #define pci_unmap_addr          dma_unmap_addr
664 #define pci_unmap_addr_set      dma_unmap_addr_set
665 #define pci_unmap_len           dma_unmap_len
666 #define pci_unmap_len_set       dma_unmap_len_set
667
668 typedef unsigned int __bitwise pci_channel_state_t;
669 typedef unsigned int __bitwise pci_ers_result_t;
670
671 enum pci_channel_state {
672         /* I/O channel is in normal state */
673         pci_channel_io_normal = (__force pci_channel_state_t) 1,
674
675         /* I/O to channel is blocked */
676         pci_channel_io_frozen = (__force pci_channel_state_t) 2,
677
678         /* PCI card is dead */
679         pci_channel_io_perm_failure = (__force pci_channel_state_t) 3,
680 };
681
682 enum pci_ers_result {
683         /* no result/none/not supported in device driver */
684         PCI_ERS_RESULT_NONE = (__force pci_ers_result_t) 1,
685
686         /* Device driver can recover without slot reset */
687         PCI_ERS_RESULT_CAN_RECOVER = (__force pci_ers_result_t) 2,
688
689         /* Device driver wants slot to be reset. */
690         PCI_ERS_RESULT_NEED_RESET = (__force pci_ers_result_t) 3,
691
692         /* Device has completely failed, is unrecoverable */
693         PCI_ERS_RESULT_DISCONNECT = (__force pci_ers_result_t) 4,
694
695         /* Device driver is fully recovered and operational */
696         PCI_ERS_RESULT_RECOVERED = (__force pci_ers_result_t) 5,
697 };
698
699
700 /* PCI bus error event callbacks */
701 struct pci_error_handlers {
702         /* PCI bus error detected on this device */
703         pci_ers_result_t (*error_detected)(struct pci_dev *dev,
704                         enum pci_channel_state error);
705
706         /* MMIO has been re-enabled, but not DMA */
707         pci_ers_result_t (*mmio_enabled)(struct pci_dev *dev);
708
709         /* PCI Express link has been reset */
710         pci_ers_result_t (*link_reset)(struct pci_dev *dev);
711
712         /* PCI slot has been reset */
713         pci_ers_result_t (*slot_reset)(struct pci_dev *dev);
714
715         /* Device driver may resume normal operations */
716         void (*resume)(struct pci_dev *dev);
717 };
718
719 /* freeBSD does not support SRIOV - yet */
720 static inline struct pci_dev *pci_physfn(struct pci_dev *dev)
721 {
722         return dev;
723 }
724
725 static inline bool pci_is_pcie(struct pci_dev *dev)
726 {
727         return !!pci_pcie_cap(dev);
728 }
729
730 static inline u16 pcie_flags_reg(struct pci_dev *dev)
731 {
732         int pos;
733         u16 reg16;
734
735         pos = pci_find_capability(dev, PCI_CAP_ID_EXP);
736         if (!pos)
737                 return 0;
738
739         pci_read_config_word(dev, pos + PCI_EXP_FLAGS, &reg16);
740
741         return reg16;
742 }
743
744
745 static inline int pci_pcie_type(struct pci_dev *dev)
746 {
747         return (pcie_flags_reg(dev) & PCI_EXP_FLAGS_TYPE) >> 4;
748 }
749
750 static inline int pcie_cap_version(struct pci_dev *dev)
751 {
752         return pcie_flags_reg(dev) & PCI_EXP_FLAGS_VERS;
753 }
754
755 static inline bool pcie_cap_has_lnkctl(struct pci_dev *dev)
756 {
757         int type = pci_pcie_type(dev);
758
759         return pcie_cap_version(dev) > 1 ||
760                type == PCI_EXP_TYPE_ROOT_PORT ||
761                type == PCI_EXP_TYPE_ENDPOINT ||
762                type == PCI_EXP_TYPE_LEG_END;
763 }
764
765 static inline bool pcie_cap_has_devctl(const struct pci_dev *dev)
766 {
767                 return true;
768 }
769
770 static inline bool pcie_cap_has_sltctl(struct pci_dev *dev)
771 {
772         int type = pci_pcie_type(dev);
773
774         return pcie_cap_version(dev) > 1 ||
775                type == PCI_EXP_TYPE_ROOT_PORT ||
776                (type == PCI_EXP_TYPE_DOWNSTREAM &&
777                 pcie_flags_reg(dev) & PCI_EXP_FLAGS_SLOT);
778 }
779
780 static inline bool pcie_cap_has_rtctl(struct pci_dev *dev)
781 {
782         int type = pci_pcie_type(dev);
783
784         return pcie_cap_version(dev) > 1 ||
785                type == PCI_EXP_TYPE_ROOT_PORT ||
786                type == PCI_EXP_TYPE_RC_EC;
787 }
788
789 static bool pcie_capability_reg_implemented(struct pci_dev *dev, int pos)
790 {
791         if (!pci_is_pcie(dev))
792                 return false;
793
794         switch (pos) {
795         case PCI_EXP_FLAGS_TYPE:
796                 return true;
797         case PCI_EXP_DEVCAP:
798         case PCI_EXP_DEVCTL:
799         case PCI_EXP_DEVSTA:
800                 return pcie_cap_has_devctl(dev);
801         case PCI_EXP_LNKCAP:
802         case PCI_EXP_LNKCTL:
803         case PCI_EXP_LNKSTA:
804                 return pcie_cap_has_lnkctl(dev);
805         case PCI_EXP_SLTCAP:
806         case PCI_EXP_SLTCTL:
807         case PCI_EXP_SLTSTA:
808                 return pcie_cap_has_sltctl(dev);
809         case PCI_EXP_RTCTL:
810         case PCI_EXP_RTCAP:
811         case PCI_EXP_RTSTA:
812                 return pcie_cap_has_rtctl(dev);
813         case PCI_EXP_DEVCAP2:
814         case PCI_EXP_DEVCTL2:
815         case PCI_EXP_LNKCAP2:
816         case PCI_EXP_LNKCTL2:
817         case PCI_EXP_LNKSTA2:
818                 return pcie_cap_version(dev) > 1;
819         default:
820                 return false;
821         }
822 }
823
824  
825 static inline int pcie_capability_write_word(struct pci_dev *dev, int pos, u16 val)
826 {
827         if (pos & 1)
828                 return -EINVAL;
829
830         if (!pcie_capability_reg_implemented(dev, pos))
831                 return 0;
832
833         return pci_write_config_word(dev, pci_pcie_cap(dev) + pos, val);
834 }
835
836
837 #endif  /* _LINUX_PCI_H_ */