]> CyberLeo.Net >> Repos - FreeBSD/releng/8.1.git/blob - sys/dev/bm/if_bm.c
Copy stable/8 to releng/8.1 in preparation for 8.1-RC1.
[FreeBSD/releng/8.1.git] / sys / dev / bm / if_bm.c
1 /*-
2  * Copyright 2008 Nathan Whitehorn. All rights reserved.
3  * Copyright 2003 by Peter Grehan. All rights reserved.
4  * Copyright (C) 1998, 1999, 2000 Tsubai Masanari.  All rights reserved.
5  *
6  * Redistribution and use in source and binary forms, with or without
7  * modification, are permitted provided that the following conditions
8  * are met:
9  * 1. Redistributions of source code must retain the above copyright
10  *    notice, this list of conditions and the following disclaimer.
11  * 2. Redistributions in binary form must reproduce the above copyright
12  *    notice, this list of conditions and the following disclaimer in the
13  *    documentation and/or other materials provided with the distribution.
14  * 3. The name of the author may not be used to endorse or promote products
15  *    derived from this software without specific prior written permission.
16  *
17  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
18  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
19  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
20  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
21  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING,
22  * BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
23  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
24  * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
25  * OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
26  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
27  * SUCH DAMAGE.
28  *
29  * From:
30  *   NetBSD: if_bm.c,v 1.9.2.1 2000/11/01 15:02:49 tv Exp
31  */
32
33 /*
34  * BMAC/BMAC+ Macio cell 10/100 ethernet driver
35  *      The low-cost, low-feature Apple variant of the Sun HME
36  */
37
38 #include <sys/cdefs.h>
39 __FBSDID("$FreeBSD$");
40
41 #include <sys/param.h>
42 #include <sys/systm.h>
43 #include <sys/sockio.h>
44 #include <sys/endian.h>
45 #include <sys/mbuf.h>
46 #include <sys/module.h>
47 #include <sys/malloc.h>
48 #include <sys/kernel.h>
49 #include <sys/socket.h>
50
51 #include <net/bpf.h>
52 #include <net/if.h>
53 #include <net/if_arp.h>
54 #include <net/ethernet.h>
55 #include <net/if_dl.h>
56 #include <net/if_media.h>
57 #include <net/if_types.h>
58
59 #include <machine/pio.h>
60 #include <machine/bus.h>
61 #include <machine/resource.h>
62 #include <sys/bus.h>
63 #include <sys/rman.h>
64
65 #include <dev/mii/mii.h>
66 #include <dev/mii/miivar.h>
67
68 #include <dev/ofw/ofw_bus.h>
69 #include <dev/ofw/openfirm.h>
70 #include <machine/dbdma.h>
71
72 MODULE_DEPEND(bm, ether, 1, 1, 1);
73 MODULE_DEPEND(bm, miibus, 1, 1, 1);
74
75 /* "controller miibus0" required.  See GENERIC if you get errors here. */
76 #include "miibus_if.h"
77
78 #include "if_bmreg.h"
79 #include "if_bmvar.h"
80
81 static int bm_probe             (device_t);
82 static int bm_attach            (device_t);
83 static int bm_detach            (device_t);
84 static int bm_shutdown          (device_t);
85
86 static void bm_start            (struct ifnet *);
87 static void bm_start_locked     (struct ifnet *);
88 static int bm_encap             (struct bm_softc *sc, struct mbuf **m_head);
89 static int bm_ioctl             (struct ifnet *, u_long, caddr_t);
90 static void bm_init             (void *);
91 static void bm_init_locked      (struct bm_softc *sc);
92 static void bm_chip_setup       (struct bm_softc *sc);
93 static void bm_stop             (struct bm_softc *sc);
94 static void bm_setladrf         (struct bm_softc *sc);
95 static void bm_dummypacket      (struct bm_softc *sc);
96 static void bm_txintr           (void *xsc);
97 static void bm_rxintr           (void *xsc);
98
99 static int bm_add_rxbuf         (struct bm_softc *sc, int i);
100 static int bm_add_rxbuf_dma     (struct bm_softc *sc, int i);
101 static void bm_enable_interrupts (struct bm_softc *sc);
102 static void bm_disable_interrupts (struct bm_softc *sc);
103 static void bm_tick             (void *xsc);
104
105 static int bm_ifmedia_upd       (struct ifnet *);
106 static void bm_ifmedia_sts      (struct ifnet *, struct ifmediareq *);
107
108 static void bm_miicsr_dwrite    (struct bm_softc *, u_int16_t);
109 static void bm_mii_writebit     (struct bm_softc *, int);
110 static int bm_mii_readbit       (struct bm_softc *);
111 static void bm_mii_sync         (struct bm_softc *);
112 static void bm_mii_send         (struct bm_softc *, u_int32_t, int);
113 static int bm_mii_readreg       (struct bm_softc *, struct bm_mii_frame *);
114 static int bm_mii_writereg      (struct bm_softc *, struct bm_mii_frame *);
115 static int bm_miibus_readreg    (device_t, int, int);
116 static int bm_miibus_writereg   (device_t, int, int, int);
117 static void bm_miibus_statchg   (device_t);
118
119 static device_method_t bm_methods[] = {
120         /* Device interface */
121         DEVMETHOD(device_probe,         bm_probe),
122         DEVMETHOD(device_attach,        bm_attach),
123         DEVMETHOD(device_detach,        bm_detach),
124         DEVMETHOD(device_shutdown,      bm_shutdown),
125
126         /* bus interface, for miibus */
127         DEVMETHOD(bus_print_child,      bus_generic_print_child),
128         DEVMETHOD(bus_driver_added,     bus_generic_driver_added),
129
130         /* MII interface */
131         DEVMETHOD(miibus_readreg,       bm_miibus_readreg),
132         DEVMETHOD(miibus_writereg,      bm_miibus_writereg),
133         DEVMETHOD(miibus_statchg,       bm_miibus_statchg),
134         { 0, 0 }
135 };
136
137 static driver_t bm_macio_driver = {
138         "bm",
139         bm_methods,
140         sizeof(struct bm_softc)
141 };
142
143 static devclass_t bm_devclass;
144
145 DRIVER_MODULE(bm, macio, bm_macio_driver, bm_devclass, 0, 0);
146 DRIVER_MODULE(miibus, bm, miibus_driver, miibus_devclass, 0, 0);
147
148 /*
149  * MII internal routines
150  */
151
152 /*
153  * Write to the MII csr, introducing a delay to allow valid
154  * MII clock pulses to be formed
155  */
156 static void
157 bm_miicsr_dwrite(struct bm_softc *sc, u_int16_t val)
158 {
159         CSR_WRITE_2(sc, BM_MII_CSR, val);
160         /*
161          * Assume this is a clock toggle and generate a 1us delay
162          * to cover both MII's 160ns high/low minimum and 400ns
163          * cycle miniumum
164          */
165         DELAY(1);
166 }
167
168 /*
169  * Write a bit to the MII bus.
170  */
171 static void
172 bm_mii_writebit(struct bm_softc *sc, int bit)
173 {
174         u_int16_t regval;
175
176         regval = BM_MII_OENABLE;
177         if (bit)
178                 regval |= BM_MII_DATAOUT;
179
180         bm_miicsr_dwrite(sc, regval);
181         bm_miicsr_dwrite(sc, regval | BM_MII_CLK);
182         bm_miicsr_dwrite(sc, regval);
183 }
184
185 /*
186  * Read a bit from the MII bus.
187  */
188 static int
189 bm_mii_readbit(struct bm_softc *sc)
190 {
191         u_int16_t regval, bitin;
192
193         /* ~BM_MII_OENABLE */
194         regval = 0;
195
196         bm_miicsr_dwrite(sc, regval);
197         bm_miicsr_dwrite(sc, regval | BM_MII_CLK);
198         bm_miicsr_dwrite(sc, regval);
199         bitin = CSR_READ_2(sc, BM_MII_CSR) & BM_MII_DATAIN;
200
201         return (bitin == BM_MII_DATAIN);
202 }
203
204 /*
205  * Sync the PHYs by setting data bit and strobing the clock 32 times.
206  */
207 static void
208 bm_mii_sync(struct bm_softc *sc)
209 {
210         int i;
211         u_int16_t regval;
212
213         regval = BM_MII_OENABLE | BM_MII_DATAOUT;
214
215         bm_miicsr_dwrite(sc, regval);
216         for (i = 0; i < 32; i++) {
217                 bm_miicsr_dwrite(sc, regval | BM_MII_CLK);
218                 bm_miicsr_dwrite(sc, regval);
219         }
220 }
221
222 /*
223  * Clock a series of bits through the MII.
224  */
225 static void
226 bm_mii_send(struct bm_softc *sc, u_int32_t bits, int cnt)
227 {
228         int i;
229
230         for (i = (0x1 << (cnt - 1)); i; i >>= 1)
231                 bm_mii_writebit(sc, bits & i);
232 }
233
234 /*
235  * Read a PHY register through the MII.
236  */
237 static int
238 bm_mii_readreg(struct bm_softc *sc, struct bm_mii_frame *frame)
239 {
240         int i, ack, bit;
241
242         /*
243          * Set up frame for RX.
244          */
245         frame->mii_stdelim = BM_MII_STARTDELIM;
246         frame->mii_opcode = BM_MII_READOP;
247         frame->mii_turnaround = 0;
248         frame->mii_data = 0;
249
250         /*
251          * Sync the PHYs
252          */
253         bm_mii_sync(sc);
254
255         /*
256          * Send command/address info
257          */
258         bm_mii_send(sc, frame->mii_stdelim, 2);
259         bm_mii_send(sc, frame->mii_opcode, 2);
260         bm_mii_send(sc, frame->mii_phyaddr, 5);
261         bm_mii_send(sc, frame->mii_regaddr, 5);
262
263         /*
264          * Check for ack.
265          */
266         ack = bm_mii_readbit(sc);
267
268         /*
269          * Now try reading data bits. If the ack failed, we still
270          * need to clock through 16 cycles to keep the PHY(s) in sync.
271          */
272         for (i = 0x8000; i; i >>= 1) {
273                 bit = bm_mii_readbit(sc);
274                 if (!ack && bit)
275                         frame->mii_data |= i;
276         }
277
278         /*
279          * Skip through idle bit-times
280          */
281         bm_mii_writebit(sc, 0);
282         bm_mii_writebit(sc, 0);
283
284         return ((ack) ? 1 : 0);
285 }
286
287 /*
288  * Write to a PHY register through the MII.
289  */
290 static int
291 bm_mii_writereg(struct bm_softc *sc, struct bm_mii_frame *frame)
292 {
293         /*
294          * Set up frame for tx
295          */
296         frame->mii_stdelim = BM_MII_STARTDELIM;
297         frame->mii_opcode = BM_MII_WRITEOP;
298         frame->mii_turnaround = BM_MII_TURNAROUND;
299
300         /*
301          * Sync the phy and start the bitbang write sequence
302          */
303         bm_mii_sync(sc);
304
305         bm_mii_send(sc, frame->mii_stdelim, 2);
306         bm_mii_send(sc, frame->mii_opcode, 2);
307         bm_mii_send(sc, frame->mii_phyaddr, 5);
308         bm_mii_send(sc, frame->mii_regaddr, 5);
309         bm_mii_send(sc, frame->mii_turnaround, 2);
310         bm_mii_send(sc, frame->mii_data, 16);
311
312         /*
313          * Idle bit.
314          */
315         bm_mii_writebit(sc, 0);
316
317         return (0);
318 }
319
320 /*
321  * MII bus i/f
322  */
323 static int
324 bm_miibus_readreg(device_t dev, int phy, int reg)
325 {
326         struct bm_softc *sc;
327         struct bm_mii_frame frame;
328
329         sc = device_get_softc(dev);
330         bzero(&frame, sizeof(frame));
331
332         frame.mii_phyaddr = phy;
333         frame.mii_regaddr = reg;
334
335         bm_mii_readreg(sc, &frame);
336
337         return (frame.mii_data);
338 }
339
340 static int
341 bm_miibus_writereg(device_t dev, int phy, int reg, int data)
342 {
343         struct bm_softc *sc;
344         struct bm_mii_frame frame;
345
346         sc = device_get_softc(dev);
347         bzero(&frame, sizeof(frame));
348
349         frame.mii_phyaddr = phy;
350         frame.mii_regaddr = reg;
351         frame.mii_data = data;
352
353         bm_mii_writereg(sc, &frame);
354
355         return (0);
356 }
357
358 static void
359 bm_miibus_statchg(device_t dev)
360 {
361         struct bm_softc *sc = device_get_softc(dev);
362         uint16_t reg;
363         int new_duplex;
364
365         reg = CSR_READ_2(sc, BM_TX_CONFIG);
366         new_duplex = IFM_OPTIONS(sc->sc_mii->mii_media_active) & IFM_FDX;
367
368         if (new_duplex != sc->sc_duplex) {
369                 /* Turn off TX MAC while we fiddle its settings */
370                 reg &= ~BM_ENABLE;
371
372                 CSR_WRITE_2(sc, BM_TX_CONFIG, reg);
373                 while (CSR_READ_2(sc, BM_TX_CONFIG) & BM_ENABLE)
374                         DELAY(10);
375         }
376
377         if (new_duplex && !sc->sc_duplex)
378                 reg |= BM_TX_IGNORECOLL | BM_TX_FULLDPX;
379         else if (!new_duplex && sc->sc_duplex)
380                 reg &= ~(BM_TX_IGNORECOLL | BM_TX_FULLDPX);
381
382         if (new_duplex != sc->sc_duplex) {
383                 /* Turn TX MAC back on */
384                 reg |= BM_ENABLE;
385
386                 CSR_WRITE_2(sc, BM_TX_CONFIG, reg);
387                 sc->sc_duplex = new_duplex;
388         }
389 }
390
391 /*
392  * ifmedia/mii callbacks
393  */
394 static int
395 bm_ifmedia_upd(struct ifnet *ifp)
396 {
397         struct bm_softc *sc = ifp->if_softc;
398         int error;
399
400         BM_LOCK(sc);
401         error = mii_mediachg(sc->sc_mii);
402         BM_UNLOCK(sc);
403         return (error);
404 }
405
406 static void
407 bm_ifmedia_sts(struct ifnet *ifp, struct ifmediareq *ifm)
408 {
409         struct bm_softc *sc = ifp->if_softc;
410
411         BM_LOCK(sc);
412         mii_pollstat(sc->sc_mii);
413         ifm->ifm_active = sc->sc_mii->mii_media_active;
414         ifm->ifm_status = sc->sc_mii->mii_media_status;
415         BM_UNLOCK(sc);
416 }
417
418 /*
419  * Macio probe/attach
420  */
421 static int
422 bm_probe(device_t dev)
423 {
424         const char *dname = ofw_bus_get_name(dev);
425         const char *dcompat = ofw_bus_get_compat(dev);
426
427         /*
428          * BMAC+ cells have a name of "ethernet" and
429          * a compatible property of "bmac+"
430          */
431         if (strcmp(dname, "bmac") == 0) {
432                 device_set_desc(dev, "Apple BMAC Ethernet Adaptor");
433         } else if (strcmp(dcompat, "bmac+") == 0) {
434                 device_set_desc(dev, "Apple BMAC+ Ethernet Adaptor");
435         } else
436                 return (ENXIO);
437
438         return (0);
439 }
440
441 static int
442 bm_attach(device_t dev)
443 {
444         phandle_t node;
445         u_char *eaddr;
446         struct ifnet *ifp;
447         int error, cellid, i;
448         struct bm_txsoft *txs;
449         struct bm_softc *sc = device_get_softc(dev);
450
451         ifp = sc->sc_ifp = if_alloc(IFT_ETHER);
452         ifp->if_softc = sc;
453         sc->sc_dev = dev;
454         sc->sc_duplex = ~IFM_FDX;
455
456         error = 0;
457         mtx_init(&sc->sc_mtx, device_get_nameunit(dev), MTX_NETWORK_LOCK,
458             MTX_DEF);
459         callout_init_mtx(&sc->sc_tick_ch, &sc->sc_mtx, 0);
460
461         /* Check for an improved version of Paddington */
462         sc->sc_streaming = 0;
463         cellid = -1;
464         node = ofw_bus_get_node(dev);
465
466         OF_getprop(node, "cell-id", &cellid, sizeof(cellid));
467         if (cellid >= 0xc4)
468                 sc->sc_streaming = 1;
469
470         sc->sc_memrid = 0;
471         sc->sc_memr = bus_alloc_resource_any(dev, SYS_RES_MEMORY,
472             &sc->sc_memrid, RF_ACTIVE);
473         if (sc->sc_memr == NULL) {
474                 device_printf(dev, "Could not alloc chip registers!\n");
475                 return (ENXIO);
476         }
477
478         sc->sc_txdmarid = BM_TXDMA_REGISTERS;
479         sc->sc_rxdmarid = BM_RXDMA_REGISTERS;
480
481         sc->sc_txdmar = bus_alloc_resource_any(dev, SYS_RES_MEMORY,
482             &sc->sc_txdmarid, RF_ACTIVE);
483         sc->sc_rxdmar = bus_alloc_resource_any(dev, SYS_RES_MEMORY,
484             &sc->sc_rxdmarid, RF_ACTIVE);
485
486         if (sc->sc_txdmar == NULL || sc->sc_rxdmar == NULL) {
487                 device_printf(dev, "Could not map DBDMA registers!\n");
488                 return (ENXIO);
489         }
490
491         error = dbdma_allocate_channel(sc->sc_txdmar, 0, bus_get_dma_tag(dev),
492             BM_MAX_DMA_COMMANDS, &sc->sc_txdma);
493         error += dbdma_allocate_channel(sc->sc_rxdmar, 0, bus_get_dma_tag(dev),
494             BM_MAX_DMA_COMMANDS, &sc->sc_rxdma);
495
496         if (error) {
497                 device_printf(dev,"Could not allocate DBDMA channel!\n");
498                 return (ENXIO);
499         }
500
501         /* alloc DMA tags and buffers */
502         error = bus_dma_tag_create(bus_get_dma_tag(dev), 1, 0,
503             BUS_SPACE_MAXADDR_32BIT, BUS_SPACE_MAXADDR, NULL, NULL,
504             BUS_SPACE_MAXSIZE_32BIT, 0, BUS_SPACE_MAXSIZE_32BIT, 0, NULL,
505             NULL, &sc->sc_pdma_tag);
506
507         if (error) {
508                 device_printf(dev,"Could not allocate DMA tag!\n");
509                 return (ENXIO);
510         }
511
512         error = bus_dma_tag_create(sc->sc_pdma_tag, 1, 0, BUS_SPACE_MAXADDR,
513             BUS_SPACE_MAXADDR, NULL, NULL, MCLBYTES, 1, MCLBYTES,
514             BUS_DMA_ALLOCNOW, NULL, NULL, &sc->sc_rdma_tag);
515
516         if (error) {
517                 device_printf(dev,"Could not allocate RX DMA channel!\n");
518                 return (ENXIO);
519         }
520
521         error = bus_dma_tag_create(sc->sc_pdma_tag, 1, 0, BUS_SPACE_MAXADDR,
522             BUS_SPACE_MAXADDR, NULL, NULL, MCLBYTES * BM_NTXSEGS, BM_NTXSEGS,
523             MCLBYTES, BUS_DMA_ALLOCNOW, NULL, NULL, &sc->sc_tdma_tag);
524
525         if (error) {
526                 device_printf(dev,"Could not allocate TX DMA tag!\n");
527                 return (ENXIO);
528         }
529
530         /* init transmit descriptors */
531         STAILQ_INIT(&sc->sc_txfreeq);
532         STAILQ_INIT(&sc->sc_txdirtyq);
533
534         /* create TX DMA maps */
535         error = ENOMEM;
536         for (i = 0; i < BM_MAX_TX_PACKETS; i++) {
537                 txs = &sc->sc_txsoft[i];
538                 txs->txs_mbuf = NULL;
539                 error = bus_dmamap_create(sc->sc_tdma_tag, 0, &txs->txs_dmamap);
540                 if (error) {
541                         device_printf(sc->sc_dev,
542                             "unable to create TX DMA map %d, error = %d\n",
543                             i, error);
544                 }
545                 STAILQ_INSERT_TAIL(&sc->sc_txfreeq, txs, txs_q);
546         }
547
548         /* Create the receive buffer DMA maps. */
549         for (i = 0; i < BM_MAX_RX_PACKETS; i++) {
550                 error = bus_dmamap_create(sc->sc_rdma_tag, 0,
551                     &sc->sc_rxsoft[i].rxs_dmamap);
552                 if (error) {
553                         device_printf(sc->sc_dev,
554                             "unable to create RX DMA map %d, error = %d\n",
555                             i, error);
556                 }
557                 sc->sc_rxsoft[i].rxs_mbuf = NULL;
558         }
559
560         /* alloc interrupt */
561
562         sc->sc_txdmairqid = BM_TXDMA_INTERRUPT;
563         sc->sc_txdmairq = bus_alloc_resource_any(dev, SYS_RES_IRQ,
564             &sc->sc_txdmairqid, RF_ACTIVE);
565
566         if (error) {
567                 device_printf(dev,"Could not allocate TX interrupt!\n");
568                 return (ENXIO);
569         }
570
571         bus_setup_intr(dev,sc->sc_txdmairq,
572             INTR_TYPE_MISC | INTR_MPSAFE | INTR_ENTROPY, NULL, bm_txintr, sc,
573             &sc->sc_txihtx);
574
575         sc->sc_rxdmairqid = BM_RXDMA_INTERRUPT;
576         sc->sc_rxdmairq = bus_alloc_resource_any(dev, SYS_RES_IRQ,
577             &sc->sc_rxdmairqid, RF_ACTIVE);
578
579         if (error) {
580                 device_printf(dev,"Could not allocate RX interrupt!\n");
581                 return (ENXIO);
582         }
583
584         bus_setup_intr(dev,sc->sc_rxdmairq,
585             INTR_TYPE_MISC | INTR_MPSAFE | INTR_ENTROPY, NULL, bm_rxintr, sc,
586             &sc->sc_rxih);
587
588         /*
589          * Get the ethernet address from OpenFirmware
590          */
591         eaddr = sc->sc_enaddr;
592         OF_getprop(node, "local-mac-address", eaddr, ETHER_ADDR_LEN);
593
594         /* reset the adapter  */
595         bm_chip_setup(sc);
596
597         /* setup MII */
598         error = mii_phy_probe(dev, &sc->sc_miibus, bm_ifmedia_upd,
599             bm_ifmedia_sts);
600         if (error != 0)
601                 device_printf(dev,"PHY probe failed: %d\n", error);
602
603         sc->sc_mii = device_get_softc(sc->sc_miibus);
604
605         if_initname(ifp, device_get_name(sc->sc_dev),
606             device_get_unit(sc->sc_dev));
607         ifp->if_mtu = ETHERMTU;
608         ifp->if_flags = IFF_BROADCAST | IFF_SIMPLEX | IFF_MULTICAST;
609         ifp->if_start = bm_start;
610         ifp->if_ioctl = bm_ioctl;
611         ifp->if_init = bm_init;
612         IFQ_SET_MAXLEN(&ifp->if_snd, BM_MAX_TX_PACKETS);
613         ifp->if_snd.ifq_drv_maxlen = BM_MAX_TX_PACKETS;
614         IFQ_SET_READY(&ifp->if_snd);
615
616         /* Attach the interface. */
617         ether_ifattach(ifp, sc->sc_enaddr);
618         ifp->if_hwassist = 0;
619
620         return (0);
621 }
622
623 static int
624 bm_detach(device_t dev)
625 {
626         struct bm_softc *sc = device_get_softc(dev);
627
628         BM_LOCK(sc);
629         bm_stop(sc);
630         BM_UNLOCK(sc);
631
632         callout_drain(&sc->sc_tick_ch);
633         ether_ifdetach(sc->sc_ifp);
634         bus_teardown_intr(dev, sc->sc_txdmairq, sc->sc_txihtx);
635         bus_teardown_intr(dev, sc->sc_rxdmairq, sc->sc_rxih);
636
637         dbdma_free_channel(sc->sc_txdma);
638         dbdma_free_channel(sc->sc_rxdma);
639
640         bus_release_resource(dev, SYS_RES_MEMORY, sc->sc_memrid, sc->sc_memr);
641         bus_release_resource(dev, SYS_RES_MEMORY, sc->sc_txdmarid,
642             sc->sc_txdmar);
643         bus_release_resource(dev, SYS_RES_MEMORY, sc->sc_rxdmarid,
644             sc->sc_rxdmar);
645
646         bus_release_resource(dev, SYS_RES_IRQ, sc->sc_txdmairqid,
647             sc->sc_txdmairq);
648         bus_release_resource(dev, SYS_RES_IRQ, sc->sc_rxdmairqid,
649             sc->sc_rxdmairq);
650
651         mtx_destroy(&sc->sc_mtx);
652         if_free(sc->sc_ifp);
653
654         return (0);
655 }
656
657 static int
658 bm_shutdown(device_t dev)
659 {
660         struct bm_softc *sc;
661         
662         sc = device_get_softc(dev);
663
664         BM_LOCK(sc);
665         bm_stop(sc);
666         BM_UNLOCK(sc);
667
668         return (0);
669 }
670
671 static void
672 bm_dummypacket(struct bm_softc *sc)
673 {
674         struct mbuf *m;
675         struct ifnet *ifp;
676
677         ifp = sc->sc_ifp;
678
679         MGETHDR(m, M_DONTWAIT, MT_DATA);
680
681         if (m == NULL)
682                 return;
683
684         bcopy(sc->sc_enaddr,
685             mtod(m, struct ether_header *)->ether_dhost, ETHER_ADDR_LEN);
686         bcopy(sc->sc_enaddr,
687             mtod(m, struct ether_header *)->ether_shost, ETHER_ADDR_LEN);
688         mtod(m, struct ether_header *)->ether_type = htons(3);
689         mtod(m, unsigned char *)[14] = 0;
690         mtod(m, unsigned char *)[15] = 0;
691         mtod(m, unsigned char *)[16] = 0xE3;
692         m->m_len = m->m_pkthdr.len = sizeof(struct ether_header) + 3;
693         IF_ENQUEUE(&ifp->if_snd, m);
694         bm_start_locked(ifp);
695 }
696
697 static void
698 bm_rxintr(void *xsc)
699 {
700         struct bm_softc *sc = xsc;
701         struct ifnet *ifp = sc->sc_ifp;
702         struct mbuf *m;
703         int i, prev_stop, new_stop;
704         uint16_t status;
705
706         BM_LOCK(sc);
707
708         status = dbdma_get_chan_status(sc->sc_rxdma);
709         if (status & DBDMA_STATUS_DEAD) {
710                 dbdma_reset(sc->sc_rxdma);
711                 BM_UNLOCK(sc);
712                 return;
713         }
714         if (!(status & DBDMA_STATUS_RUN)) {
715                 device_printf(sc->sc_dev,"Bad RX Interrupt!\n");
716                 BM_UNLOCK(sc);
717                 return;
718         }
719
720         prev_stop = sc->next_rxdma_slot - 1;
721         if (prev_stop < 0)
722                 prev_stop = sc->rxdma_loop_slot - 1;
723
724         if (prev_stop < 0) {
725                 BM_UNLOCK(sc);
726                 return;
727         }
728
729         new_stop = -1;
730         dbdma_sync_commands(sc->sc_rxdma, BUS_DMASYNC_POSTREAD);
731
732         for (i = sc->next_rxdma_slot; i < BM_MAX_RX_PACKETS; i++) {
733                 if (i == sc->rxdma_loop_slot)
734                         i = 0;
735
736                 if (i == prev_stop)
737                         break;
738
739                 status = dbdma_get_cmd_status(sc->sc_rxdma, i);
740
741                 if (status == 0)
742                         break;
743
744                 m = sc->sc_rxsoft[i].rxs_mbuf;
745
746                 if (bm_add_rxbuf(sc, i)) {
747                         ifp->if_ierrors++;
748                         m = NULL;
749                         continue;
750                 }
751
752                 if (m == NULL)
753                         continue;
754
755                 ifp->if_ipackets++;
756                 m->m_pkthdr.rcvif = ifp;
757                 m->m_len -= (dbdma_get_residuals(sc->sc_rxdma, i) + 2);
758                 m->m_pkthdr.len = m->m_len;
759
760                 /* Send up the stack */
761                 BM_UNLOCK(sc);
762                 (*ifp->if_input)(ifp, m);
763                 BM_LOCK(sc);
764
765                 /* Clear all fields on this command */
766                 bm_add_rxbuf_dma(sc, i);
767
768                 new_stop = i;
769         }
770
771         /* Change the last packet we processed to the ring buffer terminator,
772          * and restore a receive buffer to the old terminator */
773         if (new_stop >= 0) {
774                 dbdma_insert_stop(sc->sc_rxdma, new_stop);
775                 bm_add_rxbuf_dma(sc, prev_stop);
776                 if (i < sc->rxdma_loop_slot)
777                         sc->next_rxdma_slot = i;
778                 else
779                         sc->next_rxdma_slot = 0;
780         }
781         dbdma_sync_commands(sc->sc_rxdma, BUS_DMASYNC_PREWRITE);
782
783         dbdma_wake(sc->sc_rxdma);
784
785         BM_UNLOCK(sc);
786 }
787
788 static void
789 bm_txintr(void *xsc)
790 {
791         struct bm_softc *sc = xsc;
792         struct ifnet *ifp = sc->sc_ifp;
793         struct bm_txsoft *txs;
794         int progress = 0;
795
796         BM_LOCK(sc);
797
798         while ((txs = STAILQ_FIRST(&sc->sc_txdirtyq)) != NULL) {
799                 if (!dbdma_get_cmd_status(sc->sc_txdma, txs->txs_lastdesc))
800                         break;
801
802                 STAILQ_REMOVE_HEAD(&sc->sc_txdirtyq, txs_q);
803                 bus_dmamap_unload(sc->sc_tdma_tag, txs->txs_dmamap);
804
805                 if (txs->txs_mbuf != NULL) {
806                         m_freem(txs->txs_mbuf);
807                         txs->txs_mbuf = NULL;
808                 }
809
810                 /* Set the first used TXDMA slot to the location of the
811                  * STOP/NOP command associated with this packet. */
812
813                 sc->first_used_txdma_slot = txs->txs_stopdesc;
814
815                 STAILQ_INSERT_TAIL(&sc->sc_txfreeq, txs, txs_q);
816
817                 ifp->if_opackets++;
818                 progress = 1;
819         }
820
821         if (progress) {
822                 /*
823                  * We freed some descriptors, so reset IFF_DRV_OACTIVE
824                  * and restart.
825                  */
826                 ifp->if_drv_flags &= ~IFF_DRV_OACTIVE;
827                 sc->sc_wdog_timer = STAILQ_EMPTY(&sc->sc_txdirtyq) ? 0 : 5;
828
829                 if ((ifp->if_drv_flags & IFF_DRV_RUNNING) &&
830                     !IFQ_DRV_IS_EMPTY(&ifp->if_snd))
831                         bm_start_locked(ifp);
832         }
833
834         BM_UNLOCK(sc);
835 }
836
837 static void
838 bm_start(struct ifnet *ifp)
839 {
840         struct bm_softc *sc = ifp->if_softc;
841
842         BM_LOCK(sc);
843         bm_start_locked(ifp);
844         BM_UNLOCK(sc);
845 }
846
847 static void
848 bm_start_locked(struct ifnet *ifp)
849 {
850         struct bm_softc *sc = ifp->if_softc;
851         struct mbuf *mb_head;
852         int prev_stop;
853         int txqueued = 0;
854
855         /*
856          * We lay out our DBDMA program in the following manner:
857          *      OUTPUT_MORE
858          *      ...
859          *      OUTPUT_LAST (+ Interrupt)
860          *      STOP
861          *
862          * To extend the channel, we append a new program,
863          * then replace STOP with NOP and wake the channel.
864          * If we stalled on the STOP already, the program proceeds,
865          * if not it will sail through the NOP.
866          */
867
868         while (!IFQ_DRV_IS_EMPTY(&ifp->if_snd)) {
869                 IFQ_DRV_DEQUEUE(&ifp->if_snd, mb_head);
870
871                 if (mb_head == NULL)
872                         break;
873
874                 prev_stop = sc->next_txdma_slot - 1;
875
876                 if (bm_encap(sc, &mb_head)) {
877                         /* Put the packet back and stop */
878                         ifp->if_drv_flags |= IFF_DRV_OACTIVE;
879                         IFQ_DRV_PREPEND(&ifp->if_snd, mb_head);
880                         break;
881                 }
882
883                 dbdma_insert_nop(sc->sc_txdma, prev_stop);
884
885                 txqueued = 1;
886
887                 BPF_MTAP(ifp, mb_head);
888         }
889
890         dbdma_sync_commands(sc->sc_txdma, BUS_DMASYNC_PREWRITE);
891
892         if (txqueued) {
893                 dbdma_wake(sc->sc_txdma);
894                 sc->sc_wdog_timer = 5;
895         }
896 }
897
898 static int
899 bm_encap(struct bm_softc *sc, struct mbuf **m_head)
900 {
901         bus_dma_segment_t segs[BM_NTXSEGS];
902         struct bm_txsoft *txs;
903         struct mbuf *m;
904         int nsegs = BM_NTXSEGS;
905         int error = 0;
906         uint8_t branch_type;
907         int i;
908
909         /* Limit the command size to the number of free DBDMA slots */
910
911         if (sc->next_txdma_slot >= sc->first_used_txdma_slot)
912                 nsegs = BM_MAX_DMA_COMMANDS - 2 - sc->next_txdma_slot +
913                     sc->first_used_txdma_slot;  /* -2 for branch and indexing */
914         else
915                 nsegs = sc->first_used_txdma_slot - sc->next_txdma_slot;
916
917         /* Remove one slot for the STOP/NOP terminator */
918         nsegs--;
919
920         if (nsegs > BM_NTXSEGS)
921                 nsegs = BM_NTXSEGS;
922
923         /* Get a work queue entry. */
924         if ((txs = STAILQ_FIRST(&sc->sc_txfreeq)) == NULL) {
925                 /* Ran out of descriptors. */
926                 return (ENOBUFS);
927         }
928
929         error = bus_dmamap_load_mbuf_sg(sc->sc_tdma_tag, txs->txs_dmamap,
930             *m_head, segs, &nsegs, BUS_DMA_NOWAIT);
931
932         if (error == EFBIG) {
933                 m = m_collapse(*m_head, M_DONTWAIT, nsegs);
934                 if (m == NULL) {
935                         m_freem(*m_head);
936                         *m_head = NULL;
937                         return (ENOBUFS);
938                 }
939                 *m_head = m;
940
941                 error = bus_dmamap_load_mbuf_sg(sc->sc_tdma_tag,
942                     txs->txs_dmamap, *m_head, segs, &nsegs, BUS_DMA_NOWAIT);
943                 if (error != 0) {
944                         m_freem(*m_head);
945                         *m_head = NULL;
946                         return (error);
947                 }
948         } else if (error != 0)
949                 return (error);
950
951         if (nsegs == 0) {
952                 m_freem(*m_head);
953                 *m_head = NULL;
954                 return (EIO);
955         }
956
957         txs->txs_ndescs = nsegs;
958         txs->txs_firstdesc = sc->next_txdma_slot;
959
960         for (i = 0; i < nsegs; i++) {
961                 /* Loop back to the beginning if this is our last slot */
962                 if (sc->next_txdma_slot == (BM_MAX_DMA_COMMANDS - 1))
963                         branch_type = DBDMA_ALWAYS;
964                 else
965                         branch_type = DBDMA_NEVER;
966
967                 if (i+1 == nsegs)
968                         txs->txs_lastdesc = sc->next_txdma_slot;
969
970                 dbdma_insert_command(sc->sc_txdma, sc->next_txdma_slot++,
971                     (i + 1 < nsegs) ? DBDMA_OUTPUT_MORE : DBDMA_OUTPUT_LAST,
972                     0, segs[i].ds_addr, segs[i].ds_len,
973                     (i + 1 < nsegs) ? DBDMA_NEVER : DBDMA_ALWAYS,
974                     branch_type, DBDMA_NEVER, 0);
975
976                 if (branch_type == DBDMA_ALWAYS)
977                         sc->next_txdma_slot = 0;
978         }
979
980         /* We have a corner case where the STOP command is the last slot,
981          * but you can't branch in STOP commands. So add a NOP branch here
982          * and the STOP in slot 0. */
983
984         if (sc->next_txdma_slot == (BM_MAX_DMA_COMMANDS - 1)) {
985                 dbdma_insert_branch(sc->sc_txdma, sc->next_txdma_slot, 0);
986                 sc->next_txdma_slot = 0;
987         }
988
989         txs->txs_stopdesc = sc->next_txdma_slot;
990         dbdma_insert_stop(sc->sc_txdma, sc->next_txdma_slot++);
991
992         STAILQ_REMOVE_HEAD(&sc->sc_txfreeq, txs_q);
993         STAILQ_INSERT_TAIL(&sc->sc_txdirtyq, txs, txs_q);
994         txs->txs_mbuf = *m_head;
995
996         return (0);
997 }
998
999 static int
1000 bm_ioctl(struct ifnet *ifp, u_long cmd, caddr_t data)
1001 {
1002         struct bm_softc *sc = ifp->if_softc;
1003         struct ifreq *ifr = (struct ifreq *)data;
1004         int error;
1005
1006         error = 0;
1007
1008         switch(cmd) {
1009         case SIOCSIFFLAGS:
1010                 BM_LOCK(sc);
1011                 if ((ifp->if_flags & IFF_UP) != 0) {
1012                         if ((ifp->if_drv_flags & IFF_DRV_RUNNING) != 0 &&
1013                            ((ifp->if_flags ^ sc->sc_ifpflags) &
1014                             (IFF_ALLMULTI | IFF_PROMISC)) != 0)
1015                                 bm_setladrf(sc);
1016                         else
1017                                 bm_init_locked(sc);
1018                 } else if ((ifp->if_drv_flags & IFF_DRV_RUNNING) != 0)
1019                         bm_stop(sc);
1020                 sc->sc_ifpflags = ifp->if_flags;
1021                 BM_UNLOCK(sc);
1022                 break;
1023         case SIOCADDMULTI:
1024         case SIOCDELMULTI:
1025                 BM_LOCK(sc);
1026                 bm_setladrf(sc);
1027                 BM_UNLOCK(sc);
1028         case SIOCGIFMEDIA:
1029         case SIOCSIFMEDIA:
1030                 error = ifmedia_ioctl(ifp, ifr, &sc->sc_mii->mii_media, cmd);
1031                 break;
1032         default:
1033                 error = ether_ioctl(ifp, cmd, data);
1034                 break;
1035         }
1036
1037         return (error);
1038 }
1039
1040 static void
1041 bm_setladrf(struct bm_softc *sc)
1042 {
1043         struct ifnet *ifp = sc->sc_ifp;
1044         struct ifmultiaddr *inm;
1045         uint16_t hash[4];
1046         uint16_t reg;
1047         uint32_t crc;
1048
1049         reg = BM_CRC_ENABLE | BM_REJECT_OWN_PKTS;
1050
1051         /* Turn off RX MAC while we fiddle its settings */
1052         CSR_WRITE_2(sc, BM_RX_CONFIG, reg);
1053         while (CSR_READ_2(sc, BM_RX_CONFIG) & BM_ENABLE)
1054                 DELAY(10);
1055
1056         if ((ifp->if_flags & IFF_PROMISC) != 0) {
1057                 reg |= BM_PROMISC;
1058
1059                 CSR_WRITE_2(sc, BM_RX_CONFIG, reg);
1060
1061                 DELAY(15);
1062
1063                 reg = CSR_READ_2(sc, BM_RX_CONFIG);
1064                 reg |= BM_ENABLE;
1065                 CSR_WRITE_2(sc, BM_RX_CONFIG, reg);
1066                 return;
1067         }
1068
1069         if ((ifp->if_flags & IFF_ALLMULTI) != 0) {
1070                 hash[3] = hash[2] = hash[1] = hash[0] = 0xffff;
1071         } else {
1072                 /* Clear the hash table. */
1073                 memset(hash, 0, sizeof(hash));
1074
1075                 if_maddr_rlock(ifp);
1076                 TAILQ_FOREACH(inm, &ifp->if_multiaddrs, ifma_link) {
1077                         if (inm->ifma_addr->sa_family != AF_LINK)
1078                                 continue;
1079                         crc = ether_crc32_le(LLADDR((struct sockaddr_dl *)
1080                             inm->ifma_addr), ETHER_ADDR_LEN);
1081
1082                         /* We just want the 6 most significant bits */
1083                         crc >>= 26;
1084
1085                         /* Set the corresponding bit in the filter. */
1086                         hash[crc >> 4] |= 1 << (crc & 0xf);
1087                 }
1088                 if_maddr_runlock(ifp);
1089         }
1090
1091         /* Write out new hash table */
1092         CSR_WRITE_2(sc, BM_HASHTAB0, hash[0]);
1093         CSR_WRITE_2(sc, BM_HASHTAB1, hash[1]);
1094         CSR_WRITE_2(sc, BM_HASHTAB2, hash[2]);
1095         CSR_WRITE_2(sc, BM_HASHTAB3, hash[3]);
1096
1097         /* And turn the RX MAC back on, this time with the hash bit set */
1098         reg |= BM_HASH_FILTER_ENABLE;
1099         CSR_WRITE_2(sc, BM_RX_CONFIG, reg);
1100
1101         while (!(CSR_READ_2(sc, BM_RX_CONFIG) & BM_HASH_FILTER_ENABLE))
1102                 DELAY(10);
1103
1104         reg = CSR_READ_2(sc, BM_RX_CONFIG);
1105         reg |= BM_ENABLE;
1106         CSR_WRITE_2(sc, BM_RX_CONFIG, reg);
1107 }
1108
1109 static void
1110 bm_init(void *xsc)
1111 {
1112         struct bm_softc *sc = xsc;
1113
1114         BM_LOCK(sc);
1115         bm_init_locked(sc);
1116         BM_UNLOCK(sc);
1117 }
1118
1119 static void
1120 bm_chip_setup(struct bm_softc *sc)
1121 {
1122         uint16_t reg;
1123         uint16_t *eaddr_sect;
1124         char path[128];
1125         ihandle_t bmac_ih;
1126
1127         eaddr_sect = (uint16_t *)(sc->sc_enaddr);
1128
1129         /* 
1130          * Enable BMAC cell by opening and closing its OF node. This enables 
1131          * the cell in macio as a side effect. We should probably directly 
1132          * twiddle the FCR bits, but we lack a good interface for this at the
1133          * present time. 
1134          */
1135
1136         OF_package_to_path(ofw_bus_get_node(sc->sc_dev), path, sizeof(path));
1137         bmac_ih = OF_open(path);
1138         if (bmac_ih == -1) {
1139                 device_printf(sc->sc_dev,
1140                     "Enabling BMAC cell failed! Hoping it's already active.\n");
1141         } else {
1142                 OF_close(bmac_ih);
1143         }
1144
1145         /* Reset chip */
1146         CSR_WRITE_2(sc, BM_RX_RESET, 0x0000);
1147         CSR_WRITE_2(sc, BM_TX_RESET, 0x0001);
1148         do {
1149                 reg = CSR_READ_2(sc, BM_TX_RESET);
1150         } while (reg & 0x0001);
1151
1152         /* Some random junk. OS X uses the system time. We use
1153          * the low 16 bits of the MAC address. */
1154         CSR_WRITE_2(sc, BM_TX_RANDSEED, eaddr_sect[2]);
1155
1156         /* Enable transmit */
1157         reg = CSR_READ_2(sc, BM_TX_IFC);
1158         reg |= BM_ENABLE;
1159         CSR_WRITE_2(sc, BM_TX_IFC, reg);
1160
1161         CSR_READ_2(sc, BM_TX_PEAKCNT);
1162 }
1163
1164 static void
1165 bm_stop(struct bm_softc *sc)
1166 {
1167         struct bm_txsoft *txs;
1168         uint16_t reg;
1169
1170         /* Disable TX and RX MACs */
1171         reg = CSR_READ_2(sc, BM_TX_CONFIG);
1172         reg &= ~BM_ENABLE;
1173         CSR_WRITE_2(sc, BM_TX_CONFIG, reg);
1174
1175         reg = CSR_READ_2(sc, BM_RX_CONFIG);
1176         reg &= ~BM_ENABLE;
1177         CSR_WRITE_2(sc, BM_RX_CONFIG, reg);
1178
1179         DELAY(100);
1180
1181         /* Stop DMA engine */
1182         dbdma_stop(sc->sc_rxdma);
1183         dbdma_stop(sc->sc_txdma);
1184         sc->next_rxdma_slot = 0;
1185         sc->rxdma_loop_slot = 0;
1186
1187         /* Disable interrupts */
1188         bm_disable_interrupts(sc);
1189
1190         /* Don't worry about pending transmits anymore */
1191         while ((txs = STAILQ_FIRST(&sc->sc_txdirtyq)) != NULL) {
1192                 STAILQ_REMOVE_HEAD(&sc->sc_txdirtyq, txs_q);
1193                 if (txs->txs_ndescs != 0) {
1194                         bus_dmamap_sync(sc->sc_tdma_tag, txs->txs_dmamap,
1195                             BUS_DMASYNC_POSTWRITE);
1196                         bus_dmamap_unload(sc->sc_tdma_tag, txs->txs_dmamap);
1197                         if (txs->txs_mbuf != NULL) {
1198                                 m_freem(txs->txs_mbuf);
1199                                 txs->txs_mbuf = NULL;
1200                         }
1201                 }
1202                 STAILQ_INSERT_TAIL(&sc->sc_txfreeq, txs, txs_q);
1203         }
1204
1205         /* And we're down */
1206         sc->sc_ifp->if_drv_flags &= ~(IFF_DRV_RUNNING | IFF_DRV_OACTIVE);
1207         sc->sc_wdog_timer = 0;
1208         callout_stop(&sc->sc_tick_ch);
1209 }
1210
1211 static void
1212 bm_init_locked(struct bm_softc *sc)
1213 {
1214         uint16_t reg;
1215         uint16_t *eaddr_sect;
1216         struct bm_rxsoft *rxs;
1217         int i;
1218
1219         eaddr_sect = (uint16_t *)(sc->sc_enaddr);
1220
1221         /* Zero RX slot info and stop DMA */
1222         dbdma_stop(sc->sc_rxdma);
1223         dbdma_stop(sc->sc_txdma);
1224         sc->next_rxdma_slot = 0;
1225         sc->rxdma_loop_slot = 0;
1226
1227         /* Initialize TX/RX DBDMA programs */
1228         dbdma_insert_stop(sc->sc_rxdma, 0);
1229         dbdma_insert_stop(sc->sc_txdma, 0);
1230         dbdma_set_current_cmd(sc->sc_rxdma, 0);
1231         dbdma_set_current_cmd(sc->sc_txdma, 0);
1232
1233         sc->next_rxdma_slot = 0;
1234         sc->next_txdma_slot = 1;
1235         sc->first_used_txdma_slot = 0;
1236
1237         for (i = 0; i < BM_MAX_RX_PACKETS; i++) {
1238                 rxs = &sc->sc_rxsoft[i];
1239                 rxs->dbdma_slot = i;
1240
1241                 if (rxs->rxs_mbuf == NULL) {
1242                         bm_add_rxbuf(sc, i);
1243
1244                         if (rxs->rxs_mbuf == NULL) {
1245                                 /* If we can't add anymore, mark the problem */
1246                                 rxs->dbdma_slot = -1;
1247                                 break;
1248                         }
1249                 }
1250
1251                 if (i > 0)
1252                         bm_add_rxbuf_dma(sc, i);
1253         }
1254
1255         /*
1256          * Now terminate the RX ring buffer, and follow with the loop to
1257          * the beginning.
1258          */
1259         dbdma_insert_stop(sc->sc_rxdma, i - 1);
1260         dbdma_insert_branch(sc->sc_rxdma, i, 0);
1261         sc->rxdma_loop_slot = i;
1262
1263         /* Now add in the first element of the RX DMA chain */
1264         bm_add_rxbuf_dma(sc, 0);
1265
1266         dbdma_sync_commands(sc->sc_rxdma, BUS_DMASYNC_PREWRITE);
1267         dbdma_sync_commands(sc->sc_txdma, BUS_DMASYNC_PREWRITE);
1268
1269         /* Zero collision counters */
1270         CSR_WRITE_2(sc, BM_TX_NCCNT, 0);
1271         CSR_WRITE_2(sc, BM_TX_FCCNT, 0);
1272         CSR_WRITE_2(sc, BM_TX_EXCNT, 0);
1273         CSR_WRITE_2(sc, BM_TX_LTCNT, 0);
1274
1275         /* Zero receive counters */
1276         CSR_WRITE_2(sc, BM_RX_FRCNT, 0);
1277         CSR_WRITE_2(sc, BM_RX_LECNT, 0);
1278         CSR_WRITE_2(sc, BM_RX_AECNT, 0);
1279         CSR_WRITE_2(sc, BM_RX_FECNT, 0);
1280         CSR_WRITE_2(sc, BM_RXCV, 0);
1281
1282         /* Prime transmit */
1283         CSR_WRITE_2(sc, BM_TX_THRESH, 0xff);
1284
1285         CSR_WRITE_2(sc, BM_TXFIFO_CSR, 0);
1286         CSR_WRITE_2(sc, BM_TXFIFO_CSR, 0x0001);
1287
1288         /* Prime receive */
1289         CSR_WRITE_2(sc, BM_RXFIFO_CSR, 0);
1290         CSR_WRITE_2(sc, BM_RXFIFO_CSR, 0x0001);
1291
1292         /* Clear status reg */
1293         CSR_READ_2(sc, BM_STATUS);
1294
1295         /* Zero hash filters */
1296         CSR_WRITE_2(sc, BM_HASHTAB0, 0);
1297         CSR_WRITE_2(sc, BM_HASHTAB1, 0);
1298         CSR_WRITE_2(sc, BM_HASHTAB2, 0);
1299         CSR_WRITE_2(sc, BM_HASHTAB3, 0);
1300
1301         /* Write MAC address to chip */
1302         CSR_WRITE_2(sc, BM_MACADDR0, eaddr_sect[0]);
1303         CSR_WRITE_2(sc, BM_MACADDR1, eaddr_sect[1]);
1304         CSR_WRITE_2(sc, BM_MACADDR2, eaddr_sect[2]);
1305
1306         /* Final receive engine setup */
1307         reg = BM_CRC_ENABLE | BM_REJECT_OWN_PKTS | BM_HASH_FILTER_ENABLE;
1308         CSR_WRITE_2(sc, BM_RX_CONFIG, reg);
1309
1310         /* Now turn it all on! */
1311         dbdma_reset(sc->sc_rxdma);
1312         dbdma_reset(sc->sc_txdma);
1313
1314         /* Enable RX and TX MACs. Setting the address filter has
1315          * the side effect of enabling the RX MAC. */
1316         bm_setladrf(sc);
1317
1318         reg = CSR_READ_2(sc, BM_TX_CONFIG);
1319         reg |= BM_ENABLE;
1320         CSR_WRITE_2(sc, BM_TX_CONFIG, reg);
1321
1322         /*
1323          * Enable interrupts, unwedge the controller with a dummy packet,
1324          * and nudge the DMA queue.
1325          */
1326         bm_enable_interrupts(sc);
1327         bm_dummypacket(sc);
1328         dbdma_wake(sc->sc_rxdma); /* Nudge RXDMA */
1329
1330         sc->sc_ifp->if_drv_flags |= IFF_DRV_RUNNING;
1331         sc->sc_ifp->if_drv_flags &= ~IFF_DRV_OACTIVE;
1332         sc->sc_ifpflags = sc->sc_ifp->if_flags;
1333
1334         /* Resync PHY and MAC states */
1335         sc->sc_mii = device_get_softc(sc->sc_miibus);
1336         sc->sc_duplex = ~IFM_FDX;
1337         mii_mediachg(sc->sc_mii);
1338
1339         /* Start the one second timer. */
1340         sc->sc_wdog_timer = 0;
1341         callout_reset(&sc->sc_tick_ch, hz, bm_tick, sc);
1342 }
1343
1344 static void
1345 bm_tick(void *arg)
1346 {
1347         struct bm_softc *sc = arg;
1348
1349         /* Read error counters */
1350         sc->sc_ifp->if_collisions += CSR_READ_2(sc, BM_TX_NCCNT) +
1351             CSR_READ_2(sc, BM_TX_FCCNT) + CSR_READ_2(sc, BM_TX_EXCNT) +
1352             CSR_READ_2(sc, BM_TX_LTCNT);
1353
1354         sc->sc_ifp->if_ierrors += CSR_READ_2(sc, BM_RX_LECNT) +
1355             CSR_READ_2(sc, BM_RX_AECNT) + CSR_READ_2(sc, BM_RX_FECNT);
1356
1357         /* Zero collision counters */
1358         CSR_WRITE_2(sc, BM_TX_NCCNT, 0);
1359         CSR_WRITE_2(sc, BM_TX_FCCNT, 0);
1360         CSR_WRITE_2(sc, BM_TX_EXCNT, 0);
1361         CSR_WRITE_2(sc, BM_TX_LTCNT, 0);
1362
1363         /* Zero receive counters */
1364         CSR_WRITE_2(sc, BM_RX_FRCNT, 0);
1365         CSR_WRITE_2(sc, BM_RX_LECNT, 0);
1366         CSR_WRITE_2(sc, BM_RX_AECNT, 0);
1367         CSR_WRITE_2(sc, BM_RX_FECNT, 0);
1368         CSR_WRITE_2(sc, BM_RXCV, 0);
1369
1370         /* Check for link changes and run watchdog */
1371         mii_tick(sc->sc_mii);
1372         bm_miibus_statchg(sc->sc_dev);
1373
1374         if (sc->sc_wdog_timer == 0 || --sc->sc_wdog_timer != 0) {
1375                 callout_reset(&sc->sc_tick_ch, hz, bm_tick, sc);
1376                 return;
1377         }
1378
1379         /* Problems */
1380         device_printf(sc->sc_dev, "device timeout\n");
1381
1382         bm_init_locked(sc);
1383 }
1384
1385 static int
1386 bm_add_rxbuf(struct bm_softc *sc, int idx)
1387 {
1388         struct bm_rxsoft *rxs = &sc->sc_rxsoft[idx];
1389         struct mbuf *m;
1390         bus_dma_segment_t segs[1];
1391         int error, nsegs;
1392
1393         m = m_getcl(M_DONTWAIT, MT_DATA, M_PKTHDR);
1394         if (m == NULL)
1395                 return (ENOBUFS);
1396         m->m_len = m->m_pkthdr.len = m->m_ext.ext_size;
1397
1398         if (rxs->rxs_mbuf != NULL) {
1399                 bus_dmamap_sync(sc->sc_rdma_tag, rxs->rxs_dmamap,
1400                     BUS_DMASYNC_POSTREAD);
1401                 bus_dmamap_unload(sc->sc_rdma_tag, rxs->rxs_dmamap);
1402         }
1403
1404         error = bus_dmamap_load_mbuf_sg(sc->sc_rdma_tag, rxs->rxs_dmamap, m,
1405             segs, &nsegs, BUS_DMA_NOWAIT);
1406         if (error != 0) {
1407                 device_printf(sc->sc_dev,
1408                     "cannot load RS DMA map %d, error = %d\n", idx, error);
1409                 m_freem(m);
1410                 return (error);
1411         }
1412         /* If nsegs is wrong then the stack is corrupt. */
1413         KASSERT(nsegs == 1,
1414             ("%s: too many DMA segments (%d)", __func__, nsegs));
1415         rxs->rxs_mbuf = m;
1416         rxs->segment = segs[0];
1417
1418         bus_dmamap_sync(sc->sc_rdma_tag, rxs->rxs_dmamap, BUS_DMASYNC_PREREAD);
1419
1420         return (0);
1421 }
1422
1423 static int
1424 bm_add_rxbuf_dma(struct bm_softc *sc, int idx)
1425 {
1426         struct bm_rxsoft *rxs = &sc->sc_rxsoft[idx];
1427
1428         dbdma_insert_command(sc->sc_rxdma, idx, DBDMA_INPUT_LAST, 0,
1429             rxs->segment.ds_addr, rxs->segment.ds_len, DBDMA_ALWAYS,
1430             DBDMA_NEVER, DBDMA_NEVER, 0);
1431
1432         return (0);
1433 }
1434
1435 static void
1436 bm_enable_interrupts(struct bm_softc *sc)
1437 {
1438         CSR_WRITE_2(sc, BM_INTR_DISABLE,
1439             (sc->sc_streaming) ? BM_INTR_NONE : BM_INTR_NORMAL);
1440 }
1441
1442 static void
1443 bm_disable_interrupts(struct bm_softc *sc)
1444 {
1445         CSR_WRITE_2(sc, BM_INTR_DISABLE, BM_INTR_NONE);
1446 }