]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/geom/geom_dev.c
Merge branch 'releng/11.2' into releng-CDN/11.2
[FreeBSD/FreeBSD.git] / sys / geom / geom_dev.c
1 /*-
2  * Copyright (c) 2002 Poul-Henning Kamp
3  * Copyright (c) 2002 Networks Associates Technology, Inc.
4  * All rights reserved.
5  *
6  * This software was developed for the FreeBSD Project by Poul-Henning Kamp
7  * and NAI Labs, the Security Research Division of Network Associates, Inc.
8  * under DARPA/SPAWAR contract N66001-01-C-8035 ("CBOSS"), as part of the
9  * DARPA CHATS research program.
10  *
11  * Redistribution and use in source and binary forms, with or without
12  * modification, are permitted provided that the following conditions
13  * are met:
14  * 1. Redistributions of source code must retain the above copyright
15  *    notice, this list of conditions and the following disclaimer.
16  * 2. Redistributions in binary form must reproduce the above copyright
17  *    notice, this list of conditions and the following disclaimer in the
18  *    documentation and/or other materials provided with the distribution.
19  * 3. The names of the authors may not be used to endorse or promote
20  *    products derived from this software without specific prior written
21  *    permission.
22  *
23  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
24  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
25  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
26  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
27  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
28  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
29  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
30  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
31  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
32  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
33  * SUCH DAMAGE.
34  */
35
36 #include <sys/cdefs.h>
37 __FBSDID("$FreeBSD$");
38
39 #include <sys/param.h>
40 #include <sys/systm.h>
41 #include <sys/malloc.h>
42 #include <sys/kernel.h>
43 #include <sys/conf.h>
44 #include <sys/ctype.h>
45 #include <sys/bio.h>
46 #include <sys/bus.h>
47 #include <sys/lock.h>
48 #include <sys/mutex.h>
49 #include <sys/proc.h>
50 #include <sys/errno.h>
51 #include <sys/time.h>
52 #include <sys/disk.h>
53 #include <sys/fcntl.h>
54 #include <sys/limits.h>
55 #include <sys/sysctl.h>
56 #include <geom/geom.h>
57 #include <geom/geom_int.h>
58 #include <machine/stdarg.h>
59
60 struct g_dev_softc {
61         struct mtx       sc_mtx;
62         struct cdev     *sc_dev;
63         struct cdev     *sc_alias;
64         int              sc_open;
65         int              sc_active;
66 };
67
68 static d_open_t         g_dev_open;
69 static d_close_t        g_dev_close;
70 static d_strategy_t     g_dev_strategy;
71 static d_ioctl_t        g_dev_ioctl;
72
73 static struct cdevsw g_dev_cdevsw = {
74         .d_version =    D_VERSION,
75         .d_open =       g_dev_open,
76         .d_close =      g_dev_close,
77         .d_read =       physread,
78         .d_write =      physwrite,
79         .d_ioctl =      g_dev_ioctl,
80         .d_strategy =   g_dev_strategy,
81         .d_name =       "g_dev",
82         .d_flags =      D_DISK | D_TRACKCLOSE,
83 };
84
85 static g_init_t g_dev_init;
86 static g_fini_t g_dev_fini;
87 static g_taste_t g_dev_taste;
88 static g_orphan_t g_dev_orphan;
89 static g_attrchanged_t g_dev_attrchanged;
90
91 static struct g_class g_dev_class       = {
92         .name = "DEV",
93         .version = G_VERSION,
94         .init = g_dev_init,
95         .fini = g_dev_fini,
96         .taste = g_dev_taste,
97         .orphan = g_dev_orphan,
98         .attrchanged = g_dev_attrchanged
99 };
100
101 /*
102  * We target 262144 (8 x 32768) sectors by default as this significantly
103  * increases the throughput on commonly used SSD's with a marginal
104  * increase in non-interruptible request latency.
105  */
106 static uint64_t g_dev_del_max_sectors = 262144;
107 SYSCTL_DECL(_kern_geom);
108 SYSCTL_NODE(_kern_geom, OID_AUTO, dev, CTLFLAG_RW, 0, "GEOM_DEV stuff");
109 SYSCTL_QUAD(_kern_geom_dev, OID_AUTO, delete_max_sectors, CTLFLAG_RW,
110     &g_dev_del_max_sectors, 0, "Maximum number of sectors in a single "
111     "delete request sent to the provider. Larger requests are chunked "
112     "so they can be interrupted. (0 = disable chunking)");
113
114 static char *dumpdev = NULL;
115 static void
116 g_dev_init(struct g_class *mp)
117 {
118
119         dumpdev = kern_getenv("dumpdev");
120 }
121
122 static void
123 g_dev_fini(struct g_class *mp)
124 {
125
126         freeenv(dumpdev);
127         dumpdev = NULL;
128 }
129
130 static int
131 g_dev_setdumpdev(struct cdev *dev, struct thread *td)
132 {
133         struct g_kerneldump kd;
134         struct g_consumer *cp;
135         int error, len;
136
137         if (dev == NULL)
138                 return (set_dumper(NULL, NULL, td));
139
140         cp = dev->si_drv2;
141         len = sizeof(kd);
142         kd.offset = 0;
143         kd.length = OFF_MAX;
144         error = g_io_getattr("GEOM::kerneldump", cp, &len, &kd);
145         if (error == 0) {
146                 error = set_dumper(&kd.di, devtoname(dev), td);
147                 if (error == 0)
148                         dev->si_flags |= SI_DUMPDEV;
149         }
150         return (error);
151 }
152
153 static int
154 init_dumpdev(struct cdev *dev)
155 {
156         struct g_consumer *cp;
157         const char *devprefix = "/dev/", *devname;
158         int error;
159         size_t len;
160
161         if (dumpdev == NULL)
162                 return (0);
163
164         len = strlen(devprefix);
165         devname = devtoname(dev);
166         if (strcmp(devname, dumpdev) != 0 &&
167            (strncmp(dumpdev, devprefix, len) != 0 ||
168             strcmp(devname, dumpdev + len) != 0))
169                 return (0);
170
171         cp = (struct g_consumer *)dev->si_drv2;
172         error = g_access(cp, 1, 0, 0);
173         if (error != 0)
174                 return (error);
175
176         error = g_dev_setdumpdev(dev, curthread);
177         if (error == 0) {
178                 freeenv(dumpdev);
179                 dumpdev = NULL;
180         }
181
182         (void)g_access(cp, -1, 0, 0);
183
184         return (error);
185 }
186
187 static void
188 g_dev_destroy(void *arg, int flags __unused)
189 {
190         struct g_consumer *cp;
191         struct g_geom *gp;
192         struct g_dev_softc *sc;
193         char buf[SPECNAMELEN + 6];
194
195         g_topology_assert();
196         cp = arg;
197         gp = cp->geom;
198         sc = cp->private;
199         g_trace(G_T_TOPOLOGY, "g_dev_destroy(%p(%s))", cp, gp->name);
200         snprintf(buf, sizeof(buf), "cdev=%s", gp->name);
201         devctl_notify_f("GEOM", "DEV", "DESTROY", buf, M_WAITOK);
202         if (cp->acr > 0 || cp->acw > 0 || cp->ace > 0)
203                 g_access(cp, -cp->acr, -cp->acw, -cp->ace);
204         g_detach(cp);
205         g_destroy_consumer(cp);
206         g_destroy_geom(gp);
207         mtx_destroy(&sc->sc_mtx);
208         g_free(sc);
209 }
210
211 void
212 g_dev_print(void)
213 {
214         struct g_geom *gp;
215         char const *p = "";
216
217         LIST_FOREACH(gp, &g_dev_class.geom, geom) {
218                 printf("%s%s", p, gp->name);
219                 p = " ";
220         }
221         printf("\n");
222 }
223
224 static void
225 g_dev_set_physpath(struct g_consumer *cp)
226 {
227         struct g_dev_softc *sc;
228         char *physpath;
229         int error, physpath_len;
230
231         if (g_access(cp, 1, 0, 0) != 0)
232                 return;
233
234         sc = cp->private;
235         physpath_len = MAXPATHLEN;
236         physpath = g_malloc(physpath_len, M_WAITOK|M_ZERO);
237         error = g_io_getattr("GEOM::physpath", cp, &physpath_len, physpath);
238         g_access(cp, -1, 0, 0);
239         if (error == 0 && strlen(physpath) != 0) {
240                 struct cdev *dev, *old_alias_dev;
241                 struct cdev **alias_devp;
242
243                 dev = sc->sc_dev;
244                 old_alias_dev = sc->sc_alias;
245                 alias_devp = (struct cdev **)&sc->sc_alias;
246                 make_dev_physpath_alias(MAKEDEV_WAITOK, alias_devp, dev,
247                     old_alias_dev, physpath);
248         } else if (sc->sc_alias) {
249                 destroy_dev((struct cdev *)sc->sc_alias);
250                 sc->sc_alias = NULL;
251         }
252         g_free(physpath);
253 }
254
255 static void
256 g_dev_set_media(struct g_consumer *cp)
257 {
258         struct g_dev_softc *sc;
259         struct cdev *dev;
260         char buf[SPECNAMELEN + 6];
261
262         sc = cp->private;
263         dev = sc->sc_dev;
264         snprintf(buf, sizeof(buf), "cdev=%s", dev->si_name);
265         devctl_notify_f("DEVFS", "CDEV", "MEDIACHANGE", buf, M_WAITOK);
266         devctl_notify_f("GEOM", "DEV", "MEDIACHANGE", buf, M_WAITOK);
267         dev = sc->sc_alias;
268         if (dev != NULL) {
269                 snprintf(buf, sizeof(buf), "cdev=%s", dev->si_name);
270                 devctl_notify_f("DEVFS", "CDEV", "MEDIACHANGE", buf, M_WAITOK);
271                 devctl_notify_f("GEOM", "DEV", "MEDIACHANGE", buf, M_WAITOK);
272         }
273 }
274
275 static void
276 g_dev_attrchanged(struct g_consumer *cp, const char *attr)
277 {
278
279         if (strcmp(attr, "GEOM::media") == 0) {
280                 g_dev_set_media(cp);
281                 return;
282         }
283
284         if (strcmp(attr, "GEOM::physpath") == 0) {
285                 g_dev_set_physpath(cp);
286                 return;
287         }
288 }
289
290 struct g_provider *
291 g_dev_getprovider(struct cdev *dev)
292 {
293         struct g_consumer *cp;
294
295         g_topology_assert();
296         if (dev == NULL)
297                 return (NULL);
298         if (dev->si_devsw != &g_dev_cdevsw)
299                 return (NULL);
300         cp = dev->si_drv2;
301         return (cp->provider);
302 }
303
304 static struct g_geom *
305 g_dev_taste(struct g_class *mp, struct g_provider *pp, int insist __unused)
306 {
307         struct g_geom *gp;
308         struct g_consumer *cp;
309         struct g_dev_softc *sc;
310         int error;
311         struct cdev *dev;
312         char buf[SPECNAMELEN + 6];
313
314         g_trace(G_T_TOPOLOGY, "dev_taste(%s,%s)", mp->name, pp->name);
315         g_topology_assert();
316         gp = g_new_geomf(mp, "%s", pp->name);
317         sc = g_malloc(sizeof(*sc), M_WAITOK | M_ZERO);
318         mtx_init(&sc->sc_mtx, "g_dev", NULL, MTX_DEF);
319         cp = g_new_consumer(gp);
320         cp->private = sc;
321         cp->flags |= G_CF_DIRECT_SEND | G_CF_DIRECT_RECEIVE;
322         error = g_attach(cp, pp);
323         KASSERT(error == 0,
324             ("g_dev_taste(%s) failed to g_attach, err=%d", pp->name, error));
325         error = make_dev_p(MAKEDEV_CHECKNAME | MAKEDEV_WAITOK, &dev,
326             &g_dev_cdevsw, NULL, UID_ROOT, GID_OPERATOR, 0640, "%s", gp->name);
327         if (error != 0) {
328                 printf("%s: make_dev_p() failed (gp->name=%s, error=%d)\n",
329                     __func__, gp->name, error);
330                 g_detach(cp);
331                 g_destroy_consumer(cp);
332                 g_destroy_geom(gp);
333                 mtx_destroy(&sc->sc_mtx);
334                 g_free(sc);
335                 return (NULL);
336         }
337         dev->si_flags |= SI_UNMAPPED;
338         sc->sc_dev = dev;
339
340         dev->si_iosize_max = MAXPHYS;
341         dev->si_drv2 = cp;
342         error = init_dumpdev(dev);
343         if (error != 0)
344                 printf("%s: init_dumpdev() failed (gp->name=%s, error=%d)\n",
345                     __func__, gp->name, error);
346
347         g_dev_attrchanged(cp, "GEOM::physpath");
348         snprintf(buf, sizeof(buf), "cdev=%s", gp->name);
349         devctl_notify_f("GEOM", "DEV", "CREATE", buf, M_WAITOK);
350
351         return (gp);
352 }
353
354 static int
355 g_dev_open(struct cdev *dev, int flags, int fmt, struct thread *td)
356 {
357         struct g_consumer *cp;
358         struct g_dev_softc *sc;
359         int error, r, w, e;
360
361         cp = dev->si_drv2;
362         if (cp == NULL)
363                 return (ENXIO);         /* g_dev_taste() not done yet */
364         g_trace(G_T_ACCESS, "g_dev_open(%s, %d, %d, %p)",
365             cp->geom->name, flags, fmt, td);
366
367         r = flags & FREAD ? 1 : 0;
368         w = flags & FWRITE ? 1 : 0;
369 #ifdef notyet
370         e = flags & O_EXCL ? 1 : 0;
371 #else
372         e = 0;
373 #endif
374
375         /*
376          * This happens on attempt to open a device node with O_EXEC.
377          */
378         if (r + w + e == 0)
379                 return (EINVAL);
380
381         if (w) {
382                 /*
383                  * When running in very secure mode, do not allow
384                  * opens for writing of any disks.
385                  */
386                 error = securelevel_ge(td->td_ucred, 2);
387                 if (error)
388                         return (error);
389         }
390         g_topology_lock();
391         error = g_access(cp, r, w, e);
392         g_topology_unlock();
393         if (error == 0) {
394                 sc = cp->private;
395                 mtx_lock(&sc->sc_mtx);
396                 if (sc->sc_open == 0 && sc->sc_active != 0)
397                         wakeup(&sc->sc_active);
398                 sc->sc_open += r + w + e;
399                 mtx_unlock(&sc->sc_mtx);
400         }
401         return (error);
402 }
403
404 static int
405 g_dev_close(struct cdev *dev, int flags, int fmt, struct thread *td)
406 {
407         struct g_consumer *cp;
408         struct g_dev_softc *sc;
409         int error, r, w, e;
410
411         cp = dev->si_drv2;
412         if (cp == NULL)
413                 return (ENXIO);
414         g_trace(G_T_ACCESS, "g_dev_close(%s, %d, %d, %p)",
415             cp->geom->name, flags, fmt, td);
416
417         r = flags & FREAD ? -1 : 0;
418         w = flags & FWRITE ? -1 : 0;
419 #ifdef notyet
420         e = flags & O_EXCL ? -1 : 0;
421 #else
422         e = 0;
423 #endif
424
425         /*
426          * The vgonel(9) - caused by eg. forced unmount of devfs - calls
427          * VOP_CLOSE(9) on devfs vnode without any FREAD or FWRITE flags,
428          * which would result in zero deltas, which in turn would cause
429          * panic in g_access(9).
430          *
431          * Note that we cannot zero the counters (ie. do "r = cp->acr"
432          * etc) instead, because the consumer might be opened in another
433          * devfs instance.
434          */
435         if (r + w + e == 0)
436                 return (EINVAL);
437
438         sc = cp->private;
439         mtx_lock(&sc->sc_mtx);
440         sc->sc_open += r + w + e;
441         while (sc->sc_open == 0 && sc->sc_active != 0)
442                 msleep(&sc->sc_active, &sc->sc_mtx, 0, "PRIBIO", 0);
443         mtx_unlock(&sc->sc_mtx);
444         g_topology_lock();
445         error = g_access(cp, r, w, e);
446         g_topology_unlock();
447         return (error);
448 }
449
450 /*
451  * XXX: Until we have unmessed the ioctl situation, there is a race against
452  * XXX: a concurrent orphanization.  We cannot close it by holding topology
453  * XXX: since that would prevent us from doing our job, and stalling events
454  * XXX: will break (actually: stall) the BSD disklabel hacks.
455  */
456 static int
457 g_dev_ioctl(struct cdev *dev, u_long cmd, caddr_t data, int fflag, struct thread *td)
458 {
459         struct g_consumer *cp;
460         struct g_provider *pp;
461         off_t offset, length, chunk, odd;
462         int i, error;
463
464         cp = dev->si_drv2;
465         pp = cp->provider;
466
467         error = 0;
468         KASSERT(cp->acr || cp->acw,
469             ("Consumer with zero access count in g_dev_ioctl"));
470
471         i = IOCPARM_LEN(cmd);
472         switch (cmd) {
473         case DIOCGSECTORSIZE:
474                 *(u_int *)data = cp->provider->sectorsize;
475                 if (*(u_int *)data == 0)
476                         error = ENOENT;
477                 break;
478         case DIOCGMEDIASIZE:
479                 *(off_t *)data = cp->provider->mediasize;
480                 if (*(off_t *)data == 0)
481                         error = ENOENT;
482                 break;
483         case DIOCGFWSECTORS:
484                 error = g_io_getattr("GEOM::fwsectors", cp, &i, data);
485                 if (error == 0 && *(u_int *)data == 0)
486                         error = ENOENT;
487                 break;
488         case DIOCGFWHEADS:
489                 error = g_io_getattr("GEOM::fwheads", cp, &i, data);
490                 if (error == 0 && *(u_int *)data == 0)
491                         error = ENOENT;
492                 break;
493         case DIOCGFRONTSTUFF:
494                 error = g_io_getattr("GEOM::frontstuff", cp, &i, data);
495                 break;
496         case DIOCSKERNELDUMP:
497                 if (*(u_int *)data == 0)
498                         error = g_dev_setdumpdev(NULL, td);
499                 else
500                         error = g_dev_setdumpdev(dev, td);
501                 break;
502         case DIOCGFLUSH:
503                 error = g_io_flush(cp);
504                 break;
505         case DIOCGDELETE:
506                 offset = ((off_t *)data)[0];
507                 length = ((off_t *)data)[1];
508                 if ((offset % cp->provider->sectorsize) != 0 ||
509                     (length % cp->provider->sectorsize) != 0 || length <= 0) {
510                         printf("%s: offset=%jd length=%jd\n", __func__, offset,
511                             length);
512                         error = EINVAL;
513                         break;
514                 }
515                 while (length > 0) {
516                         chunk = length;
517                         if (g_dev_del_max_sectors != 0 && chunk >
518                             g_dev_del_max_sectors * cp->provider->sectorsize) {
519                                 chunk = g_dev_del_max_sectors *
520                                     cp->provider->sectorsize;
521                                 if (cp->provider->stripesize > 0) {
522                                         odd = (offset + chunk +
523                                             cp->provider->stripeoffset) %
524                                             cp->provider->stripesize;
525                                         if (chunk > odd)
526                                                 chunk -= odd;
527                                 }
528                         }
529                         error = g_delete_data(cp, offset, chunk);
530                         length -= chunk;
531                         offset += chunk;
532                         if (error)
533                                 break;
534                         /*
535                          * Since the request size can be large, the service
536                          * time can be is likewise.  We make this ioctl
537                          * interruptible by checking for signals for each bio.
538                          */
539                         if (SIGPENDING(td))
540                                 break;
541                 }
542                 break;
543         case DIOCGIDENT:
544                 error = g_io_getattr("GEOM::ident", cp, &i, data);
545                 break;
546         case DIOCGPROVIDERNAME:
547                 if (pp == NULL)
548                         return (ENOENT);
549                 strlcpy(data, pp->name, i);
550                 break;
551         case DIOCGSTRIPESIZE:
552                 *(off_t *)data = cp->provider->stripesize;
553                 break;
554         case DIOCGSTRIPEOFFSET:
555                 *(off_t *)data = cp->provider->stripeoffset;
556                 break;
557         case DIOCGPHYSPATH:
558                 error = g_io_getattr("GEOM::physpath", cp, &i, data);
559                 if (error == 0 && *(char *)data == '\0')
560                         error = ENOENT;
561                 break;
562         case DIOCGATTR: {
563                 struct diocgattr_arg *arg = (struct diocgattr_arg *)data;
564
565                 if (arg->len > sizeof(arg->value)) {
566                         error = EINVAL;
567                         break;
568                 }
569                 error = g_io_getattr(arg->name, cp, &arg->len, &arg->value);
570                 break;
571         }
572         case DIOCZONECMD: {
573                 struct disk_zone_args *zone_args =(struct disk_zone_args *)data;
574                 struct disk_zone_rep_entry *new_entries, *old_entries;
575                 struct disk_zone_report *rep;
576                 size_t alloc_size;
577
578                 old_entries = NULL;
579                 new_entries = NULL;
580                 rep = NULL;
581                 alloc_size = 0;
582
583                 if (zone_args->zone_cmd == DISK_ZONE_REPORT_ZONES) {
584
585                         rep = &zone_args->zone_params.report;
586                         alloc_size = rep->entries_allocated *
587                             sizeof(struct disk_zone_rep_entry);
588                         if (alloc_size != 0)
589                                 new_entries = g_malloc(alloc_size,
590                                     M_WAITOK| M_ZERO);
591                         old_entries = rep->entries;
592                         rep->entries = new_entries;
593                 }
594                 error = g_io_zonecmd(zone_args, cp);
595                 if ((zone_args->zone_cmd == DISK_ZONE_REPORT_ZONES)
596                  && (alloc_size != 0)
597                  && (error == 0)) {
598                         error = copyout(new_entries, old_entries, alloc_size);
599                 }
600                 if ((old_entries != NULL)
601                  && (rep != NULL))
602                         rep->entries = old_entries;
603
604                 if (new_entries != NULL)
605                         g_free(new_entries);
606                 break;
607         }
608         default:
609                 if (cp->provider->geom->ioctl != NULL) {
610                         error = cp->provider->geom->ioctl(cp->provider, cmd, data, fflag, td);
611                 } else {
612                         error = ENOIOCTL;
613                 }
614         }
615
616         return (error);
617 }
618
619 static void
620 g_dev_done(struct bio *bp2)
621 {
622         struct g_consumer *cp;
623         struct g_dev_softc *sc;
624         struct bio *bp;
625         int destroy;
626
627         cp = bp2->bio_from;
628         sc = cp->private;
629         bp = bp2->bio_parent;
630         bp->bio_error = bp2->bio_error;
631         bp->bio_completed = bp2->bio_completed;
632         bp->bio_resid = bp->bio_length - bp2->bio_completed;
633         if (bp2->bio_cmd == BIO_ZONE)
634                 bcopy(&bp2->bio_zone, &bp->bio_zone, sizeof(bp->bio_zone));
635
636         if (bp2->bio_error != 0) {
637                 g_trace(G_T_BIO, "g_dev_done(%p) had error %d",
638                     bp2, bp2->bio_error);
639                 bp->bio_flags |= BIO_ERROR;
640         } else {
641                 g_trace(G_T_BIO, "g_dev_done(%p/%p) resid %ld completed %jd",
642                     bp2, bp, bp2->bio_resid, (intmax_t)bp2->bio_completed);
643         }
644         g_destroy_bio(bp2);
645         destroy = 0;
646         mtx_lock(&sc->sc_mtx);
647         if ((--sc->sc_active) == 0) {
648                 if (sc->sc_open == 0)
649                         wakeup(&sc->sc_active);
650                 if (sc->sc_dev == NULL)
651                         destroy = 1;
652         }
653         mtx_unlock(&sc->sc_mtx);
654         if (destroy)
655                 g_post_event(g_dev_destroy, cp, M_NOWAIT, NULL);
656         biodone(bp);
657 }
658
659 static void
660 g_dev_strategy(struct bio *bp)
661 {
662         struct g_consumer *cp;
663         struct bio *bp2;
664         struct cdev *dev;
665         struct g_dev_softc *sc;
666
667         KASSERT(bp->bio_cmd == BIO_READ ||
668                 bp->bio_cmd == BIO_WRITE ||
669                 bp->bio_cmd == BIO_DELETE ||
670                 bp->bio_cmd == BIO_FLUSH ||
671                 bp->bio_cmd == BIO_ZONE,
672                 ("Wrong bio_cmd bio=%p cmd=%d", bp, bp->bio_cmd));
673         dev = bp->bio_dev;
674         cp = dev->si_drv2;
675         sc = cp->private;
676         KASSERT(cp->acr || cp->acw,
677             ("Consumer with zero access count in g_dev_strategy"));
678 #ifdef INVARIANTS
679         if ((bp->bio_offset % cp->provider->sectorsize) != 0 ||
680             (bp->bio_bcount % cp->provider->sectorsize) != 0) {
681                 bp->bio_resid = bp->bio_bcount;
682                 biofinish(bp, NULL, EINVAL);
683                 return;
684         }
685 #endif
686         mtx_lock(&sc->sc_mtx);
687         KASSERT(sc->sc_open > 0, ("Closed device in g_dev_strategy"));
688         sc->sc_active++;
689         mtx_unlock(&sc->sc_mtx);
690
691         for (;;) {
692                 /*
693                  * XXX: This is not an ideal solution, but I believe it to
694                  * XXX: deadlock safely, all things considered.
695                  */
696                 bp2 = g_clone_bio(bp);
697                 if (bp2 != NULL)
698                         break;
699                 pause("gdstrat", hz / 10);
700         }
701         KASSERT(bp2 != NULL, ("XXX: ENOMEM in a bad place"));
702         bp2->bio_done = g_dev_done;
703         g_trace(G_T_BIO,
704             "g_dev_strategy(%p/%p) offset %jd length %jd data %p cmd %d",
705             bp, bp2, (intmax_t)bp->bio_offset, (intmax_t)bp2->bio_length,
706             bp2->bio_data, bp2->bio_cmd);
707         g_io_request(bp2, cp);
708         KASSERT(cp->acr || cp->acw,
709             ("g_dev_strategy raced with g_dev_close and lost"));
710
711 }
712
713 /*
714  * g_dev_callback()
715  *
716  * Called by devfs when asynchronous device destruction is completed.
717  * - Mark that we have no attached device any more.
718  * - If there are no outstanding requests, schedule geom destruction.
719  *   Otherwise destruction will be scheduled later by g_dev_done().
720  */
721
722 static void
723 g_dev_callback(void *arg)
724 {
725         struct g_consumer *cp;
726         struct g_dev_softc *sc;
727         int destroy;
728
729         cp = arg;
730         sc = cp->private;
731         g_trace(G_T_TOPOLOGY, "g_dev_callback(%p(%s))", cp, cp->geom->name);
732
733         mtx_lock(&sc->sc_mtx);
734         sc->sc_dev = NULL;
735         sc->sc_alias = NULL;
736         destroy = (sc->sc_active == 0);
737         mtx_unlock(&sc->sc_mtx);
738         if (destroy)
739                 g_post_event(g_dev_destroy, cp, M_WAITOK, NULL);
740 }
741
742 /*
743  * g_dev_orphan()
744  *
745  * Called from below when the provider orphaned us.
746  * - Clear any dump settings.
747  * - Request asynchronous device destruction to prevent any more requests
748  *   from coming in.  The provider is already marked with an error, so
749  *   anything which comes in the interim will be returned immediately.
750  */
751
752 static void
753 g_dev_orphan(struct g_consumer *cp)
754 {
755         struct cdev *dev;
756         struct g_dev_softc *sc;
757
758         g_topology_assert();
759         sc = cp->private;
760         dev = sc->sc_dev;
761         g_trace(G_T_TOPOLOGY, "g_dev_orphan(%p(%s))", cp, cp->geom->name);
762
763         /* Reset any dump-area set on this device */
764         if (dev->si_flags & SI_DUMPDEV)
765                 (void)set_dumper(NULL, NULL, curthread);
766
767         /* Destroy the struct cdev *so we get no more requests */
768         destroy_dev_sched_cb(dev, g_dev_callback, cp);
769 }
770
771 DECLARE_GEOM_CLASS(g_dev_class, g_dev);