]> CyberLeo.Net >> Repos - FreeBSD/stable/8.git/blob - sys/geom/raid/md_nvidia.c
MFC r234601:
[FreeBSD/stable/8.git] / sys / geom / raid / md_nvidia.c
1 /*-
2  * Copyright (c) 2011 Alexander Motin <mav@FreeBSD.org>
3  * Copyright (c) 2000 - 2008 Søren Schmidt <sos@FreeBSD.org>
4  * All rights reserved.
5  *
6  * Redistribution and use in source and binary forms, with or without
7  * modification, are permitted provided that the following conditions
8  * are met:
9  * 1. Redistributions of source code must retain the above copyright
10  *    notice, this list of conditions and the following disclaimer.
11  * 2. Redistributions in binary form must reproduce the above copyright
12  *    notice, this list of conditions and the following disclaimer in the
13  *    documentation and/or other materials provided with the distribution.
14  *
15  * THIS SOFTWARE IS PROVIDED BY THE AUTHORS AND CONTRIBUTORS ``AS IS'' AND
16  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
17  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
18  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHORS OR CONTRIBUTORS BE LIABLE
19  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
20  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
21  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
22  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
23  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
24  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
25  * SUCH DAMAGE.
26  */
27
28 #include <sys/cdefs.h>
29 __FBSDID("$FreeBSD$");
30
31 #include <sys/param.h>
32 #include <sys/bio.h>
33 #include <sys/endian.h>
34 #include <sys/kernel.h>
35 #include <sys/kobj.h>
36 #include <sys/limits.h>
37 #include <sys/lock.h>
38 #include <sys/malloc.h>
39 #include <sys/mutex.h>
40 #include <sys/systm.h>
41 #include <sys/taskqueue.h>
42 #include <geom/geom.h>
43 #include "geom/raid/g_raid.h"
44 #include "g_raid_md_if.h"
45
46 static MALLOC_DEFINE(M_MD_NVIDIA, "md_nvidia_data", "GEOM_RAID NVIDIA metadata");
47
48 struct nvidia_raid_conf {
49         uint8_t         nvidia_id[8];
50 #define NVIDIA_MAGIC                "NVIDIA  "
51
52         uint32_t        config_size;
53         uint32_t        checksum;
54         uint16_t        version;
55         uint8_t         disk_number;
56         uint8_t         dummy_0;
57         uint32_t        total_sectors;
58         uint32_t        sector_size;
59         uint8_t         name[16];
60         uint8_t         revision[4];
61         uint32_t        disk_status;
62
63         uint32_t        magic_0;
64 #define NVIDIA_MAGIC0           0x00640044
65
66         uint64_t        volume_id[2];
67         uint8_t         state;
68 #define NVIDIA_S_IDLE           0
69 #define NVIDIA_S_INIT           2
70 #define NVIDIA_S_REBUILD        3
71 #define NVIDIA_S_UPGRADE        4
72 #define NVIDIA_S_SYNC           5
73         uint8_t         array_width;
74         uint8_t         total_disks;
75         uint8_t         orig_array_width;
76         uint16_t        type;
77 #define NVIDIA_T_RAID0          0x0080
78 #define NVIDIA_T_RAID1          0x0081
79 #define NVIDIA_T_RAID3          0x0083
80 #define NVIDIA_T_RAID5          0x0085  /* RLQ = 00/02? */
81 #define NVIDIA_T_RAID5_SYM      0x0095  /* RLQ = 03 */
82 #define NVIDIA_T_RAID10         0x008a
83 #define NVIDIA_T_RAID01         0x8180
84 #define NVIDIA_T_CONCAT         0x00ff
85
86         uint16_t        dummy_3;
87         uint32_t        strip_sectors;
88         uint32_t        strip_bytes;
89         uint32_t        strip_shift;
90         uint32_t        strip_mask;
91         uint32_t        stripe_sectors;
92         uint32_t        stripe_bytes;
93         uint32_t        rebuild_lba;
94         uint32_t        orig_type;
95         uint32_t        orig_total_sectors;
96         uint32_t        status;
97 #define NVIDIA_S_BOOTABLE       0x00000001
98 #define NVIDIA_S_DEGRADED       0x00000002
99
100         uint32_t        filler[98];
101 } __packed;
102
103 struct g_raid_md_nvidia_perdisk {
104         struct nvidia_raid_conf *pd_meta;
105         int                      pd_disk_pos;
106         off_t                    pd_disk_size;
107 };
108
109 struct g_raid_md_nvidia_object {
110         struct g_raid_md_object  mdio_base;
111         uint64_t                 mdio_volume_id[2];
112         struct nvidia_raid_conf *mdio_meta;
113         struct callout           mdio_start_co; /* STARTING state timer. */
114         int                      mdio_total_disks;
115         int                      mdio_disks_present;
116         int                      mdio_started;
117         int                      mdio_incomplete;
118         struct root_hold_token  *mdio_rootmount; /* Root mount delay token. */
119 };
120
121 static g_raid_md_create_t g_raid_md_create_nvidia;
122 static g_raid_md_taste_t g_raid_md_taste_nvidia;
123 static g_raid_md_event_t g_raid_md_event_nvidia;
124 static g_raid_md_ctl_t g_raid_md_ctl_nvidia;
125 static g_raid_md_write_t g_raid_md_write_nvidia;
126 static g_raid_md_fail_disk_t g_raid_md_fail_disk_nvidia;
127 static g_raid_md_free_disk_t g_raid_md_free_disk_nvidia;
128 static g_raid_md_free_t g_raid_md_free_nvidia;
129
130 static kobj_method_t g_raid_md_nvidia_methods[] = {
131         KOBJMETHOD(g_raid_md_create,    g_raid_md_create_nvidia),
132         KOBJMETHOD(g_raid_md_taste,     g_raid_md_taste_nvidia),
133         KOBJMETHOD(g_raid_md_event,     g_raid_md_event_nvidia),
134         KOBJMETHOD(g_raid_md_ctl,       g_raid_md_ctl_nvidia),
135         KOBJMETHOD(g_raid_md_write,     g_raid_md_write_nvidia),
136         KOBJMETHOD(g_raid_md_fail_disk, g_raid_md_fail_disk_nvidia),
137         KOBJMETHOD(g_raid_md_free_disk, g_raid_md_free_disk_nvidia),
138         KOBJMETHOD(g_raid_md_free,      g_raid_md_free_nvidia),
139         { 0, 0 }
140 };
141
142 static struct g_raid_md_class g_raid_md_nvidia_class = {
143         "NVIDIA",
144         g_raid_md_nvidia_methods,
145         sizeof(struct g_raid_md_nvidia_object),
146         .mdc_priority = 100
147 };
148
149 static int NVIDIANodeID = 1;
150
151 static void
152 g_raid_md_nvidia_print(struct nvidia_raid_conf *meta)
153 {
154
155         if (g_raid_debug < 1)
156                 return;
157
158         printf("********* ATA NVIDIA RAID Metadata *********\n");
159         printf("nvidia_id           <%.8s>\n", meta->nvidia_id);
160         printf("config_size         %u\n", meta->config_size);
161         printf("checksum            0x%08x\n", meta->checksum);
162         printf("version             0x%04x\n", meta->version);
163         printf("disk_number         %d\n", meta->disk_number);
164         printf("dummy_0             0x%02x\n", meta->dummy_0);
165         printf("total_sectors       %u\n", meta->total_sectors);
166         printf("sector_size         %u\n", meta->sector_size);
167         printf("name                <%.16s>\n", meta->name);
168         printf("revision            0x%02x%02x%02x%02x\n",
169             meta->revision[0], meta->revision[1],
170             meta->revision[2], meta->revision[3]);
171         printf("disk_status         0x%08x\n", meta->disk_status);
172         printf("magic_0             0x%08x\n", meta->magic_0);
173         printf("volume_id           0x%016jx%016jx\n",
174             meta->volume_id[1], meta->volume_id[0]);
175         printf("state               0x%02x\n", meta->state);
176         printf("array_width         %u\n", meta->array_width);
177         printf("total_disks         %u\n", meta->total_disks);
178         printf("orig_array_width    %u\n", meta->orig_array_width);
179         printf("type                0x%04x\n", meta->type);
180         printf("dummy_3             0x%04x\n", meta->dummy_3);
181         printf("strip_sectors       %u\n", meta->strip_sectors);
182         printf("strip_bytes         %u\n", meta->strip_bytes);
183         printf("strip_shift         %u\n", meta->strip_shift);
184         printf("strip_mask          0x%08x\n", meta->strip_mask);
185         printf("stripe_sectors      %u\n", meta->stripe_sectors);
186         printf("stripe_bytes        %u\n", meta->stripe_bytes);
187         printf("rebuild_lba         %u\n", meta->rebuild_lba);
188         printf("orig_type           0x%04x\n", meta->orig_type);
189         printf("orig_total_sectors  %u\n", meta->orig_total_sectors);
190         printf("status              0x%08x\n", meta->status);
191         printf("=================================================\n");
192 }
193
194 static struct nvidia_raid_conf *
195 nvidia_meta_copy(struct nvidia_raid_conf *meta)
196 {
197         struct nvidia_raid_conf *nmeta;
198
199         nmeta = malloc(sizeof(*meta), M_MD_NVIDIA, M_WAITOK);
200         memcpy(nmeta, meta, sizeof(*meta));
201         return (nmeta);
202 }
203
204 static int
205 nvidia_meta_translate_disk(struct nvidia_raid_conf *meta, int md_disk_pos)
206 {
207         int disk_pos;
208
209         if (md_disk_pos >= 0 && meta->type == NVIDIA_T_RAID01) {
210                 disk_pos = (md_disk_pos / meta->array_width) +
211                     (md_disk_pos % meta->array_width) * meta->array_width;
212         } else
213                 disk_pos = md_disk_pos;
214         return (disk_pos);
215 }
216
217 static void
218 nvidia_meta_get_name(struct nvidia_raid_conf *meta, char *buf)
219 {
220         int i;
221
222         strncpy(buf, meta->name, 16);
223         buf[16] = 0;
224         for (i = 15; i >= 0; i--) {
225                 if (buf[i] > 0x20)
226                         break;
227                 buf[i] = 0;
228         }
229 }
230
231 static void
232 nvidia_meta_put_name(struct nvidia_raid_conf *meta, char *buf)
233 {
234
235         memset(meta->name, 0x20, 16);
236         memcpy(meta->name, buf, MIN(strlen(buf), 16));
237 }
238
239 static struct nvidia_raid_conf *
240 nvidia_meta_read(struct g_consumer *cp)
241 {
242         struct g_provider *pp;
243         struct nvidia_raid_conf *meta;
244         char *buf;
245         int error, i;
246         uint32_t checksum, *ptr;
247
248         pp = cp->provider;
249
250         /* Read the anchor sector. */
251         buf = g_read_data(cp,
252             pp->mediasize - 2 * pp->sectorsize, pp->sectorsize, &error);
253         if (buf == NULL) {
254                 G_RAID_DEBUG(1, "Cannot read metadata from %s (error=%d).",
255                     pp->name, error);
256                 return (NULL);
257         }
258         meta = malloc(sizeof(*meta), M_MD_NVIDIA, M_WAITOK);
259         memcpy(meta, buf, min(sizeof(*meta), pp->sectorsize));
260         g_free(buf);
261
262         /* Check if this is an NVIDIA RAID struct */
263         if (strncmp(meta->nvidia_id, NVIDIA_MAGIC, strlen(NVIDIA_MAGIC))) {
264                 G_RAID_DEBUG(1, "NVIDIA signature check failed on %s", pp->name);
265                 free(meta, M_MD_NVIDIA);
266                 return (NULL);
267         }
268         if (meta->config_size > 128 ||
269             meta->config_size < 30) {
270                 G_RAID_DEBUG(1, "NVIDIA metadata size looks wrong: %d",
271                     meta->config_size);
272                 free(meta, M_MD_NVIDIA);
273                 return (NULL);
274         }
275
276         /* Check metadata checksum. */
277         for (checksum = 0, ptr = (uint32_t *)meta,
278             i = 0; i < meta->config_size; i++)
279                 checksum += *ptr++;
280         if (checksum != 0) {
281                 G_RAID_DEBUG(1, "NVIDIA checksum check failed on %s", pp->name);
282                 free(meta, M_MD_NVIDIA);
283                 return (NULL);
284         }
285
286         /* Check volume state. */
287         if (meta->state != NVIDIA_S_IDLE && meta->state != NVIDIA_S_INIT &&
288             meta->state != NVIDIA_S_REBUILD && meta->state != NVIDIA_S_SYNC) {
289                 G_RAID_DEBUG(1, "NVIDIA unknown state on %s (0x%02x)",
290                     pp->name, meta->state);
291                 free(meta, M_MD_NVIDIA);
292                 return (NULL);
293         }
294
295         /* Check raid type. */
296         if (meta->type != NVIDIA_T_RAID0 && meta->type != NVIDIA_T_RAID1 &&
297             meta->type != NVIDIA_T_RAID3 && meta->type != NVIDIA_T_RAID5 &&
298             meta->type != NVIDIA_T_RAID5_SYM &&
299             meta->type != NVIDIA_T_RAID01 && meta->type != NVIDIA_T_CONCAT) {
300                 G_RAID_DEBUG(1, "NVIDIA unknown RAID level on %s (0x%02x)",
301                     pp->name, meta->type);
302                 free(meta, M_MD_NVIDIA);
303                 return (NULL);
304         }
305
306         return (meta);
307 }
308
309 static int
310 nvidia_meta_write(struct g_consumer *cp, struct nvidia_raid_conf *meta)
311 {
312         struct g_provider *pp;
313         char *buf;
314         int error, i;
315         uint32_t checksum, *ptr;
316
317         pp = cp->provider;
318
319         /* Recalculate checksum for case if metadata were changed. */
320         meta->checksum = 0;
321         for (checksum = 0, ptr = (uint32_t *)meta,
322             i = 0; i < meta->config_size; i++)
323                 checksum += *ptr++;
324         meta->checksum -= checksum;
325
326         /* Create and fill buffer. */
327         buf = malloc(pp->sectorsize, M_MD_NVIDIA, M_WAITOK | M_ZERO);
328         memcpy(buf, meta, sizeof(*meta));
329
330         /* Write metadata. */
331         error = g_write_data(cp,
332             pp->mediasize - 2 * pp->sectorsize, buf, pp->sectorsize);
333         if (error != 0) {
334                 G_RAID_DEBUG(1, "Cannot write metadata to %s (error=%d).",
335                     pp->name, error);
336         }
337
338         free(buf, M_MD_NVIDIA);
339         return (error);
340 }
341
342 static int
343 nvidia_meta_erase(struct g_consumer *cp)
344 {
345         struct g_provider *pp;
346         char *buf;
347         int error;
348
349         pp = cp->provider;
350         buf = malloc(pp->sectorsize, M_MD_NVIDIA, M_WAITOK | M_ZERO);
351         error = g_write_data(cp,
352             pp->mediasize - 2 * pp->sectorsize, buf, pp->sectorsize);
353         if (error != 0) {
354                 G_RAID_DEBUG(1, "Cannot erase metadata on %s (error=%d).",
355                     pp->name, error);
356         }
357         free(buf, M_MD_NVIDIA);
358         return (error);
359 }
360
361 static struct g_raid_disk *
362 g_raid_md_nvidia_get_disk(struct g_raid_softc *sc, int id)
363 {
364         struct g_raid_disk      *disk;
365         struct g_raid_md_nvidia_perdisk *pd;
366
367         TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
368                 pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
369                 if (pd->pd_disk_pos == id)
370                         break;
371         }
372         return (disk);
373 }
374
375 static int
376 g_raid_md_nvidia_supported(int level, int qual, int disks, int force)
377 {
378
379         switch (level) {
380         case G_RAID_VOLUME_RL_RAID0:
381                 if (disks < 1)
382                         return (0);
383                 if (!force && (disks < 2 || disks > 6))
384                         return (0);
385                 break;
386         case G_RAID_VOLUME_RL_RAID1:
387                 if (disks < 1)
388                         return (0);
389                 if (!force && (disks != 2))
390                         return (0);
391                 break;
392         case G_RAID_VOLUME_RL_RAID1E:
393                 if (disks < 2)
394                         return (0);
395                 if (disks % 2 != 0)
396                         return (0);
397                 if (!force && (disks < 4))
398                         return (0);
399                 break;
400         case G_RAID_VOLUME_RL_SINGLE:
401                 if (disks != 1)
402                         return (0);
403                 break;
404         case G_RAID_VOLUME_RL_CONCAT:
405                 if (disks < 2)
406                         return (0);
407                 break;
408         case G_RAID_VOLUME_RL_RAID5:
409                 if (disks < 3)
410                         return (0);
411                 break;
412         default:
413                 return (0);
414         }
415         if (qual != G_RAID_VOLUME_RLQ_NONE)
416                 return (0);
417         return (1);
418 }
419
420 static int
421 g_raid_md_nvidia_start_disk(struct g_raid_disk *disk)
422 {
423         struct g_raid_softc *sc;
424         struct g_raid_subdisk *sd, *tmpsd;
425         struct g_raid_disk *olddisk, *tmpdisk;
426         struct g_raid_md_object *md;
427         struct g_raid_md_nvidia_object *mdi;
428         struct g_raid_md_nvidia_perdisk *pd, *oldpd;
429         struct nvidia_raid_conf *meta;
430         int disk_pos, resurrection = 0;
431
432         sc = disk->d_softc;
433         md = sc->sc_md;
434         mdi = (struct g_raid_md_nvidia_object *)md;
435         meta = mdi->mdio_meta;
436         pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
437         olddisk = NULL;
438
439         /* Find disk position in metadata by it's serial. */
440         if (pd->pd_meta != NULL) {
441                 disk_pos = pd->pd_meta->disk_number;
442                 if (disk_pos >= meta->total_disks || mdi->mdio_started)
443                         disk_pos = -3;
444         } else
445                 disk_pos = -3;
446         /* For RAID0+1 we need to translate order. */
447         disk_pos = nvidia_meta_translate_disk(meta, disk_pos);
448         if (disk_pos < 0) {
449                 G_RAID_DEBUG1(1, sc, "Unknown, probably new or stale disk");
450                 /* If we are in the start process, that's all for now. */
451                 if (!mdi->mdio_started)
452                         goto nofit;
453                 /*
454                  * If we have already started - try to get use of the disk.
455                  * Try to replace OFFLINE disks first, then FAILED.
456                  */
457                 TAILQ_FOREACH(tmpdisk, &sc->sc_disks, d_next) {
458                         if (tmpdisk->d_state != G_RAID_DISK_S_OFFLINE &&
459                             tmpdisk->d_state != G_RAID_DISK_S_FAILED)
460                                 continue;
461                         /* Make sure this disk is big enough. */
462                         TAILQ_FOREACH(sd, &tmpdisk->d_subdisks, sd_next) {
463                                 if (sd->sd_offset + sd->sd_size + 2 * 512 >
464                                     pd->pd_disk_size) {
465                                         G_RAID_DEBUG1(1, sc,
466                                             "Disk too small (%ju < %ju)",
467                                             pd->pd_disk_size,
468                                             sd->sd_offset + sd->sd_size + 512);
469                                         break;
470                                 }
471                         }
472                         if (sd != NULL)
473                                 continue;
474                         if (tmpdisk->d_state == G_RAID_DISK_S_OFFLINE) {
475                                 olddisk = tmpdisk;
476                                 break;
477                         } else if (olddisk == NULL)
478                                 olddisk = tmpdisk;
479                 }
480                 if (olddisk == NULL) {
481 nofit:
482                         g_raid_change_disk_state(disk, G_RAID_DISK_S_SPARE);
483                         return (1);
484                 }
485                 oldpd = (struct g_raid_md_nvidia_perdisk *)olddisk->d_md_data;
486                 disk_pos = oldpd->pd_disk_pos;
487                 resurrection = 1;
488         }
489
490         if (olddisk == NULL) {
491                 /* Find placeholder by position. */
492                 olddisk = g_raid_md_nvidia_get_disk(sc, disk_pos);
493                 if (olddisk == NULL)
494                         panic("No disk at position %d!", disk_pos);
495                 if (olddisk->d_state != G_RAID_DISK_S_OFFLINE) {
496                         G_RAID_DEBUG1(1, sc, "More then one disk for pos %d",
497                             disk_pos);
498                         g_raid_change_disk_state(disk, G_RAID_DISK_S_STALE);
499                         return (0);
500                 }
501                 oldpd = (struct g_raid_md_nvidia_perdisk *)olddisk->d_md_data;
502         }
503
504         /* Replace failed disk or placeholder with new disk. */
505         TAILQ_FOREACH_SAFE(sd, &olddisk->d_subdisks, sd_next, tmpsd) {
506                 TAILQ_REMOVE(&olddisk->d_subdisks, sd, sd_next);
507                 TAILQ_INSERT_TAIL(&disk->d_subdisks, sd, sd_next);
508                 sd->sd_disk = disk;
509         }
510         oldpd->pd_disk_pos = -2;
511         pd->pd_disk_pos = disk_pos;
512
513         /* If it was placeholder -- destroy it. */
514         if (olddisk->d_state == G_RAID_DISK_S_OFFLINE) {
515                 g_raid_destroy_disk(olddisk);
516         } else {
517                 /* Otherwise, make it STALE_FAILED. */
518                 g_raid_change_disk_state(olddisk, G_RAID_DISK_S_STALE_FAILED);
519         }
520
521         /* Welcome the new disk. */
522         if (resurrection)
523                 g_raid_change_disk_state(disk, G_RAID_DISK_S_ACTIVE);
524         else// if (pd->pd_meta->disk_status == NVIDIA_S_CURRENT ||
525             //pd->pd_meta->disk_status == NVIDIA_S_REBUILD)
526                 g_raid_change_disk_state(disk, G_RAID_DISK_S_ACTIVE);
527 //      else
528 //              g_raid_change_disk_state(disk, G_RAID_DISK_S_FAILED);
529         TAILQ_FOREACH(sd, &disk->d_subdisks, sd_next) {
530
531                 /*
532                  * Different disks may have different sizes,
533                  * in concat mode. Update from real disk size.
534                  */
535                 if (meta->type == NVIDIA_T_CONCAT)
536                         sd->sd_size = pd->pd_disk_size - 0x800 * 512;
537
538                 if (resurrection) {
539                         /* New or ex-spare disk. */
540                         g_raid_change_subdisk_state(sd,
541                             G_RAID_SUBDISK_S_NEW);
542                 } else if (meta->state == NVIDIA_S_REBUILD &&
543                     (pd->pd_meta->disk_status & 0x100)) {
544                         /* Rebuilding disk. */
545                         g_raid_change_subdisk_state(sd,
546                             G_RAID_SUBDISK_S_REBUILD);
547                         sd->sd_rebuild_pos = (off_t)pd->pd_meta->rebuild_lba /
548                             meta->array_width * pd->pd_meta->sector_size;
549                 } else if (meta->state == NVIDIA_S_SYNC) {
550                         /* Resyncing/dirty disk. */
551                         g_raid_change_subdisk_state(sd,
552                             G_RAID_SUBDISK_S_RESYNC);
553                         sd->sd_rebuild_pos = (off_t)pd->pd_meta->rebuild_lba /
554                             meta->array_width * pd->pd_meta->sector_size;
555                 } else {
556                         /* Up to date disk. */
557                         g_raid_change_subdisk_state(sd,
558                             G_RAID_SUBDISK_S_ACTIVE);
559                 }
560                 g_raid_event_send(sd, G_RAID_SUBDISK_E_NEW,
561                     G_RAID_EVENT_SUBDISK);
562         }
563
564         /* Update status of our need for spare. */
565         if (mdi->mdio_started) {
566                 mdi->mdio_incomplete =
567                     (g_raid_ndisks(sc, G_RAID_DISK_S_ACTIVE) <
568                      mdi->mdio_total_disks);
569         }
570
571         return (resurrection);
572 }
573
574 static void
575 g_disk_md_nvidia_retaste(void *arg, int pending)
576 {
577
578         G_RAID_DEBUG(1, "Array is not complete, trying to retaste.");
579         g_retaste(&g_raid_class);
580         free(arg, M_MD_NVIDIA);
581 }
582
583 static void
584 g_raid_md_nvidia_refill(struct g_raid_softc *sc)
585 {
586         struct g_raid_md_object *md;
587         struct g_raid_md_nvidia_object *mdi;
588         struct g_raid_disk *disk;
589         struct task *task;
590         int update, na;
591
592         md = sc->sc_md;
593         mdi = (struct g_raid_md_nvidia_object *)md;
594         update = 0;
595         do {
596                 /* Make sure we miss anything. */
597                 na = g_raid_ndisks(sc, G_RAID_DISK_S_ACTIVE);
598                 if (na == mdi->mdio_total_disks)
599                         break;
600
601                 G_RAID_DEBUG1(1, md->mdo_softc,
602                     "Array is not complete (%d of %d), "
603                     "trying to refill.", na, mdi->mdio_total_disks);
604
605                 /* Try to get use some of STALE disks. */
606                 TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
607                         if (disk->d_state == G_RAID_DISK_S_STALE) {
608                                 update += g_raid_md_nvidia_start_disk(disk);
609                                 if (disk->d_state == G_RAID_DISK_S_ACTIVE)
610                                         break;
611                         }
612                 }
613                 if (disk != NULL)
614                         continue;
615
616                 /* Try to get use some of SPARE disks. */
617                 TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
618                         if (disk->d_state == G_RAID_DISK_S_SPARE) {
619                                 update += g_raid_md_nvidia_start_disk(disk);
620                                 if (disk->d_state == G_RAID_DISK_S_ACTIVE)
621                                         break;
622                         }
623                 }
624         } while (disk != NULL);
625
626         /* Write new metadata if we changed something. */
627         if (update)
628                 g_raid_md_write_nvidia(md, NULL, NULL, NULL);
629
630         /* Update status of our need for spare. */
631         mdi->mdio_incomplete = (g_raid_ndisks(sc, G_RAID_DISK_S_ACTIVE) <
632             mdi->mdio_total_disks);
633
634         /* Request retaste hoping to find spare. */
635         if (mdi->mdio_incomplete) {
636                 task = malloc(sizeof(struct task),
637                     M_MD_NVIDIA, M_WAITOK | M_ZERO);
638                 TASK_INIT(task, 0, g_disk_md_nvidia_retaste, task);
639                 taskqueue_enqueue(taskqueue_swi, task);
640         }
641 }
642
643 static void
644 g_raid_md_nvidia_start(struct g_raid_softc *sc)
645 {
646         struct g_raid_md_object *md;
647         struct g_raid_md_nvidia_object *mdi;
648         struct g_raid_md_nvidia_perdisk *pd;
649         struct nvidia_raid_conf *meta;
650         struct g_raid_volume *vol;
651         struct g_raid_subdisk *sd;
652         struct g_raid_disk *disk;
653         off_t size;
654         int j, disk_pos;
655         char buf[17];
656
657         md = sc->sc_md;
658         mdi = (struct g_raid_md_nvidia_object *)md;
659         meta = mdi->mdio_meta;
660
661         /* Create volumes and subdisks. */
662         nvidia_meta_get_name(meta, buf);
663         vol = g_raid_create_volume(sc, buf, -1);
664         vol->v_mediasize = (off_t)meta->total_sectors * 512;
665         vol->v_raid_level_qualifier = G_RAID_VOLUME_RLQ_NONE;
666         if (meta->type == NVIDIA_T_RAID0) {
667                 vol->v_raid_level = G_RAID_VOLUME_RL_RAID0;
668                 size = vol->v_mediasize / mdi->mdio_total_disks;
669         } else if (meta->type == NVIDIA_T_RAID1) {
670                 vol->v_raid_level = G_RAID_VOLUME_RL_RAID1;
671                 size = vol->v_mediasize;
672         } else if (meta->type == NVIDIA_T_RAID01) {
673                 vol->v_raid_level = G_RAID_VOLUME_RL_RAID1E;
674                 size = vol->v_mediasize / (mdi->mdio_total_disks / 2);
675         } else if (meta->type == NVIDIA_T_CONCAT) {
676                 if (mdi->mdio_total_disks == 1)
677                         vol->v_raid_level = G_RAID_VOLUME_RL_SINGLE;
678                 else
679                         vol->v_raid_level = G_RAID_VOLUME_RL_CONCAT;
680                 size = 0;
681         } else if (meta->type == NVIDIA_T_RAID5) {
682                 vol->v_raid_level = G_RAID_VOLUME_RL_RAID5;
683                 size = vol->v_mediasize / (mdi->mdio_total_disks - 1);
684         } else if (meta->type == NVIDIA_T_RAID5_SYM) {
685                 vol->v_raid_level = G_RAID_VOLUME_RL_RAID5;
686 //              vol->v_raid_level_qualifier = 0x03;
687                 size = vol->v_mediasize / (mdi->mdio_total_disks - 1);
688         } else {
689                 vol->v_raid_level = G_RAID_VOLUME_RL_UNKNOWN;
690                 size = 0;
691         }
692         vol->v_strip_size = meta->strip_sectors * 512; //ZZZ
693         vol->v_disks_count = mdi->mdio_total_disks;
694         vol->v_sectorsize = 512; //ZZZ
695         for (j = 0; j < vol->v_disks_count; j++) {
696                 sd = &vol->v_subdisks[j];
697                 sd->sd_offset = 0;
698                 sd->sd_size = size;
699         }
700         g_raid_start_volume(vol);
701
702         /* Create disk placeholders to store data for later writing. */
703         for (disk_pos = 0; disk_pos < mdi->mdio_total_disks; disk_pos++) {
704                 pd = malloc(sizeof(*pd), M_MD_NVIDIA, M_WAITOK | M_ZERO);
705                 pd->pd_disk_pos = disk_pos;
706                 disk = g_raid_create_disk(sc);
707                 disk->d_md_data = (void *)pd;
708                 disk->d_state = G_RAID_DISK_S_OFFLINE;
709                 sd = &vol->v_subdisks[disk_pos];
710                 sd->sd_disk = disk;
711                 TAILQ_INSERT_TAIL(&disk->d_subdisks, sd, sd_next);
712         }
713
714         /* Make all disks found till the moment take their places. */
715         do {
716                 TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
717                         if (disk->d_state == G_RAID_DISK_S_NONE) {
718                                 g_raid_md_nvidia_start_disk(disk);
719                                 break;
720                         }
721                 }
722         } while (disk != NULL);
723
724         mdi->mdio_started = 1;
725         G_RAID_DEBUG1(0, sc, "Array started.");
726         g_raid_md_write_nvidia(md, NULL, NULL, NULL);
727
728         /* Pickup any STALE/SPARE disks to refill array if needed. */
729         g_raid_md_nvidia_refill(sc);
730
731         g_raid_event_send(vol, G_RAID_VOLUME_E_START, G_RAID_EVENT_VOLUME);
732
733         callout_stop(&mdi->mdio_start_co);
734         G_RAID_DEBUG1(1, sc, "root_mount_rel %p", mdi->mdio_rootmount);
735         root_mount_rel(mdi->mdio_rootmount);
736         mdi->mdio_rootmount = NULL;
737 }
738
739 static void
740 g_raid_md_nvidia_new_disk(struct g_raid_disk *disk)
741 {
742         struct g_raid_softc *sc;
743         struct g_raid_md_object *md;
744         struct g_raid_md_nvidia_object *mdi;
745         struct nvidia_raid_conf *pdmeta;
746         struct g_raid_md_nvidia_perdisk *pd;
747
748         sc = disk->d_softc;
749         md = sc->sc_md;
750         mdi = (struct g_raid_md_nvidia_object *)md;
751         pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
752         pdmeta = pd->pd_meta;
753
754         if (mdi->mdio_started) {
755                 if (g_raid_md_nvidia_start_disk(disk))
756                         g_raid_md_write_nvidia(md, NULL, NULL, NULL);
757         } else {
758                 if (mdi->mdio_meta == NULL ||
759                     mdi->mdio_meta->disk_number >= mdi->mdio_meta->total_disks) {
760                         G_RAID_DEBUG1(1, sc, "Newer disk");
761                         if (mdi->mdio_meta != NULL)
762                                 free(mdi->mdio_meta, M_MD_NVIDIA);
763                         mdi->mdio_meta = nvidia_meta_copy(pdmeta);
764                         mdi->mdio_total_disks = pdmeta->total_disks;
765                         mdi->mdio_disks_present = 1;
766                 } else if (pdmeta->disk_number < mdi->mdio_meta->total_disks) {
767                         mdi->mdio_disks_present++;
768                         G_RAID_DEBUG1(1, sc, "Matching disk (%d of %d up)",
769                             mdi->mdio_disks_present,
770                             mdi->mdio_total_disks);
771                 } else
772                         G_RAID_DEBUG1(1, sc, "Spare disk");
773
774                 /* If we collected all needed disks - start array. */
775                 if (mdi->mdio_disks_present == mdi->mdio_total_disks)
776                         g_raid_md_nvidia_start(sc);
777         }
778 }
779
780 static void
781 g_raid_nvidia_go(void *arg)
782 {
783         struct g_raid_softc *sc;
784         struct g_raid_md_object *md;
785         struct g_raid_md_nvidia_object *mdi;
786
787         sc = arg;
788         md = sc->sc_md;
789         mdi = (struct g_raid_md_nvidia_object *)md;
790         if (!mdi->mdio_started) {
791                 G_RAID_DEBUG1(0, sc, "Force array start due to timeout.");
792                 g_raid_event_send(sc, G_RAID_NODE_E_START, 0);
793         }
794 }
795
796 static int
797 g_raid_md_create_nvidia(struct g_raid_md_object *md, struct g_class *mp,
798     struct g_geom **gp)
799 {
800         struct g_raid_softc *sc;
801         struct g_raid_md_nvidia_object *mdi;
802         char name[32];
803
804         mdi = (struct g_raid_md_nvidia_object *)md;
805         arc4rand(&mdi->mdio_volume_id, 16, 0);
806         snprintf(name, sizeof(name), "NVIDIA-%d",
807             atomic_fetchadd_int(&NVIDIANodeID, 1));
808         sc = g_raid_create_node(mp, name, md);
809         if (sc == NULL)
810                 return (G_RAID_MD_TASTE_FAIL);
811         md->mdo_softc = sc;
812         *gp = sc->sc_geom;
813         return (G_RAID_MD_TASTE_NEW);
814 }
815
816 static int
817 g_raid_md_taste_nvidia(struct g_raid_md_object *md, struct g_class *mp,
818                               struct g_consumer *cp, struct g_geom **gp)
819 {
820         struct g_consumer *rcp;
821         struct g_provider *pp;
822         struct g_raid_md_nvidia_object *mdi, *mdi1;
823         struct g_raid_softc *sc;
824         struct g_raid_disk *disk;
825         struct nvidia_raid_conf *meta;
826         struct g_raid_md_nvidia_perdisk *pd;
827         struct g_geom *geom;
828         int error, result, spare, len;
829         char name[32];
830         uint16_t vendor;
831
832         G_RAID_DEBUG(1, "Tasting NVIDIA on %s", cp->provider->name);
833         mdi = (struct g_raid_md_nvidia_object *)md;
834         pp = cp->provider;
835
836         /* Read metadata from device. */
837         meta = NULL;
838         vendor = 0xffff;
839         if (g_access(cp, 1, 0, 0) != 0)
840                 return (G_RAID_MD_TASTE_FAIL);
841         g_topology_unlock();
842         len = 2;
843         if (pp->geom->rank == 1)
844                 g_io_getattr("GEOM::hba_vendor", cp, &len, &vendor);
845         meta = nvidia_meta_read(cp);
846         g_topology_lock();
847         g_access(cp, -1, 0, 0);
848         if (meta == NULL) {
849                 if (g_raid_aggressive_spare) {
850                         if (vendor == 0x10de) {
851                                 G_RAID_DEBUG(1,
852                                     "No NVIDIA metadata, forcing spare.");
853                                 spare = 2;
854                                 goto search;
855                         } else {
856                                 G_RAID_DEBUG(1,
857                                     "NVIDIA vendor mismatch 0x%04x != 0x10de",
858                                     vendor);
859                         }
860                 }
861                 return (G_RAID_MD_TASTE_FAIL);
862         }
863
864         /* Metadata valid. Print it. */
865         g_raid_md_nvidia_print(meta);
866         G_RAID_DEBUG(1, "NVIDIA disk position %d", meta->disk_number);
867         spare = 0;//(meta->type == NVIDIA_T_SPARE) ? 1 : 0;
868
869 search:
870         /* Search for matching node. */
871         sc = NULL;
872         mdi1 = NULL;
873         LIST_FOREACH(geom, &mp->geom, geom) {
874                 sc = geom->softc;
875                 if (sc == NULL)
876                         continue;
877                 if (sc->sc_stopping != 0)
878                         continue;
879                 if (sc->sc_md->mdo_class != md->mdo_class)
880                         continue;
881                 mdi1 = (struct g_raid_md_nvidia_object *)sc->sc_md;
882                 if (spare) {
883                         if (mdi1->mdio_incomplete)
884                                 break;
885                 } else {
886                         if (memcmp(&mdi1->mdio_volume_id,
887                              &meta->volume_id, 16) == 0)
888                                 break;
889                 }
890         }
891
892         /* Found matching node. */
893         if (geom != NULL) {
894                 G_RAID_DEBUG(1, "Found matching array %s", sc->sc_name);
895                 result = G_RAID_MD_TASTE_EXISTING;
896
897         } else if (spare) { /* Not found needy node -- left for later. */
898                 G_RAID_DEBUG(1, "Spare is not needed at this time");
899                 goto fail1;
900
901         } else { /* Not found matching node -- create one. */
902                 result = G_RAID_MD_TASTE_NEW;
903                 memcpy(&mdi->mdio_volume_id, &meta->volume_id, 16);
904                 snprintf(name, sizeof(name), "NVIDIA-%d",
905                     atomic_fetchadd_int(&NVIDIANodeID, 1));
906                 sc = g_raid_create_node(mp, name, md);
907                 md->mdo_softc = sc;
908                 geom = sc->sc_geom;
909                 callout_init(&mdi->mdio_start_co, 1);
910                 callout_reset(&mdi->mdio_start_co, g_raid_start_timeout * hz,
911                     g_raid_nvidia_go, sc);
912                 mdi->mdio_rootmount = root_mount_hold("GRAID-NVIDIA");
913                 G_RAID_DEBUG1(1, sc, "root_mount_hold %p", mdi->mdio_rootmount);
914         }
915
916         rcp = g_new_consumer(geom);
917         g_attach(rcp, pp);
918         if (g_access(rcp, 1, 1, 1) != 0)
919                 ; //goto fail1;
920
921         g_topology_unlock();
922         sx_xlock(&sc->sc_lock);
923
924         pd = malloc(sizeof(*pd), M_MD_NVIDIA, M_WAITOK | M_ZERO);
925         pd->pd_meta = meta;
926         if (spare == 2) {
927                 pd->pd_disk_pos = -3;
928         } else {
929                 pd->pd_disk_pos = -1;
930         }
931         pd->pd_disk_size = pp->mediasize;
932         disk = g_raid_create_disk(sc);
933         disk->d_md_data = (void *)pd;
934         disk->d_consumer = rcp;
935         rcp->private = disk;
936
937         /* Read kernel dumping information. */
938         disk->d_kd.offset = 0;
939         disk->d_kd.length = OFF_MAX;
940         len = sizeof(disk->d_kd);
941         error = g_io_getattr("GEOM::kerneldump", rcp, &len, &disk->d_kd);
942         if (disk->d_kd.di.dumper == NULL)
943                 G_RAID_DEBUG1(2, sc, "Dumping not supported by %s: %d.", 
944                     rcp->provider->name, error);
945
946         g_raid_md_nvidia_new_disk(disk);
947
948         sx_xunlock(&sc->sc_lock);
949         g_topology_lock();
950         *gp = geom;
951         return (result);
952 fail1:
953         free(meta, M_MD_NVIDIA);
954         return (G_RAID_MD_TASTE_FAIL);
955 }
956
957 static int
958 g_raid_md_event_nvidia(struct g_raid_md_object *md,
959     struct g_raid_disk *disk, u_int event)
960 {
961         struct g_raid_softc *sc;
962         struct g_raid_subdisk *sd;
963         struct g_raid_md_nvidia_object *mdi;
964         struct g_raid_md_nvidia_perdisk *pd;
965
966         sc = md->mdo_softc;
967         mdi = (struct g_raid_md_nvidia_object *)md;
968         if (disk == NULL) {
969                 switch (event) {
970                 case G_RAID_NODE_E_START:
971                         if (!mdi->mdio_started) {
972                                 /* Bump volume ID to drop missing disks. */
973                                 arc4rand(&mdi->mdio_volume_id, 16, 0);
974                                 g_raid_md_nvidia_start(sc);
975                         }
976                         return (0);
977                 }
978                 return (-1);
979         }
980         pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
981         switch (event) {
982         case G_RAID_DISK_E_DISCONNECTED:
983                 /* If disk was assigned, just update statuses. */
984                 if (pd->pd_disk_pos >= 0) {
985                         g_raid_change_disk_state(disk, G_RAID_DISK_S_OFFLINE);
986                         if (disk->d_consumer) {
987                                 g_raid_kill_consumer(sc, disk->d_consumer);
988                                 disk->d_consumer = NULL;
989                         }
990                         TAILQ_FOREACH(sd, &disk->d_subdisks, sd_next) {
991                                 g_raid_change_subdisk_state(sd,
992                                     G_RAID_SUBDISK_S_NONE);
993                                 g_raid_event_send(sd, G_RAID_SUBDISK_E_DISCONNECTED,
994                                     G_RAID_EVENT_SUBDISK);
995                         }
996                 } else {
997                         /* Otherwise -- delete. */
998                         g_raid_change_disk_state(disk, G_RAID_DISK_S_NONE);
999                         g_raid_destroy_disk(disk);
1000                 }
1001
1002                 if (mdi->mdio_started) {
1003                         /* Bump volume ID to prevent disk resurrection. */
1004                         if (pd->pd_disk_pos >= 0)
1005                                 arc4rand(&mdi->mdio_volume_id, 16, 0);
1006
1007                         /* Write updated metadata to all disks. */
1008                         g_raid_md_write_nvidia(md, NULL, NULL, NULL);
1009                 }
1010
1011                 /* Check if anything left except placeholders. */
1012                 if (g_raid_ndisks(sc, -1) ==
1013                     g_raid_ndisks(sc, G_RAID_DISK_S_OFFLINE))
1014                         g_raid_destroy_node(sc, 0);
1015                 else
1016                         g_raid_md_nvidia_refill(sc);
1017                 return (0);
1018         }
1019         return (-2);
1020 }
1021
1022 static int
1023 g_raid_md_ctl_nvidia(struct g_raid_md_object *md,
1024     struct gctl_req *req)
1025 {
1026         struct g_raid_softc *sc;
1027         struct g_raid_volume *vol;
1028         struct g_raid_subdisk *sd;
1029         struct g_raid_disk *disk;
1030         struct g_raid_md_nvidia_object *mdi;
1031         struct g_raid_md_nvidia_perdisk *pd;
1032         struct g_consumer *cp;
1033         struct g_provider *pp;
1034         char arg[16];
1035         const char *verb, *volname, *levelname, *diskname;
1036         int *nargs, *force;
1037         off_t size, sectorsize, strip, volsize;
1038         intmax_t *sizearg, *striparg;
1039         int numdisks, i, len, level, qual, update;
1040         int error;
1041
1042         sc = md->mdo_softc;
1043         mdi = (struct g_raid_md_nvidia_object *)md;
1044         verb = gctl_get_param(req, "verb", NULL);
1045         nargs = gctl_get_paraml(req, "nargs", sizeof(*nargs));
1046         error = 0;
1047         if (strcmp(verb, "label") == 0) {
1048
1049                 if (*nargs < 4) {
1050                         gctl_error(req, "Invalid number of arguments.");
1051                         return (-1);
1052                 }
1053                 volname = gctl_get_asciiparam(req, "arg1");
1054                 if (volname == NULL) {
1055                         gctl_error(req, "No volume name.");
1056                         return (-2);
1057                 }
1058                 levelname = gctl_get_asciiparam(req, "arg2");
1059                 if (levelname == NULL) {
1060                         gctl_error(req, "No RAID level.");
1061                         return (-3);
1062                 }
1063                 if (g_raid_volume_str2level(levelname, &level, &qual)) {
1064                         gctl_error(req, "Unknown RAID level '%s'.", levelname);
1065                         return (-4);
1066                 }
1067                 numdisks = *nargs - 3;
1068                 force = gctl_get_paraml(req, "force", sizeof(*force));
1069                 if (!g_raid_md_nvidia_supported(level, qual, numdisks,
1070                     force ? *force : 0)) {
1071                         gctl_error(req, "Unsupported RAID level "
1072                             "(0x%02x/0x%02x), or number of disks (%d).",
1073                             level, qual, numdisks);
1074                         return (-5);
1075                 }
1076
1077                 /* Search for disks, connect them and probe. */
1078                 size = 0x7fffffffffffffffllu;
1079                 sectorsize = 0;
1080                 for (i = 0; i < numdisks; i++) {
1081                         snprintf(arg, sizeof(arg), "arg%d", i + 3);
1082                         diskname = gctl_get_asciiparam(req, arg);
1083                         if (diskname == NULL) {
1084                                 gctl_error(req, "No disk name (%s).", arg);
1085                                 error = -6;
1086                                 break;
1087                         }
1088                         if (strcmp(diskname, "NONE") == 0) {
1089                                 cp = NULL;
1090                                 pp = NULL;
1091                         } else {
1092                                 g_topology_lock();
1093                                 cp = g_raid_open_consumer(sc, diskname);
1094                                 if (cp == NULL) {
1095                                         gctl_error(req, "Can't open '%s'.",
1096                                             diskname);
1097                                         g_topology_unlock();
1098                                         error = -7;
1099                                         break;
1100                                 }
1101                                 pp = cp->provider;
1102                         }
1103                         pd = malloc(sizeof(*pd), M_MD_NVIDIA, M_WAITOK | M_ZERO);
1104                         pd->pd_disk_pos = i;
1105                         disk = g_raid_create_disk(sc);
1106                         disk->d_md_data = (void *)pd;
1107                         disk->d_consumer = cp;
1108                         if (cp == NULL)
1109                                 continue;
1110                         cp->private = disk;
1111                         g_topology_unlock();
1112
1113                         /* Read kernel dumping information. */
1114                         disk->d_kd.offset = 0;
1115                         disk->d_kd.length = OFF_MAX;
1116                         len = sizeof(disk->d_kd);
1117                         g_io_getattr("GEOM::kerneldump", cp, &len, &disk->d_kd);
1118                         if (disk->d_kd.di.dumper == NULL)
1119                                 G_RAID_DEBUG1(2, sc,
1120                                     "Dumping not supported by %s.",
1121                                     cp->provider->name);
1122
1123                         pd->pd_disk_size = pp->mediasize;
1124                         if (size > pp->mediasize)
1125                                 size = pp->mediasize;
1126                         if (sectorsize < pp->sectorsize)
1127                                 sectorsize = pp->sectorsize;
1128                 }
1129                 if (error != 0)
1130                         return (error);
1131
1132                 if (sectorsize <= 0) {
1133                         gctl_error(req, "Can't get sector size.");
1134                         return (-8);
1135                 }
1136
1137                 /* Reserve space for metadata. */
1138                 size -= 2 * sectorsize;
1139
1140                 /* Handle size argument. */
1141                 len = sizeof(*sizearg);
1142                 sizearg = gctl_get_param(req, "size", &len);
1143                 if (sizearg != NULL && len == sizeof(*sizearg) &&
1144                     *sizearg > 0) {
1145                         if (*sizearg > size) {
1146                                 gctl_error(req, "Size too big %lld > %lld.",
1147                                     (long long)*sizearg, (long long)size);
1148                                 return (-9);
1149                         }
1150                         size = *sizearg;
1151                 }
1152
1153                 /* Handle strip argument. */
1154                 strip = 131072;
1155                 len = sizeof(*striparg);
1156                 striparg = gctl_get_param(req, "strip", &len);
1157                 if (striparg != NULL && len == sizeof(*striparg) &&
1158                     *striparg > 0) {
1159                         if (*striparg < sectorsize) {
1160                                 gctl_error(req, "Strip size too small.");
1161                                 return (-10);
1162                         }
1163                         if (*striparg % sectorsize != 0) {
1164                                 gctl_error(req, "Incorrect strip size.");
1165                                 return (-11);
1166                         }
1167                         if (strip > 65535 * sectorsize) {
1168                                 gctl_error(req, "Strip size too big.");
1169                                 return (-12);
1170                         }
1171                         strip = *striparg;
1172                 }
1173
1174                 /* Round size down to strip or sector. */
1175                 if (level == G_RAID_VOLUME_RL_RAID1)
1176                         size -= (size % sectorsize);
1177                 else if (level == G_RAID_VOLUME_RL_RAID1E &&
1178                     (numdisks & 1) != 0)
1179                         size -= (size % (2 * strip));
1180                 else
1181                         size -= (size % strip);
1182                 if (size <= 0) {
1183                         gctl_error(req, "Size too small.");
1184                         return (-13);
1185                 }
1186
1187                 if (level == G_RAID_VOLUME_RL_RAID0 ||
1188                     level == G_RAID_VOLUME_RL_CONCAT ||
1189                     level == G_RAID_VOLUME_RL_SINGLE)
1190                         volsize = size * numdisks;
1191                 else if (level == G_RAID_VOLUME_RL_RAID1)
1192                         volsize = size;
1193                 else if (level == G_RAID_VOLUME_RL_RAID5)
1194                         volsize = size * (numdisks - 1);
1195                 else { /* RAID1E */
1196                         volsize = ((size * numdisks) / strip / 2) *
1197                             strip;
1198                 }
1199                 if (volsize > 0xffffffffllu * sectorsize) {
1200                         gctl_error(req, "Size too big.");
1201                         return (-14);
1202                 }
1203
1204                 /* We have all we need, create things: volume, ... */
1205                 mdi->mdio_total_disks = numdisks;
1206                 mdi->mdio_started = 1;
1207                 vol = g_raid_create_volume(sc, volname, -1);
1208                 vol->v_md_data = (void *)(intptr_t)0;
1209                 vol->v_raid_level = level;
1210                 vol->v_raid_level_qualifier = G_RAID_VOLUME_RLQ_NONE;
1211                 vol->v_strip_size = strip;
1212                 vol->v_disks_count = numdisks;
1213                 vol->v_mediasize = volsize;
1214                 vol->v_sectorsize = sectorsize;
1215                 g_raid_start_volume(vol);
1216
1217                 /* , and subdisks. */
1218                 TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
1219                         pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
1220                         sd = &vol->v_subdisks[pd->pd_disk_pos];
1221                         sd->sd_disk = disk;
1222                         sd->sd_offset = 0;
1223                         sd->sd_size = size;
1224                         TAILQ_INSERT_TAIL(&disk->d_subdisks, sd, sd_next);
1225                         if (sd->sd_disk->d_consumer != NULL) {
1226                                 g_raid_change_disk_state(disk,
1227                                     G_RAID_DISK_S_ACTIVE);
1228                                 g_raid_change_subdisk_state(sd,
1229                                     G_RAID_SUBDISK_S_ACTIVE);
1230                                 g_raid_event_send(sd, G_RAID_SUBDISK_E_NEW,
1231                                     G_RAID_EVENT_SUBDISK);
1232                         } else {
1233                                 g_raid_change_disk_state(disk, G_RAID_DISK_S_OFFLINE);
1234                         }
1235                 }
1236
1237                 /* Write metadata based on created entities. */
1238                 G_RAID_DEBUG1(0, sc, "Array started.");
1239                 g_raid_md_write_nvidia(md, NULL, NULL, NULL);
1240
1241                 /* Pickup any STALE/SPARE disks to refill array if needed. */
1242                 g_raid_md_nvidia_refill(sc);
1243
1244                 g_raid_event_send(vol, G_RAID_VOLUME_E_START,
1245                     G_RAID_EVENT_VOLUME);
1246                 return (0);
1247         }
1248         if (strcmp(verb, "delete") == 0) {
1249
1250                 /* Check if some volume is still open. */
1251                 force = gctl_get_paraml(req, "force", sizeof(*force));
1252                 if (force != NULL && *force == 0 &&
1253                     g_raid_nopens(sc) != 0) {
1254                         gctl_error(req, "Some volume is still open.");
1255                         return (-4);
1256                 }
1257
1258                 TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
1259                         if (disk->d_consumer)
1260                                 nvidia_meta_erase(disk->d_consumer);
1261                 }
1262                 g_raid_destroy_node(sc, 0);
1263                 return (0);
1264         }
1265         if (strcmp(verb, "remove") == 0 ||
1266             strcmp(verb, "fail") == 0) {
1267                 if (*nargs < 2) {
1268                         gctl_error(req, "Invalid number of arguments.");
1269                         return (-1);
1270                 }
1271                 for (i = 1; i < *nargs; i++) {
1272                         snprintf(arg, sizeof(arg), "arg%d", i);
1273                         diskname = gctl_get_asciiparam(req, arg);
1274                         if (diskname == NULL) {
1275                                 gctl_error(req, "No disk name (%s).", arg);
1276                                 error = -2;
1277                                 break;
1278                         }
1279                         if (strncmp(diskname, "/dev/", 5) == 0)
1280                                 diskname += 5;
1281
1282                         TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
1283                                 if (disk->d_consumer != NULL && 
1284                                     disk->d_consumer->provider != NULL &&
1285                                     strcmp(disk->d_consumer->provider->name,
1286                                      diskname) == 0)
1287                                         break;
1288                         }
1289                         if (disk == NULL) {
1290                                 gctl_error(req, "Disk '%s' not found.",
1291                                     diskname);
1292                                 error = -3;
1293                                 break;
1294                         }
1295
1296                         if (strcmp(verb, "fail") == 0) {
1297                                 g_raid_md_fail_disk_nvidia(md, NULL, disk);
1298                                 continue;
1299                         }
1300
1301                         pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
1302
1303                         /* Erase metadata on deleting disk. */
1304                         nvidia_meta_erase(disk->d_consumer);
1305
1306                         /* If disk was assigned, just update statuses. */
1307                         if (pd->pd_disk_pos >= 0) {
1308                                 g_raid_change_disk_state(disk, G_RAID_DISK_S_OFFLINE);
1309                                 g_raid_kill_consumer(sc, disk->d_consumer);
1310                                 disk->d_consumer = NULL;
1311                                 TAILQ_FOREACH(sd, &disk->d_subdisks, sd_next) {
1312                                         g_raid_change_subdisk_state(sd,
1313                                             G_RAID_SUBDISK_S_NONE);
1314                                         g_raid_event_send(sd, G_RAID_SUBDISK_E_DISCONNECTED,
1315                                             G_RAID_EVENT_SUBDISK);
1316                                 }
1317                         } else {
1318                                 /* Otherwise -- delete. */
1319                                 g_raid_change_disk_state(disk, G_RAID_DISK_S_NONE);
1320                                 g_raid_destroy_disk(disk);
1321                         }
1322                 }
1323
1324                 /* Write updated metadata to remaining disks. */
1325                 g_raid_md_write_nvidia(md, NULL, NULL, NULL);
1326
1327                 /* Check if anything left except placeholders. */
1328                 if (g_raid_ndisks(sc, -1) ==
1329                     g_raid_ndisks(sc, G_RAID_DISK_S_OFFLINE))
1330                         g_raid_destroy_node(sc, 0);
1331                 else
1332                         g_raid_md_nvidia_refill(sc);
1333                 return (error);
1334         }
1335         if (strcmp(verb, "insert") == 0) {
1336                 if (*nargs < 2) {
1337                         gctl_error(req, "Invalid number of arguments.");
1338                         return (-1);
1339                 }
1340                 update = 0;
1341                 for (i = 1; i < *nargs; i++) {
1342                         /* Get disk name. */
1343                         snprintf(arg, sizeof(arg), "arg%d", i);
1344                         diskname = gctl_get_asciiparam(req, arg);
1345                         if (diskname == NULL) {
1346                                 gctl_error(req, "No disk name (%s).", arg);
1347                                 error = -3;
1348                                 break;
1349                         }
1350
1351                         /* Try to find provider with specified name. */
1352                         g_topology_lock();
1353                         cp = g_raid_open_consumer(sc, diskname);
1354                         if (cp == NULL) {
1355                                 gctl_error(req, "Can't open disk '%s'.",
1356                                     diskname);
1357                                 g_topology_unlock();
1358                                 error = -4;
1359                                 break;
1360                         }
1361                         pp = cp->provider;
1362
1363                         pd = malloc(sizeof(*pd), M_MD_NVIDIA, M_WAITOK | M_ZERO);
1364                         pd->pd_disk_pos = -3;
1365                         pd->pd_disk_size = pp->mediasize;
1366
1367                         disk = g_raid_create_disk(sc);
1368                         disk->d_consumer = cp;
1369                         disk->d_md_data = (void *)pd;
1370                         cp->private = disk;
1371                         g_topology_unlock();
1372
1373                         /* Read kernel dumping information. */
1374                         disk->d_kd.offset = 0;
1375                         disk->d_kd.length = OFF_MAX;
1376                         len = sizeof(disk->d_kd);
1377                         g_io_getattr("GEOM::kerneldump", cp, &len, &disk->d_kd);
1378                         if (disk->d_kd.di.dumper == NULL)
1379                                 G_RAID_DEBUG1(2, sc,
1380                                     "Dumping not supported by %s.",
1381                                     cp->provider->name);
1382
1383                         /* Welcome the "new" disk. */
1384                         update += g_raid_md_nvidia_start_disk(disk);
1385                         if (disk->d_state != G_RAID_DISK_S_SPARE &&
1386                             disk->d_state != G_RAID_DISK_S_ACTIVE) {
1387                                 gctl_error(req, "Disk '%s' doesn't fit.",
1388                                     diskname);
1389                                 g_raid_destroy_disk(disk);
1390                                 error = -8;
1391                                 break;
1392                         }
1393                 }
1394
1395                 /* Write new metadata if we changed something. */
1396                 if (update)
1397                         g_raid_md_write_nvidia(md, NULL, NULL, NULL);
1398                 return (error);
1399         }
1400         gctl_error(req, "Command '%s' is not supported.", verb);
1401         return (-100);
1402 }
1403
1404 static int
1405 g_raid_md_write_nvidia(struct g_raid_md_object *md, struct g_raid_volume *tvol,
1406     struct g_raid_subdisk *tsd, struct g_raid_disk *tdisk)
1407 {
1408         struct g_raid_softc *sc;
1409         struct g_raid_volume *vol;
1410         struct g_raid_subdisk *sd;
1411         struct g_raid_disk *disk;
1412         struct g_raid_md_nvidia_object *mdi;
1413         struct g_raid_md_nvidia_perdisk *pd;
1414         struct nvidia_raid_conf *meta;
1415         int i, spares;
1416
1417         sc = md->mdo_softc;
1418         mdi = (struct g_raid_md_nvidia_object *)md;
1419
1420         if (sc->sc_stopping == G_RAID_DESTROY_HARD)
1421                 return (0);
1422
1423         /* There is only one volume. */
1424         vol = TAILQ_FIRST(&sc->sc_volumes);
1425
1426         /* Fill global fields. */
1427         meta = malloc(sizeof(*meta), M_MD_NVIDIA, M_WAITOK | M_ZERO);
1428         if (mdi->mdio_meta)
1429                 memcpy(meta, mdi->mdio_meta, sizeof(*meta));
1430         memcpy(meta->nvidia_id, NVIDIA_MAGIC, sizeof(NVIDIA_MAGIC) - 1);
1431         meta->config_size = 30;
1432         meta->version = 0x0064;
1433         meta->total_sectors = vol->v_mediasize / vol->v_sectorsize;
1434         meta->sector_size = vol->v_sectorsize;
1435         nvidia_meta_put_name(meta, vol->v_name);
1436         meta->magic_0 = NVIDIA_MAGIC0;
1437         memcpy(&meta->volume_id, &mdi->mdio_volume_id, 16);
1438         meta->state = NVIDIA_S_IDLE;
1439         if (vol->v_raid_level == G_RAID_VOLUME_RL_RAID1)
1440                 meta->array_width = 1;
1441         else if (vol->v_raid_level == G_RAID_VOLUME_RL_RAID1E)
1442                 meta->array_width = vol->v_disks_count / 2;
1443         else if (vol->v_raid_level == G_RAID_VOLUME_RL_RAID5)
1444                 meta->array_width = vol->v_disks_count - 1;
1445         else
1446                 meta->array_width = vol->v_disks_count;
1447         meta->total_disks = vol->v_disks_count;
1448         meta->orig_array_width = meta->array_width;
1449         if (vol->v_raid_level == G_RAID_VOLUME_RL_RAID0)
1450                 meta->type = NVIDIA_T_RAID0;
1451         else if (vol->v_raid_level == G_RAID_VOLUME_RL_RAID1)
1452                 meta->type = NVIDIA_T_RAID1;
1453         else if (vol->v_raid_level == G_RAID_VOLUME_RL_RAID1E)
1454                 meta->type = NVIDIA_T_RAID01;
1455         else if (vol->v_raid_level == G_RAID_VOLUME_RL_CONCAT ||
1456             vol->v_raid_level == G_RAID_VOLUME_RL_SINGLE)
1457                 meta->type = NVIDIA_T_CONCAT;
1458 //      else if (vol->v_raid_level_qualifier == 0)
1459 //              meta->type = NVIDIA_T_RAID5;
1460         else
1461                 meta->type = NVIDIA_T_RAID5_SYM;
1462         meta->strip_sectors = vol->v_strip_size / vol->v_sectorsize;
1463         meta->strip_bytes = vol->v_strip_size;
1464         meta->strip_shift = ffs(meta->strip_sectors) - 1;
1465         meta->strip_mask = meta->strip_sectors - 1;
1466         meta->stripe_sectors = meta->strip_sectors * meta->orig_array_width;
1467         meta->stripe_bytes = meta->stripe_sectors * vol->v_sectorsize;
1468         meta->rebuild_lba = 0;
1469         meta->orig_type = meta->type;
1470         meta->orig_total_sectors = meta->total_sectors;
1471         meta->status = 0;
1472
1473         for (i = 0; i < vol->v_disks_count; i++) {
1474                 sd = &vol->v_subdisks[i];
1475                 if ((sd->sd_state == G_RAID_SUBDISK_S_STALE ||
1476                      sd->sd_state == G_RAID_SUBDISK_S_RESYNC ||
1477                      vol->v_dirty) &&
1478                      meta->state != NVIDIA_S_REBUILD)
1479                         meta->state = NVIDIA_S_SYNC;
1480                 else if (sd->sd_state == G_RAID_SUBDISK_S_NEW ||
1481                      sd->sd_state == G_RAID_SUBDISK_S_REBUILD)
1482                         meta->state = NVIDIA_S_REBUILD;
1483         }
1484
1485         /* We are done. Print meta data and store them to disks. */
1486         if (mdi->mdio_meta != NULL)
1487                 free(mdi->mdio_meta, M_MD_NVIDIA);
1488         mdi->mdio_meta = meta;
1489         spares = 0;
1490         TAILQ_FOREACH(disk, &sc->sc_disks, d_next) {
1491                 pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
1492                 if (disk->d_state != G_RAID_DISK_S_ACTIVE &&
1493                     disk->d_state != G_RAID_DISK_S_SPARE)
1494                         continue;
1495                 if (pd->pd_meta != NULL) {
1496                         free(pd->pd_meta, M_MD_NVIDIA);
1497                         pd->pd_meta = NULL;
1498                 }
1499                 pd->pd_meta = nvidia_meta_copy(meta);
1500                 if ((sd = TAILQ_FIRST(&disk->d_subdisks)) != NULL) {
1501                         /* For RAID0+1 we need to translate order. */
1502                         pd->pd_meta->disk_number =
1503                             nvidia_meta_translate_disk(meta, sd->sd_pos);
1504                         if (sd->sd_state != G_RAID_SUBDISK_S_ACTIVE) {
1505                                 pd->pd_meta->disk_status = 0x100;
1506                                 pd->pd_meta->rebuild_lba =
1507                                     sd->sd_rebuild_pos / vol->v_sectorsize *
1508                                     meta->array_width;
1509                         }
1510                 } else
1511                         pd->pd_meta->disk_number = meta->total_disks + spares++;
1512                 G_RAID_DEBUG(1, "Writing NVIDIA metadata to %s",
1513                     g_raid_get_diskname(disk));
1514                 g_raid_md_nvidia_print(pd->pd_meta);
1515                 nvidia_meta_write(disk->d_consumer, pd->pd_meta);
1516         }
1517         return (0);
1518 }
1519
1520 static int
1521 g_raid_md_fail_disk_nvidia(struct g_raid_md_object *md,
1522     struct g_raid_subdisk *tsd, struct g_raid_disk *tdisk)
1523 {
1524         struct g_raid_softc *sc;
1525         struct g_raid_md_nvidia_perdisk *pd;
1526         struct g_raid_subdisk *sd;
1527
1528         sc = md->mdo_softc;
1529         pd = (struct g_raid_md_nvidia_perdisk *)tdisk->d_md_data;
1530
1531         /* We can't fail disk that is not a part of array now. */
1532         if (pd->pd_disk_pos < 0)
1533                 return (-1);
1534
1535         /* Erase metadata to prevent disks's later resurrection. */
1536         if (tdisk->d_consumer)
1537                 nvidia_meta_erase(tdisk->d_consumer);
1538
1539         /* Change states. */
1540         g_raid_change_disk_state(tdisk, G_RAID_DISK_S_FAILED);
1541         TAILQ_FOREACH(sd, &tdisk->d_subdisks, sd_next) {
1542                 g_raid_change_subdisk_state(sd,
1543                     G_RAID_SUBDISK_S_FAILED);
1544                 g_raid_event_send(sd, G_RAID_SUBDISK_E_FAILED,
1545                     G_RAID_EVENT_SUBDISK);
1546         }
1547
1548         /* Write updated metadata to remaining disks. */
1549         g_raid_md_write_nvidia(md, NULL, NULL, tdisk);
1550
1551         /* Check if anything left except placeholders. */
1552         if (g_raid_ndisks(sc, -1) ==
1553             g_raid_ndisks(sc, G_RAID_DISK_S_OFFLINE))
1554                 g_raid_destroy_node(sc, 0);
1555         else
1556                 g_raid_md_nvidia_refill(sc);
1557         return (0);
1558 }
1559
1560 static int
1561 g_raid_md_free_disk_nvidia(struct g_raid_md_object *md,
1562     struct g_raid_disk *disk)
1563 {
1564         struct g_raid_md_nvidia_perdisk *pd;
1565
1566         pd = (struct g_raid_md_nvidia_perdisk *)disk->d_md_data;
1567         if (pd->pd_meta != NULL) {
1568                 free(pd->pd_meta, M_MD_NVIDIA);
1569                 pd->pd_meta = NULL;
1570         }
1571         free(pd, M_MD_NVIDIA);
1572         disk->d_md_data = NULL;
1573         return (0);
1574 }
1575
1576 static int
1577 g_raid_md_free_nvidia(struct g_raid_md_object *md)
1578 {
1579         struct g_raid_md_nvidia_object *mdi;
1580
1581         mdi = (struct g_raid_md_nvidia_object *)md;
1582         if (!mdi->mdio_started) {
1583                 mdi->mdio_started = 0;
1584                 callout_stop(&mdi->mdio_start_co);
1585                 G_RAID_DEBUG1(1, md->mdo_softc,
1586                     "root_mount_rel %p", mdi->mdio_rootmount);
1587                 root_mount_rel(mdi->mdio_rootmount);
1588                 mdi->mdio_rootmount = NULL;
1589         }
1590         if (mdi->mdio_meta != NULL) {
1591                 free(mdi->mdio_meta, M_MD_NVIDIA);
1592                 mdi->mdio_meta = NULL;
1593         }
1594         return (0);
1595 }
1596
1597 G_RAID_MD_DECLARE(g_raid_md_nvidia);