]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/cddl/contrib/opensolaris/uts/common/fs/zfs/metaslab.c
MFC r316908: 7541 zpool import/tryimport ioctl returns ENOMEM because provided buffer...
[FreeBSD/FreeBSD.git] / sys / cddl / contrib / opensolaris / uts / common / fs / zfs / metaslab.c
1 /*
2  * CDDL HEADER START
3  *
4  * The contents of this file are subject to the terms of the
5  * Common Development and Distribution License (the "License").
6  * You may not use this file except in compliance with the License.
7  *
8  * You can obtain a copy of the license at usr/src/OPENSOLARIS.LICENSE
9  * or http://www.opensolaris.org/os/licensing.
10  * See the License for the specific language governing permissions
11  * and limitations under the License.
12  *
13  * When distributing Covered Code, include this CDDL HEADER in each
14  * file and include the License file at usr/src/OPENSOLARIS.LICENSE.
15  * If applicable, add the following below this CDDL HEADER, with the
16  * fields enclosed by brackets "[]" replaced with your own identifying
17  * information: Portions Copyright [yyyy] [name of copyright owner]
18  *
19  * CDDL HEADER END
20  */
21 /*
22  * Copyright (c) 2005, 2010, Oracle and/or its affiliates. All rights reserved.
23  * Copyright (c) 2011, 2015 by Delphix. All rights reserved.
24  * Copyright (c) 2013 by Saso Kiselkov. All rights reserved.
25  * Copyright (c) 2014 Integros [integros.com]
26  */
27
28 #include <sys/zfs_context.h>
29 #include <sys/dmu.h>
30 #include <sys/dmu_tx.h>
31 #include <sys/space_map.h>
32 #include <sys/metaslab_impl.h>
33 #include <sys/vdev_impl.h>
34 #include <sys/zio.h>
35 #include <sys/spa_impl.h>
36 #include <sys/zfeature.h>
37
38 SYSCTL_DECL(_vfs_zfs);
39 SYSCTL_NODE(_vfs_zfs, OID_AUTO, metaslab, CTLFLAG_RW, 0, "ZFS metaslab");
40
41 #define GANG_ALLOCATION(flags) \
42         ((flags) & (METASLAB_GANG_CHILD | METASLAB_GANG_HEADER))
43
44 uint64_t metaslab_aliquot = 512ULL << 10;
45 uint64_t metaslab_gang_bang = SPA_MAXBLOCKSIZE + 1;     /* force gang blocks */
46 SYSCTL_QUAD(_vfs_zfs_metaslab, OID_AUTO, gang_bang, CTLFLAG_RWTUN,
47     &metaslab_gang_bang, 0,
48     "Force gang block allocation for blocks larger than or equal to this value");
49
50 /*
51  * The in-core space map representation is more compact than its on-disk form.
52  * The zfs_condense_pct determines how much more compact the in-core
53  * space map representation must be before we compact it on-disk.
54  * Values should be greater than or equal to 100.
55  */
56 int zfs_condense_pct = 200;
57 SYSCTL_INT(_vfs_zfs, OID_AUTO, condense_pct, CTLFLAG_RWTUN,
58     &zfs_condense_pct, 0,
59     "Condense on-disk spacemap when it is more than this many percents"
60     " of in-memory counterpart");
61
62 /*
63  * Condensing a metaslab is not guaranteed to actually reduce the amount of
64  * space used on disk. In particular, a space map uses data in increments of
65  * MAX(1 << ashift, space_map_blksize), so a metaslab might use the
66  * same number of blocks after condensing. Since the goal of condensing is to
67  * reduce the number of IOPs required to read the space map, we only want to
68  * condense when we can be sure we will reduce the number of blocks used by the
69  * space map. Unfortunately, we cannot precisely compute whether or not this is
70  * the case in metaslab_should_condense since we are holding ms_lock. Instead,
71  * we apply the following heuristic: do not condense a spacemap unless the
72  * uncondensed size consumes greater than zfs_metaslab_condense_block_threshold
73  * blocks.
74  */
75 int zfs_metaslab_condense_block_threshold = 4;
76
77 /*
78  * The zfs_mg_noalloc_threshold defines which metaslab groups should
79  * be eligible for allocation. The value is defined as a percentage of
80  * free space. Metaslab groups that have more free space than
81  * zfs_mg_noalloc_threshold are always eligible for allocations. Once
82  * a metaslab group's free space is less than or equal to the
83  * zfs_mg_noalloc_threshold the allocator will avoid allocating to that
84  * group unless all groups in the pool have reached zfs_mg_noalloc_threshold.
85  * Once all groups in the pool reach zfs_mg_noalloc_threshold then all
86  * groups are allowed to accept allocations. Gang blocks are always
87  * eligible to allocate on any metaslab group. The default value of 0 means
88  * no metaslab group will be excluded based on this criterion.
89  */
90 int zfs_mg_noalloc_threshold = 0;
91 SYSCTL_INT(_vfs_zfs, OID_AUTO, mg_noalloc_threshold, CTLFLAG_RWTUN,
92     &zfs_mg_noalloc_threshold, 0,
93     "Percentage of metaslab group size that should be free"
94     " to make it eligible for allocation");
95
96 /*
97  * Metaslab groups are considered eligible for allocations if their
98  * fragmenation metric (measured as a percentage) is less than or equal to
99  * zfs_mg_fragmentation_threshold. If a metaslab group exceeds this threshold
100  * then it will be skipped unless all metaslab groups within the metaslab
101  * class have also crossed this threshold.
102  */
103 int zfs_mg_fragmentation_threshold = 85;
104 SYSCTL_INT(_vfs_zfs, OID_AUTO, mg_fragmentation_threshold, CTLFLAG_RWTUN,
105     &zfs_mg_fragmentation_threshold, 0,
106     "Percentage of metaslab group size that should be considered "
107     "eligible for allocations unless all metaslab groups within the metaslab class "
108     "have also crossed this threshold");
109
110 /*
111  * Allow metaslabs to keep their active state as long as their fragmentation
112  * percentage is less than or equal to zfs_metaslab_fragmentation_threshold. An
113  * active metaslab that exceeds this threshold will no longer keep its active
114  * status allowing better metaslabs to be selected.
115  */
116 int zfs_metaslab_fragmentation_threshold = 70;
117 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, fragmentation_threshold, CTLFLAG_RWTUN,
118     &zfs_metaslab_fragmentation_threshold, 0,
119     "Maximum percentage of metaslab fragmentation level to keep their active state");
120
121 /*
122  * When set will load all metaslabs when pool is first opened.
123  */
124 int metaslab_debug_load = 0;
125 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, debug_load, CTLFLAG_RWTUN,
126     &metaslab_debug_load, 0,
127     "Load all metaslabs when pool is first opened");
128
129 /*
130  * When set will prevent metaslabs from being unloaded.
131  */
132 int metaslab_debug_unload = 0;
133 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, debug_unload, CTLFLAG_RWTUN,
134     &metaslab_debug_unload, 0,
135     "Prevent metaslabs from being unloaded");
136
137 /*
138  * Minimum size which forces the dynamic allocator to change
139  * it's allocation strategy.  Once the space map cannot satisfy
140  * an allocation of this size then it switches to using more
141  * aggressive strategy (i.e search by size rather than offset).
142  */
143 uint64_t metaslab_df_alloc_threshold = SPA_OLD_MAXBLOCKSIZE;
144 SYSCTL_QUAD(_vfs_zfs_metaslab, OID_AUTO, df_alloc_threshold, CTLFLAG_RWTUN,
145     &metaslab_df_alloc_threshold, 0,
146     "Minimum size which forces the dynamic allocator to change it's allocation strategy");
147
148 /*
149  * The minimum free space, in percent, which must be available
150  * in a space map to continue allocations in a first-fit fashion.
151  * Once the space map's free space drops below this level we dynamically
152  * switch to using best-fit allocations.
153  */
154 int metaslab_df_free_pct = 4;
155 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, df_free_pct, CTLFLAG_RWTUN,
156     &metaslab_df_free_pct, 0,
157     "The minimum free space, in percent, which must be available in a "
158     "space map to continue allocations in a first-fit fashion");
159
160 /*
161  * A metaslab is considered "free" if it contains a contiguous
162  * segment which is greater than metaslab_min_alloc_size.
163  */
164 uint64_t metaslab_min_alloc_size = DMU_MAX_ACCESS;
165 SYSCTL_QUAD(_vfs_zfs_metaslab, OID_AUTO, min_alloc_size, CTLFLAG_RWTUN,
166     &metaslab_min_alloc_size, 0,
167     "A metaslab is considered \"free\" if it contains a contiguous "
168     "segment which is greater than vfs.zfs.metaslab.min_alloc_size");
169
170 /*
171  * Percentage of all cpus that can be used by the metaslab taskq.
172  */
173 int metaslab_load_pct = 50;
174 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, load_pct, CTLFLAG_RWTUN,
175     &metaslab_load_pct, 0,
176     "Percentage of cpus that can be used by the metaslab taskq");
177
178 /*
179  * Determines how many txgs a metaslab may remain loaded without having any
180  * allocations from it. As long as a metaslab continues to be used we will
181  * keep it loaded.
182  */
183 int metaslab_unload_delay = TXG_SIZE * 2;
184 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, unload_delay, CTLFLAG_RWTUN,
185     &metaslab_unload_delay, 0,
186     "Number of TXGs that an unused metaslab can be kept in memory");
187
188 /*
189  * Max number of metaslabs per group to preload.
190  */
191 int metaslab_preload_limit = SPA_DVAS_PER_BP;
192 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, preload_limit, CTLFLAG_RWTUN,
193     &metaslab_preload_limit, 0,
194     "Max number of metaslabs per group to preload");
195
196 /*
197  * Enable/disable preloading of metaslab.
198  */
199 boolean_t metaslab_preload_enabled = B_TRUE;
200 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, preload_enabled, CTLFLAG_RWTUN,
201     &metaslab_preload_enabled, 0,
202     "Max number of metaslabs per group to preload");
203
204 /*
205  * Enable/disable fragmentation weighting on metaslabs.
206  */
207 boolean_t metaslab_fragmentation_factor_enabled = B_TRUE;
208 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, fragmentation_factor_enabled, CTLFLAG_RWTUN,
209     &metaslab_fragmentation_factor_enabled, 0,
210     "Enable fragmentation weighting on metaslabs");
211
212 /*
213  * Enable/disable lba weighting (i.e. outer tracks are given preference).
214  */
215 boolean_t metaslab_lba_weighting_enabled = B_TRUE;
216 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, lba_weighting_enabled, CTLFLAG_RWTUN,
217     &metaslab_lba_weighting_enabled, 0,
218     "Enable LBA weighting (i.e. outer tracks are given preference)");
219
220 /*
221  * Enable/disable metaslab group biasing.
222  */
223 boolean_t metaslab_bias_enabled = B_TRUE;
224 SYSCTL_INT(_vfs_zfs_metaslab, OID_AUTO, bias_enabled, CTLFLAG_RWTUN,
225     &metaslab_bias_enabled, 0,
226     "Enable metaslab group biasing");
227
228 /*
229  * Enable/disable segment-based metaslab selection.
230  */
231 boolean_t zfs_metaslab_segment_weight_enabled = B_TRUE;
232
233 /*
234  * When using segment-based metaslab selection, we will continue
235  * allocating from the active metaslab until we have exhausted
236  * zfs_metaslab_switch_threshold of its buckets.
237  */
238 int zfs_metaslab_switch_threshold = 2;
239
240 /*
241  * Internal switch to enable/disable the metaslab allocation tracing
242  * facility.
243  */
244 boolean_t metaslab_trace_enabled = B_TRUE;
245
246 /*
247  * Maximum entries that the metaslab allocation tracing facility will keep
248  * in a given list when running in non-debug mode. We limit the number
249  * of entries in non-debug mode to prevent us from using up too much memory.
250  * The limit should be sufficiently large that we don't expect any allocation
251  * to every exceed this value. In debug mode, the system will panic if this
252  * limit is ever reached allowing for further investigation.
253  */
254 uint64_t metaslab_trace_max_entries = 5000;
255
256 static uint64_t metaslab_weight(metaslab_t *);
257 static void metaslab_set_fragmentation(metaslab_t *);
258
259 kmem_cache_t *metaslab_alloc_trace_cache;
260
261 /*
262  * ==========================================================================
263  * Metaslab classes
264  * ==========================================================================
265  */
266 metaslab_class_t *
267 metaslab_class_create(spa_t *spa, metaslab_ops_t *ops)
268 {
269         metaslab_class_t *mc;
270
271         mc = kmem_zalloc(sizeof (metaslab_class_t), KM_SLEEP);
272
273         mc->mc_spa = spa;
274         mc->mc_rotor = NULL;
275         mc->mc_ops = ops;
276         mutex_init(&mc->mc_lock, NULL, MUTEX_DEFAULT, NULL);
277         refcount_create_tracked(&mc->mc_alloc_slots);
278
279         return (mc);
280 }
281
282 void
283 metaslab_class_destroy(metaslab_class_t *mc)
284 {
285         ASSERT(mc->mc_rotor == NULL);
286         ASSERT(mc->mc_alloc == 0);
287         ASSERT(mc->mc_deferred == 0);
288         ASSERT(mc->mc_space == 0);
289         ASSERT(mc->mc_dspace == 0);
290
291         refcount_destroy(&mc->mc_alloc_slots);
292         mutex_destroy(&mc->mc_lock);
293         kmem_free(mc, sizeof (metaslab_class_t));
294 }
295
296 int
297 metaslab_class_validate(metaslab_class_t *mc)
298 {
299         metaslab_group_t *mg;
300         vdev_t *vd;
301
302         /*
303          * Must hold one of the spa_config locks.
304          */
305         ASSERT(spa_config_held(mc->mc_spa, SCL_ALL, RW_READER) ||
306             spa_config_held(mc->mc_spa, SCL_ALL, RW_WRITER));
307
308         if ((mg = mc->mc_rotor) == NULL)
309                 return (0);
310
311         do {
312                 vd = mg->mg_vd;
313                 ASSERT(vd->vdev_mg != NULL);
314                 ASSERT3P(vd->vdev_top, ==, vd);
315                 ASSERT3P(mg->mg_class, ==, mc);
316                 ASSERT3P(vd->vdev_ops, !=, &vdev_hole_ops);
317         } while ((mg = mg->mg_next) != mc->mc_rotor);
318
319         return (0);
320 }
321
322 void
323 metaslab_class_space_update(metaslab_class_t *mc, int64_t alloc_delta,
324     int64_t defer_delta, int64_t space_delta, int64_t dspace_delta)
325 {
326         atomic_add_64(&mc->mc_alloc, alloc_delta);
327         atomic_add_64(&mc->mc_deferred, defer_delta);
328         atomic_add_64(&mc->mc_space, space_delta);
329         atomic_add_64(&mc->mc_dspace, dspace_delta);
330 }
331
332 void
333 metaslab_class_minblocksize_update(metaslab_class_t *mc)
334 {
335         metaslab_group_t *mg;
336         vdev_t *vd;
337         uint64_t minashift = UINT64_MAX;
338
339         if ((mg = mc->mc_rotor) == NULL) {
340                 mc->mc_minblocksize = SPA_MINBLOCKSIZE;
341                 return;
342         }
343
344         do {
345                 vd = mg->mg_vd;
346                 if (vd->vdev_ashift < minashift)
347                         minashift = vd->vdev_ashift;
348         } while ((mg = mg->mg_next) != mc->mc_rotor);
349
350         mc->mc_minblocksize = 1ULL << minashift;
351 }
352
353 uint64_t
354 metaslab_class_get_alloc(metaslab_class_t *mc)
355 {
356         return (mc->mc_alloc);
357 }
358
359 uint64_t
360 metaslab_class_get_deferred(metaslab_class_t *mc)
361 {
362         return (mc->mc_deferred);
363 }
364
365 uint64_t
366 metaslab_class_get_space(metaslab_class_t *mc)
367 {
368         return (mc->mc_space);
369 }
370
371 uint64_t
372 metaslab_class_get_dspace(metaslab_class_t *mc)
373 {
374         return (spa_deflate(mc->mc_spa) ? mc->mc_dspace : mc->mc_space);
375 }
376
377 uint64_t
378 metaslab_class_get_minblocksize(metaslab_class_t *mc)
379 {
380         return (mc->mc_minblocksize);
381 }
382
383 void
384 metaslab_class_histogram_verify(metaslab_class_t *mc)
385 {
386         vdev_t *rvd = mc->mc_spa->spa_root_vdev;
387         uint64_t *mc_hist;
388         int i;
389
390         if ((zfs_flags & ZFS_DEBUG_HISTOGRAM_VERIFY) == 0)
391                 return;
392
393         mc_hist = kmem_zalloc(sizeof (uint64_t) * RANGE_TREE_HISTOGRAM_SIZE,
394             KM_SLEEP);
395
396         for (int c = 0; c < rvd->vdev_children; c++) {
397                 vdev_t *tvd = rvd->vdev_child[c];
398                 metaslab_group_t *mg = tvd->vdev_mg;
399
400                 /*
401                  * Skip any holes, uninitialized top-levels, or
402                  * vdevs that are not in this metalab class.
403                  */
404                 if (tvd->vdev_ishole || tvd->vdev_ms_shift == 0 ||
405                     mg->mg_class != mc) {
406                         continue;
407                 }
408
409                 for (i = 0; i < RANGE_TREE_HISTOGRAM_SIZE; i++)
410                         mc_hist[i] += mg->mg_histogram[i];
411         }
412
413         for (i = 0; i < RANGE_TREE_HISTOGRAM_SIZE; i++)
414                 VERIFY3U(mc_hist[i], ==, mc->mc_histogram[i]);
415
416         kmem_free(mc_hist, sizeof (uint64_t) * RANGE_TREE_HISTOGRAM_SIZE);
417 }
418
419 /*
420  * Calculate the metaslab class's fragmentation metric. The metric
421  * is weighted based on the space contribution of each metaslab group.
422  * The return value will be a number between 0 and 100 (inclusive), or
423  * ZFS_FRAG_INVALID if the metric has not been set. See comment above the
424  * zfs_frag_table for more information about the metric.
425  */
426 uint64_t
427 metaslab_class_fragmentation(metaslab_class_t *mc)
428 {
429         vdev_t *rvd = mc->mc_spa->spa_root_vdev;
430         uint64_t fragmentation = 0;
431
432         spa_config_enter(mc->mc_spa, SCL_VDEV, FTAG, RW_READER);
433
434         for (int c = 0; c < rvd->vdev_children; c++) {
435                 vdev_t *tvd = rvd->vdev_child[c];
436                 metaslab_group_t *mg = tvd->vdev_mg;
437
438                 /*
439                  * Skip any holes, uninitialized top-levels, or
440                  * vdevs that are not in this metalab class.
441                  */
442                 if (tvd->vdev_ishole || tvd->vdev_ms_shift == 0 ||
443                     mg->mg_class != mc) {
444                         continue;
445                 }
446
447                 /*
448                  * If a metaslab group does not contain a fragmentation
449                  * metric then just bail out.
450                  */
451                 if (mg->mg_fragmentation == ZFS_FRAG_INVALID) {
452                         spa_config_exit(mc->mc_spa, SCL_VDEV, FTAG);
453                         return (ZFS_FRAG_INVALID);
454                 }
455
456                 /*
457                  * Determine how much this metaslab_group is contributing
458                  * to the overall pool fragmentation metric.
459                  */
460                 fragmentation += mg->mg_fragmentation *
461                     metaslab_group_get_space(mg);
462         }
463         fragmentation /= metaslab_class_get_space(mc);
464
465         ASSERT3U(fragmentation, <=, 100);
466         spa_config_exit(mc->mc_spa, SCL_VDEV, FTAG);
467         return (fragmentation);
468 }
469
470 /*
471  * Calculate the amount of expandable space that is available in
472  * this metaslab class. If a device is expanded then its expandable
473  * space will be the amount of allocatable space that is currently not
474  * part of this metaslab class.
475  */
476 uint64_t
477 metaslab_class_expandable_space(metaslab_class_t *mc)
478 {
479         vdev_t *rvd = mc->mc_spa->spa_root_vdev;
480         uint64_t space = 0;
481
482         spa_config_enter(mc->mc_spa, SCL_VDEV, FTAG, RW_READER);
483         for (int c = 0; c < rvd->vdev_children; c++) {
484                 vdev_t *tvd = rvd->vdev_child[c];
485                 metaslab_group_t *mg = tvd->vdev_mg;
486
487                 if (tvd->vdev_ishole || tvd->vdev_ms_shift == 0 ||
488                     mg->mg_class != mc) {
489                         continue;
490                 }
491
492                 /*
493                  * Calculate if we have enough space to add additional
494                  * metaslabs. We report the expandable space in terms
495                  * of the metaslab size since that's the unit of expansion.
496                  */
497                 space += P2ALIGN(tvd->vdev_max_asize - tvd->vdev_asize,
498                     1ULL << tvd->vdev_ms_shift);
499         }
500         spa_config_exit(mc->mc_spa, SCL_VDEV, FTAG);
501         return (space);
502 }
503
504 static int
505 metaslab_compare(const void *x1, const void *x2)
506 {
507         const metaslab_t *m1 = x1;
508         const metaslab_t *m2 = x2;
509
510         if (m1->ms_weight < m2->ms_weight)
511                 return (1);
512         if (m1->ms_weight > m2->ms_weight)
513                 return (-1);
514
515         /*
516          * If the weights are identical, use the offset to force uniqueness.
517          */
518         if (m1->ms_start < m2->ms_start)
519                 return (-1);
520         if (m1->ms_start > m2->ms_start)
521                 return (1);
522
523         ASSERT3P(m1, ==, m2);
524
525         return (0);
526 }
527
528 /*
529  * Verify that the space accounting on disk matches the in-core range_trees.
530  */
531 void
532 metaslab_verify_space(metaslab_t *msp, uint64_t txg)
533 {
534         spa_t *spa = msp->ms_group->mg_vd->vdev_spa;
535         uint64_t allocated = 0;
536         uint64_t sm_free_space, msp_free_space;
537
538         ASSERT(MUTEX_HELD(&msp->ms_lock));
539
540         if ((zfs_flags & ZFS_DEBUG_METASLAB_VERIFY) == 0)
541                 return;
542
543         /*
544          * We can only verify the metaslab space when we're called
545          * from syncing context with a loaded metaslab that has an allocated
546          * space map. Calling this in non-syncing context does not
547          * provide a consistent view of the metaslab since we're performing
548          * allocations in the future.
549          */
550         if (txg != spa_syncing_txg(spa) || msp->ms_sm == NULL ||
551             !msp->ms_loaded)
552                 return;
553
554         sm_free_space = msp->ms_size - space_map_allocated(msp->ms_sm) -
555             space_map_alloc_delta(msp->ms_sm);
556
557         /*
558          * Account for future allocations since we would have already
559          * deducted that space from the ms_freetree.
560          */
561         for (int t = 0; t < TXG_CONCURRENT_STATES; t++) {
562                 allocated +=
563                     range_tree_space(msp->ms_alloctree[(txg + t) & TXG_MASK]);
564         }
565
566         msp_free_space = range_tree_space(msp->ms_tree) + allocated +
567             msp->ms_deferspace + range_tree_space(msp->ms_freedtree);
568
569         VERIFY3U(sm_free_space, ==, msp_free_space);
570 }
571
572 /*
573  * ==========================================================================
574  * Metaslab groups
575  * ==========================================================================
576  */
577 /*
578  * Update the allocatable flag and the metaslab group's capacity.
579  * The allocatable flag is set to true if the capacity is below
580  * the zfs_mg_noalloc_threshold or has a fragmentation value that is
581  * greater than zfs_mg_fragmentation_threshold. If a metaslab group
582  * transitions from allocatable to non-allocatable or vice versa then the
583  * metaslab group's class is updated to reflect the transition.
584  */
585 static void
586 metaslab_group_alloc_update(metaslab_group_t *mg)
587 {
588         vdev_t *vd = mg->mg_vd;
589         metaslab_class_t *mc = mg->mg_class;
590         vdev_stat_t *vs = &vd->vdev_stat;
591         boolean_t was_allocatable;
592         boolean_t was_initialized;
593
594         ASSERT(vd == vd->vdev_top);
595
596         mutex_enter(&mg->mg_lock);
597         was_allocatable = mg->mg_allocatable;
598         was_initialized = mg->mg_initialized;
599
600         mg->mg_free_capacity = ((vs->vs_space - vs->vs_alloc) * 100) /
601             (vs->vs_space + 1);
602
603         mutex_enter(&mc->mc_lock);
604
605         /*
606          * If the metaslab group was just added then it won't
607          * have any space until we finish syncing out this txg.
608          * At that point we will consider it initialized and available
609          * for allocations.  We also don't consider non-activated
610          * metaslab groups (e.g. vdevs that are in the middle of being removed)
611          * to be initialized, because they can't be used for allocation.
612          */
613         mg->mg_initialized = metaslab_group_initialized(mg);
614         if (!was_initialized && mg->mg_initialized) {
615                 mc->mc_groups++;
616         } else if (was_initialized && !mg->mg_initialized) {
617                 ASSERT3U(mc->mc_groups, >, 0);
618                 mc->mc_groups--;
619         }
620         if (mg->mg_initialized)
621                 mg->mg_no_free_space = B_FALSE;
622
623         /*
624          * A metaslab group is considered allocatable if it has plenty
625          * of free space or is not heavily fragmented. We only take
626          * fragmentation into account if the metaslab group has a valid
627          * fragmentation metric (i.e. a value between 0 and 100).
628          */
629         mg->mg_allocatable = (mg->mg_activation_count > 0 &&
630             mg->mg_free_capacity > zfs_mg_noalloc_threshold &&
631             (mg->mg_fragmentation == ZFS_FRAG_INVALID ||
632             mg->mg_fragmentation <= zfs_mg_fragmentation_threshold));
633
634         /*
635          * The mc_alloc_groups maintains a count of the number of
636          * groups in this metaslab class that are still above the
637          * zfs_mg_noalloc_threshold. This is used by the allocating
638          * threads to determine if they should avoid allocations to
639          * a given group. The allocator will avoid allocations to a group
640          * if that group has reached or is below the zfs_mg_noalloc_threshold
641          * and there are still other groups that are above the threshold.
642          * When a group transitions from allocatable to non-allocatable or
643          * vice versa we update the metaslab class to reflect that change.
644          * When the mc_alloc_groups value drops to 0 that means that all
645          * groups have reached the zfs_mg_noalloc_threshold making all groups
646          * eligible for allocations. This effectively means that all devices
647          * are balanced again.
648          */
649         if (was_allocatable && !mg->mg_allocatable)
650                 mc->mc_alloc_groups--;
651         else if (!was_allocatable && mg->mg_allocatable)
652                 mc->mc_alloc_groups++;
653         mutex_exit(&mc->mc_lock);
654
655         mutex_exit(&mg->mg_lock);
656 }
657
658 metaslab_group_t *
659 metaslab_group_create(metaslab_class_t *mc, vdev_t *vd)
660 {
661         metaslab_group_t *mg;
662
663         mg = kmem_zalloc(sizeof (metaslab_group_t), KM_SLEEP);
664         mutex_init(&mg->mg_lock, NULL, MUTEX_DEFAULT, NULL);
665         avl_create(&mg->mg_metaslab_tree, metaslab_compare,
666             sizeof (metaslab_t), offsetof(struct metaslab, ms_group_node));
667         mg->mg_vd = vd;
668         mg->mg_class = mc;
669         mg->mg_activation_count = 0;
670         mg->mg_initialized = B_FALSE;
671         mg->mg_no_free_space = B_TRUE;
672         refcount_create_tracked(&mg->mg_alloc_queue_depth);
673
674         mg->mg_taskq = taskq_create("metaslab_group_taskq", metaslab_load_pct,
675             minclsyspri, 10, INT_MAX, TASKQ_THREADS_CPU_PCT);
676
677         return (mg);
678 }
679
680 void
681 metaslab_group_destroy(metaslab_group_t *mg)
682 {
683         ASSERT(mg->mg_prev == NULL);
684         ASSERT(mg->mg_next == NULL);
685         /*
686          * We may have gone below zero with the activation count
687          * either because we never activated in the first place or
688          * because we're done, and possibly removing the vdev.
689          */
690         ASSERT(mg->mg_activation_count <= 0);
691
692         taskq_destroy(mg->mg_taskq);
693         avl_destroy(&mg->mg_metaslab_tree);
694         mutex_destroy(&mg->mg_lock);
695         refcount_destroy(&mg->mg_alloc_queue_depth);
696         kmem_free(mg, sizeof (metaslab_group_t));
697 }
698
699 void
700 metaslab_group_activate(metaslab_group_t *mg)
701 {
702         metaslab_class_t *mc = mg->mg_class;
703         metaslab_group_t *mgprev, *mgnext;
704
705         ASSERT(spa_config_held(mc->mc_spa, SCL_ALLOC, RW_WRITER));
706
707         ASSERT(mc->mc_rotor != mg);
708         ASSERT(mg->mg_prev == NULL);
709         ASSERT(mg->mg_next == NULL);
710         ASSERT(mg->mg_activation_count <= 0);
711
712         if (++mg->mg_activation_count <= 0)
713                 return;
714
715         mg->mg_aliquot = metaslab_aliquot * MAX(1, mg->mg_vd->vdev_children);
716         metaslab_group_alloc_update(mg);
717
718         if ((mgprev = mc->mc_rotor) == NULL) {
719                 mg->mg_prev = mg;
720                 mg->mg_next = mg;
721         } else {
722                 mgnext = mgprev->mg_next;
723                 mg->mg_prev = mgprev;
724                 mg->mg_next = mgnext;
725                 mgprev->mg_next = mg;
726                 mgnext->mg_prev = mg;
727         }
728         mc->mc_rotor = mg;
729         metaslab_class_minblocksize_update(mc);
730 }
731
732 void
733 metaslab_group_passivate(metaslab_group_t *mg)
734 {
735         metaslab_class_t *mc = mg->mg_class;
736         metaslab_group_t *mgprev, *mgnext;
737
738         ASSERT(spa_config_held(mc->mc_spa, SCL_ALLOC, RW_WRITER));
739
740         if (--mg->mg_activation_count != 0) {
741                 ASSERT(mc->mc_rotor != mg);
742                 ASSERT(mg->mg_prev == NULL);
743                 ASSERT(mg->mg_next == NULL);
744                 ASSERT(mg->mg_activation_count < 0);
745                 return;
746         }
747
748         taskq_wait(mg->mg_taskq);
749         metaslab_group_alloc_update(mg);
750
751         mgprev = mg->mg_prev;
752         mgnext = mg->mg_next;
753
754         if (mg == mgnext) {
755                 mc->mc_rotor = NULL;
756         } else {
757                 mc->mc_rotor = mgnext;
758                 mgprev->mg_next = mgnext;
759                 mgnext->mg_prev = mgprev;
760         }
761
762         mg->mg_prev = NULL;
763         mg->mg_next = NULL;
764         metaslab_class_minblocksize_update(mc);
765 }
766
767 boolean_t
768 metaslab_group_initialized(metaslab_group_t *mg)
769 {
770         vdev_t *vd = mg->mg_vd;
771         vdev_stat_t *vs = &vd->vdev_stat;
772
773         return (vs->vs_space != 0 && mg->mg_activation_count > 0);
774 }
775
776 uint64_t
777 metaslab_group_get_space(metaslab_group_t *mg)
778 {
779         return ((1ULL << mg->mg_vd->vdev_ms_shift) * mg->mg_vd->vdev_ms_count);
780 }
781
782 void
783 metaslab_group_histogram_verify(metaslab_group_t *mg)
784 {
785         uint64_t *mg_hist;
786         vdev_t *vd = mg->mg_vd;
787         uint64_t ashift = vd->vdev_ashift;
788         int i;
789
790         if ((zfs_flags & ZFS_DEBUG_HISTOGRAM_VERIFY) == 0)
791                 return;
792
793         mg_hist = kmem_zalloc(sizeof (uint64_t) * RANGE_TREE_HISTOGRAM_SIZE,
794             KM_SLEEP);
795
796         ASSERT3U(RANGE_TREE_HISTOGRAM_SIZE, >=,
797             SPACE_MAP_HISTOGRAM_SIZE + ashift);
798
799         for (int m = 0; m < vd->vdev_ms_count; m++) {
800                 metaslab_t *msp = vd->vdev_ms[m];
801
802                 if (msp->ms_sm == NULL)
803                         continue;
804
805                 for (i = 0; i < SPACE_MAP_HISTOGRAM_SIZE; i++)
806                         mg_hist[i + ashift] +=
807                             msp->ms_sm->sm_phys->smp_histogram[i];
808         }
809
810         for (i = 0; i < RANGE_TREE_HISTOGRAM_SIZE; i ++)
811                 VERIFY3U(mg_hist[i], ==, mg->mg_histogram[i]);
812
813         kmem_free(mg_hist, sizeof (uint64_t) * RANGE_TREE_HISTOGRAM_SIZE);
814 }
815
816 static void
817 metaslab_group_histogram_add(metaslab_group_t *mg, metaslab_t *msp)
818 {
819         metaslab_class_t *mc = mg->mg_class;
820         uint64_t ashift = mg->mg_vd->vdev_ashift;
821
822         ASSERT(MUTEX_HELD(&msp->ms_lock));
823         if (msp->ms_sm == NULL)
824                 return;
825
826         mutex_enter(&mg->mg_lock);
827         for (int i = 0; i < SPACE_MAP_HISTOGRAM_SIZE; i++) {
828                 mg->mg_histogram[i + ashift] +=
829                     msp->ms_sm->sm_phys->smp_histogram[i];
830                 mc->mc_histogram[i + ashift] +=
831                     msp->ms_sm->sm_phys->smp_histogram[i];
832         }
833         mutex_exit(&mg->mg_lock);
834 }
835
836 void
837 metaslab_group_histogram_remove(metaslab_group_t *mg, metaslab_t *msp)
838 {
839         metaslab_class_t *mc = mg->mg_class;
840         uint64_t ashift = mg->mg_vd->vdev_ashift;
841
842         ASSERT(MUTEX_HELD(&msp->ms_lock));
843         if (msp->ms_sm == NULL)
844                 return;
845
846         mutex_enter(&mg->mg_lock);
847         for (int i = 0; i < SPACE_MAP_HISTOGRAM_SIZE; i++) {
848                 ASSERT3U(mg->mg_histogram[i + ashift], >=,
849                     msp->ms_sm->sm_phys->smp_histogram[i]);
850                 ASSERT3U(mc->mc_histogram[i + ashift], >=,
851                     msp->ms_sm->sm_phys->smp_histogram[i]);
852
853                 mg->mg_histogram[i + ashift] -=
854                     msp->ms_sm->sm_phys->smp_histogram[i];
855                 mc->mc_histogram[i + ashift] -=
856                     msp->ms_sm->sm_phys->smp_histogram[i];
857         }
858         mutex_exit(&mg->mg_lock);
859 }
860
861 static void
862 metaslab_group_add(metaslab_group_t *mg, metaslab_t *msp)
863 {
864         ASSERT(msp->ms_group == NULL);
865         mutex_enter(&mg->mg_lock);
866         msp->ms_group = mg;
867         msp->ms_weight = 0;
868         avl_add(&mg->mg_metaslab_tree, msp);
869         mutex_exit(&mg->mg_lock);
870
871         mutex_enter(&msp->ms_lock);
872         metaslab_group_histogram_add(mg, msp);
873         mutex_exit(&msp->ms_lock);
874 }
875
876 static void
877 metaslab_group_remove(metaslab_group_t *mg, metaslab_t *msp)
878 {
879         mutex_enter(&msp->ms_lock);
880         metaslab_group_histogram_remove(mg, msp);
881         mutex_exit(&msp->ms_lock);
882
883         mutex_enter(&mg->mg_lock);
884         ASSERT(msp->ms_group == mg);
885         avl_remove(&mg->mg_metaslab_tree, msp);
886         msp->ms_group = NULL;
887         mutex_exit(&mg->mg_lock);
888 }
889
890 static void
891 metaslab_group_sort(metaslab_group_t *mg, metaslab_t *msp, uint64_t weight)
892 {
893         /*
894          * Although in principle the weight can be any value, in
895          * practice we do not use values in the range [1, 511].
896          */
897         ASSERT(weight >= SPA_MINBLOCKSIZE || weight == 0);
898         ASSERT(MUTEX_HELD(&msp->ms_lock));
899
900         mutex_enter(&mg->mg_lock);
901         ASSERT(msp->ms_group == mg);
902         avl_remove(&mg->mg_metaslab_tree, msp);
903         msp->ms_weight = weight;
904         avl_add(&mg->mg_metaslab_tree, msp);
905         mutex_exit(&mg->mg_lock);
906 }
907
908 /*
909  * Calculate the fragmentation for a given metaslab group. We can use
910  * a simple average here since all metaslabs within the group must have
911  * the same size. The return value will be a value between 0 and 100
912  * (inclusive), or ZFS_FRAG_INVALID if less than half of the metaslab in this
913  * group have a fragmentation metric.
914  */
915 uint64_t
916 metaslab_group_fragmentation(metaslab_group_t *mg)
917 {
918         vdev_t *vd = mg->mg_vd;
919         uint64_t fragmentation = 0;
920         uint64_t valid_ms = 0;
921
922         for (int m = 0; m < vd->vdev_ms_count; m++) {
923                 metaslab_t *msp = vd->vdev_ms[m];
924
925                 if (msp->ms_fragmentation == ZFS_FRAG_INVALID)
926                         continue;
927
928                 valid_ms++;
929                 fragmentation += msp->ms_fragmentation;
930         }
931
932         if (valid_ms <= vd->vdev_ms_count / 2)
933                 return (ZFS_FRAG_INVALID);
934
935         fragmentation /= valid_ms;
936         ASSERT3U(fragmentation, <=, 100);
937         return (fragmentation);
938 }
939
940 /*
941  * Determine if a given metaslab group should skip allocations. A metaslab
942  * group should avoid allocations if its free capacity is less than the
943  * zfs_mg_noalloc_threshold or its fragmentation metric is greater than
944  * zfs_mg_fragmentation_threshold and there is at least one metaslab group
945  * that can still handle allocations. If the allocation throttle is enabled
946  * then we skip allocations to devices that have reached their maximum
947  * allocation queue depth unless the selected metaslab group is the only
948  * eligible group remaining.
949  */
950 static boolean_t
951 metaslab_group_allocatable(metaslab_group_t *mg, metaslab_group_t *rotor,
952     uint64_t psize)
953 {
954         spa_t *spa = mg->mg_vd->vdev_spa;
955         metaslab_class_t *mc = mg->mg_class;
956
957         /*
958          * We can only consider skipping this metaslab group if it's
959          * in the normal metaslab class and there are other metaslab
960          * groups to select from. Otherwise, we always consider it eligible
961          * for allocations.
962          */
963         if (mc != spa_normal_class(spa) || mc->mc_groups <= 1)
964                 return (B_TRUE);
965
966         /*
967          * If the metaslab group's mg_allocatable flag is set (see comments
968          * in metaslab_group_alloc_update() for more information) and
969          * the allocation throttle is disabled then allow allocations to this
970          * device. However, if the allocation throttle is enabled then
971          * check if we have reached our allocation limit (mg_alloc_queue_depth)
972          * to determine if we should allow allocations to this metaslab group.
973          * If all metaslab groups are no longer considered allocatable
974          * (mc_alloc_groups == 0) or we're trying to allocate the smallest
975          * gang block size then we allow allocations on this metaslab group
976          * regardless of the mg_allocatable or throttle settings.
977          */
978         if (mg->mg_allocatable) {
979                 metaslab_group_t *mgp;
980                 int64_t qdepth;
981                 uint64_t qmax = mg->mg_max_alloc_queue_depth;
982
983                 if (!mc->mc_alloc_throttle_enabled)
984                         return (B_TRUE);
985
986                 /*
987                  * If this metaslab group does not have any free space, then
988                  * there is no point in looking further.
989                  */
990                 if (mg->mg_no_free_space)
991                         return (B_FALSE);
992
993                 qdepth = refcount_count(&mg->mg_alloc_queue_depth);
994
995                 /*
996                  * If this metaslab group is below its qmax or it's
997                  * the only allocatable metasable group, then attempt
998                  * to allocate from it.
999                  */
1000                 if (qdepth < qmax || mc->mc_alloc_groups == 1)
1001                         return (B_TRUE);
1002                 ASSERT3U(mc->mc_alloc_groups, >, 1);
1003
1004                 /*
1005                  * Since this metaslab group is at or over its qmax, we
1006                  * need to determine if there are metaslab groups after this
1007                  * one that might be able to handle this allocation. This is
1008                  * racy since we can't hold the locks for all metaslab
1009                  * groups at the same time when we make this check.
1010                  */
1011                 for (mgp = mg->mg_next; mgp != rotor; mgp = mgp->mg_next) {
1012                         qmax = mgp->mg_max_alloc_queue_depth;
1013
1014                         qdepth = refcount_count(&mgp->mg_alloc_queue_depth);
1015
1016                         /*
1017                          * If there is another metaslab group that
1018                          * might be able to handle the allocation, then
1019                          * we return false so that we skip this group.
1020                          */
1021                         if (qdepth < qmax && !mgp->mg_no_free_space)
1022                                 return (B_FALSE);
1023                 }
1024
1025                 /*
1026                  * We didn't find another group to handle the allocation
1027                  * so we can't skip this metaslab group even though
1028                  * we are at or over our qmax.
1029                  */
1030                 return (B_TRUE);
1031
1032         } else if (mc->mc_alloc_groups == 0 || psize == SPA_MINBLOCKSIZE) {
1033                 return (B_TRUE);
1034         }
1035         return (B_FALSE);
1036 }
1037
1038 /*
1039  * ==========================================================================
1040  * Range tree callbacks
1041  * ==========================================================================
1042  */
1043
1044 /*
1045  * Comparison function for the private size-ordered tree. Tree is sorted
1046  * by size, larger sizes at the end of the tree.
1047  */
1048 static int
1049 metaslab_rangesize_compare(const void *x1, const void *x2)
1050 {
1051         const range_seg_t *r1 = x1;
1052         const range_seg_t *r2 = x2;
1053         uint64_t rs_size1 = r1->rs_end - r1->rs_start;
1054         uint64_t rs_size2 = r2->rs_end - r2->rs_start;
1055
1056         if (rs_size1 < rs_size2)
1057                 return (-1);
1058         if (rs_size1 > rs_size2)
1059                 return (1);
1060
1061         if (r1->rs_start < r2->rs_start)
1062                 return (-1);
1063
1064         if (r1->rs_start > r2->rs_start)
1065                 return (1);
1066
1067         return (0);
1068 }
1069
1070 /*
1071  * Create any block allocator specific components. The current allocators
1072  * rely on using both a size-ordered range_tree_t and an array of uint64_t's.
1073  */
1074 static void
1075 metaslab_rt_create(range_tree_t *rt, void *arg)
1076 {
1077         metaslab_t *msp = arg;
1078
1079         ASSERT3P(rt->rt_arg, ==, msp);
1080         ASSERT(msp->ms_tree == NULL);
1081
1082         avl_create(&msp->ms_size_tree, metaslab_rangesize_compare,
1083             sizeof (range_seg_t), offsetof(range_seg_t, rs_pp_node));
1084 }
1085
1086 /*
1087  * Destroy the block allocator specific components.
1088  */
1089 static void
1090 metaslab_rt_destroy(range_tree_t *rt, void *arg)
1091 {
1092         metaslab_t *msp = arg;
1093
1094         ASSERT3P(rt->rt_arg, ==, msp);
1095         ASSERT3P(msp->ms_tree, ==, rt);
1096         ASSERT0(avl_numnodes(&msp->ms_size_tree));
1097
1098         avl_destroy(&msp->ms_size_tree);
1099 }
1100
1101 static void
1102 metaslab_rt_add(range_tree_t *rt, range_seg_t *rs, void *arg)
1103 {
1104         metaslab_t *msp = arg;
1105
1106         ASSERT3P(rt->rt_arg, ==, msp);
1107         ASSERT3P(msp->ms_tree, ==, rt);
1108         VERIFY(!msp->ms_condensing);
1109         avl_add(&msp->ms_size_tree, rs);
1110 }
1111
1112 static void
1113 metaslab_rt_remove(range_tree_t *rt, range_seg_t *rs, void *arg)
1114 {
1115         metaslab_t *msp = arg;
1116
1117         ASSERT3P(rt->rt_arg, ==, msp);
1118         ASSERT3P(msp->ms_tree, ==, rt);
1119         VERIFY(!msp->ms_condensing);
1120         avl_remove(&msp->ms_size_tree, rs);
1121 }
1122
1123 static void
1124 metaslab_rt_vacate(range_tree_t *rt, void *arg)
1125 {
1126         metaslab_t *msp = arg;
1127
1128         ASSERT3P(rt->rt_arg, ==, msp);
1129         ASSERT3P(msp->ms_tree, ==, rt);
1130
1131         /*
1132          * Normally one would walk the tree freeing nodes along the way.
1133          * Since the nodes are shared with the range trees we can avoid
1134          * walking all nodes and just reinitialize the avl tree. The nodes
1135          * will be freed by the range tree, so we don't want to free them here.
1136          */
1137         avl_create(&msp->ms_size_tree, metaslab_rangesize_compare,
1138             sizeof (range_seg_t), offsetof(range_seg_t, rs_pp_node));
1139 }
1140
1141 static range_tree_ops_t metaslab_rt_ops = {
1142         metaslab_rt_create,
1143         metaslab_rt_destroy,
1144         metaslab_rt_add,
1145         metaslab_rt_remove,
1146         metaslab_rt_vacate
1147 };
1148
1149 /*
1150  * ==========================================================================
1151  * Common allocator routines
1152  * ==========================================================================
1153  */
1154
1155 /*
1156  * Return the maximum contiguous segment within the metaslab.
1157  */
1158 uint64_t
1159 metaslab_block_maxsize(metaslab_t *msp)
1160 {
1161         avl_tree_t *t = &msp->ms_size_tree;
1162         range_seg_t *rs;
1163
1164         if (t == NULL || (rs = avl_last(t)) == NULL)
1165                 return (0ULL);
1166
1167         return (rs->rs_end - rs->rs_start);
1168 }
1169
1170 static range_seg_t *
1171 metaslab_block_find(avl_tree_t *t, uint64_t start, uint64_t size)
1172 {
1173         range_seg_t *rs, rsearch;
1174         avl_index_t where;
1175
1176         rsearch.rs_start = start;
1177         rsearch.rs_end = start + size;
1178
1179         rs = avl_find(t, &rsearch, &where);
1180         if (rs == NULL) {
1181                 rs = avl_nearest(t, where, AVL_AFTER);
1182         }
1183
1184         return (rs);
1185 }
1186
1187 /*
1188  * This is a helper function that can be used by the allocator to find
1189  * a suitable block to allocate. This will search the specified AVL
1190  * tree looking for a block that matches the specified criteria.
1191  */
1192 static uint64_t
1193 metaslab_block_picker(avl_tree_t *t, uint64_t *cursor, uint64_t size,
1194     uint64_t align)
1195 {
1196         range_seg_t *rs = metaslab_block_find(t, *cursor, size);
1197
1198         while (rs != NULL) {
1199                 uint64_t offset = P2ROUNDUP(rs->rs_start, align);
1200
1201                 if (offset + size <= rs->rs_end) {
1202                         *cursor = offset + size;
1203                         return (offset);
1204                 }
1205                 rs = AVL_NEXT(t, rs);
1206         }
1207
1208         /*
1209          * If we know we've searched the whole map (*cursor == 0), give up.
1210          * Otherwise, reset the cursor to the beginning and try again.
1211          */
1212         if (*cursor == 0)
1213                 return (-1ULL);
1214
1215         *cursor = 0;
1216         return (metaslab_block_picker(t, cursor, size, align));
1217 }
1218
1219 /*
1220  * ==========================================================================
1221  * The first-fit block allocator
1222  * ==========================================================================
1223  */
1224 static uint64_t
1225 metaslab_ff_alloc(metaslab_t *msp, uint64_t size)
1226 {
1227         /*
1228          * Find the largest power of 2 block size that evenly divides the
1229          * requested size. This is used to try to allocate blocks with similar
1230          * alignment from the same area of the metaslab (i.e. same cursor
1231          * bucket) but it does not guarantee that other allocations sizes
1232          * may exist in the same region.
1233          */
1234         uint64_t align = size & -size;
1235         uint64_t *cursor = &msp->ms_lbas[highbit64(align) - 1];
1236         avl_tree_t *t = &msp->ms_tree->rt_root;
1237
1238         return (metaslab_block_picker(t, cursor, size, align));
1239 }
1240
1241 static metaslab_ops_t metaslab_ff_ops = {
1242         metaslab_ff_alloc
1243 };
1244
1245 /*
1246  * ==========================================================================
1247  * Dynamic block allocator -
1248  * Uses the first fit allocation scheme until space get low and then
1249  * adjusts to a best fit allocation method. Uses metaslab_df_alloc_threshold
1250  * and metaslab_df_free_pct to determine when to switch the allocation scheme.
1251  * ==========================================================================
1252  */
1253 static uint64_t
1254 metaslab_df_alloc(metaslab_t *msp, uint64_t size)
1255 {
1256         /*
1257          * Find the largest power of 2 block size that evenly divides the
1258          * requested size. This is used to try to allocate blocks with similar
1259          * alignment from the same area of the metaslab (i.e. same cursor
1260          * bucket) but it does not guarantee that other allocations sizes
1261          * may exist in the same region.
1262          */
1263         uint64_t align = size & -size;
1264         uint64_t *cursor = &msp->ms_lbas[highbit64(align) - 1];
1265         range_tree_t *rt = msp->ms_tree;
1266         avl_tree_t *t = &rt->rt_root;
1267         uint64_t max_size = metaslab_block_maxsize(msp);
1268         int free_pct = range_tree_space(rt) * 100 / msp->ms_size;
1269
1270         ASSERT(MUTEX_HELD(&msp->ms_lock));
1271         ASSERT3U(avl_numnodes(t), ==, avl_numnodes(&msp->ms_size_tree));
1272
1273         if (max_size < size)
1274                 return (-1ULL);
1275
1276         /*
1277          * If we're running low on space switch to using the size
1278          * sorted AVL tree (best-fit).
1279          */
1280         if (max_size < metaslab_df_alloc_threshold ||
1281             free_pct < metaslab_df_free_pct) {
1282                 t = &msp->ms_size_tree;
1283                 *cursor = 0;
1284         }
1285
1286         return (metaslab_block_picker(t, cursor, size, 1ULL));
1287 }
1288
1289 static metaslab_ops_t metaslab_df_ops = {
1290         metaslab_df_alloc
1291 };
1292
1293 /*
1294  * ==========================================================================
1295  * Cursor fit block allocator -
1296  * Select the largest region in the metaslab, set the cursor to the beginning
1297  * of the range and the cursor_end to the end of the range. As allocations
1298  * are made advance the cursor. Continue allocating from the cursor until
1299  * the range is exhausted and then find a new range.
1300  * ==========================================================================
1301  */
1302 static uint64_t
1303 metaslab_cf_alloc(metaslab_t *msp, uint64_t size)
1304 {
1305         range_tree_t *rt = msp->ms_tree;
1306         avl_tree_t *t = &msp->ms_size_tree;
1307         uint64_t *cursor = &msp->ms_lbas[0];
1308         uint64_t *cursor_end = &msp->ms_lbas[1];
1309         uint64_t offset = 0;
1310
1311         ASSERT(MUTEX_HELD(&msp->ms_lock));
1312         ASSERT3U(avl_numnodes(t), ==, avl_numnodes(&rt->rt_root));
1313
1314         ASSERT3U(*cursor_end, >=, *cursor);
1315
1316         if ((*cursor + size) > *cursor_end) {
1317                 range_seg_t *rs;
1318
1319                 rs = avl_last(&msp->ms_size_tree);
1320                 if (rs == NULL || (rs->rs_end - rs->rs_start) < size)
1321                         return (-1ULL);
1322
1323                 *cursor = rs->rs_start;
1324                 *cursor_end = rs->rs_end;
1325         }
1326
1327         offset = *cursor;
1328         *cursor += size;
1329
1330         return (offset);
1331 }
1332
1333 static metaslab_ops_t metaslab_cf_ops = {
1334         metaslab_cf_alloc
1335 };
1336
1337 /*
1338  * ==========================================================================
1339  * New dynamic fit allocator -
1340  * Select a region that is large enough to allocate 2^metaslab_ndf_clump_shift
1341  * contiguous blocks. If no region is found then just use the largest segment
1342  * that remains.
1343  * ==========================================================================
1344  */
1345
1346 /*
1347  * Determines desired number of contiguous blocks (2^metaslab_ndf_clump_shift)
1348  * to request from the allocator.
1349  */
1350 uint64_t metaslab_ndf_clump_shift = 4;
1351
1352 static uint64_t
1353 metaslab_ndf_alloc(metaslab_t *msp, uint64_t size)
1354 {
1355         avl_tree_t *t = &msp->ms_tree->rt_root;
1356         avl_index_t where;
1357         range_seg_t *rs, rsearch;
1358         uint64_t hbit = highbit64(size);
1359         uint64_t *cursor = &msp->ms_lbas[hbit - 1];
1360         uint64_t max_size = metaslab_block_maxsize(msp);
1361
1362         ASSERT(MUTEX_HELD(&msp->ms_lock));
1363         ASSERT3U(avl_numnodes(t), ==, avl_numnodes(&msp->ms_size_tree));
1364
1365         if (max_size < size)
1366                 return (-1ULL);
1367
1368         rsearch.rs_start = *cursor;
1369         rsearch.rs_end = *cursor + size;
1370
1371         rs = avl_find(t, &rsearch, &where);
1372         if (rs == NULL || (rs->rs_end - rs->rs_start) < size) {
1373                 t = &msp->ms_size_tree;
1374
1375                 rsearch.rs_start = 0;
1376                 rsearch.rs_end = MIN(max_size,
1377                     1ULL << (hbit + metaslab_ndf_clump_shift));
1378                 rs = avl_find(t, &rsearch, &where);
1379                 if (rs == NULL)
1380                         rs = avl_nearest(t, where, AVL_AFTER);
1381                 ASSERT(rs != NULL);
1382         }
1383
1384         if ((rs->rs_end - rs->rs_start) >= size) {
1385                 *cursor = rs->rs_start + size;
1386                 return (rs->rs_start);
1387         }
1388         return (-1ULL);
1389 }
1390
1391 static metaslab_ops_t metaslab_ndf_ops = {
1392         metaslab_ndf_alloc
1393 };
1394
1395 metaslab_ops_t *zfs_metaslab_ops = &metaslab_df_ops;
1396
1397 /*
1398  * ==========================================================================
1399  * Metaslabs
1400  * ==========================================================================
1401  */
1402
1403 /*
1404  * Wait for any in-progress metaslab loads to complete.
1405  */
1406 void
1407 metaslab_load_wait(metaslab_t *msp)
1408 {
1409         ASSERT(MUTEX_HELD(&msp->ms_lock));
1410
1411         while (msp->ms_loading) {
1412                 ASSERT(!msp->ms_loaded);
1413                 cv_wait(&msp->ms_load_cv, &msp->ms_lock);
1414         }
1415 }
1416
1417 int
1418 metaslab_load(metaslab_t *msp)
1419 {
1420         int error = 0;
1421         boolean_t success = B_FALSE;
1422
1423         ASSERT(MUTEX_HELD(&msp->ms_lock));
1424         ASSERT(!msp->ms_loaded);
1425         ASSERT(!msp->ms_loading);
1426
1427         msp->ms_loading = B_TRUE;
1428
1429         /*
1430          * If the space map has not been allocated yet, then treat
1431          * all the space in the metaslab as free and add it to the
1432          * ms_tree.
1433          */
1434         if (msp->ms_sm != NULL)
1435                 error = space_map_load(msp->ms_sm, msp->ms_tree, SM_FREE);
1436         else
1437                 range_tree_add(msp->ms_tree, msp->ms_start, msp->ms_size);
1438
1439         success = (error == 0);
1440         msp->ms_loading = B_FALSE;
1441
1442         if (success) {
1443                 ASSERT3P(msp->ms_group, !=, NULL);
1444                 msp->ms_loaded = B_TRUE;
1445
1446                 for (int t = 0; t < TXG_DEFER_SIZE; t++) {
1447                         range_tree_walk(msp->ms_defertree[t],
1448                             range_tree_remove, msp->ms_tree);
1449                 }
1450                 msp->ms_max_size = metaslab_block_maxsize(msp);
1451         }
1452         cv_broadcast(&msp->ms_load_cv);
1453         return (error);
1454 }
1455
1456 void
1457 metaslab_unload(metaslab_t *msp)
1458 {
1459         ASSERT(MUTEX_HELD(&msp->ms_lock));
1460         range_tree_vacate(msp->ms_tree, NULL, NULL);
1461         msp->ms_loaded = B_FALSE;
1462         msp->ms_weight &= ~METASLAB_ACTIVE_MASK;
1463         msp->ms_max_size = 0;
1464 }
1465
1466 int
1467 metaslab_init(metaslab_group_t *mg, uint64_t id, uint64_t object, uint64_t txg,
1468     metaslab_t **msp)
1469 {
1470         vdev_t *vd = mg->mg_vd;
1471         objset_t *mos = vd->vdev_spa->spa_meta_objset;
1472         metaslab_t *ms;
1473         int error;
1474
1475         ms = kmem_zalloc(sizeof (metaslab_t), KM_SLEEP);
1476         mutex_init(&ms->ms_lock, NULL, MUTEX_DEFAULT, NULL);
1477         cv_init(&ms->ms_load_cv, NULL, CV_DEFAULT, NULL);
1478         ms->ms_id = id;
1479         ms->ms_start = id << vd->vdev_ms_shift;
1480         ms->ms_size = 1ULL << vd->vdev_ms_shift;
1481
1482         /*
1483          * We only open space map objects that already exist. All others
1484          * will be opened when we finally allocate an object for it.
1485          */
1486         if (object != 0) {
1487                 error = space_map_open(&ms->ms_sm, mos, object, ms->ms_start,
1488                     ms->ms_size, vd->vdev_ashift, &ms->ms_lock);
1489
1490                 if (error != 0) {
1491                         kmem_free(ms, sizeof (metaslab_t));
1492                         return (error);
1493                 }
1494
1495                 ASSERT(ms->ms_sm != NULL);
1496         }
1497
1498         /*
1499          * We create the main range tree here, but we don't create the
1500          * other range trees until metaslab_sync_done().  This serves
1501          * two purposes: it allows metaslab_sync_done() to detect the
1502          * addition of new space; and for debugging, it ensures that we'd
1503          * data fault on any attempt to use this metaslab before it's ready.
1504          */
1505         ms->ms_tree = range_tree_create(&metaslab_rt_ops, ms, &ms->ms_lock);
1506         metaslab_group_add(mg, ms);
1507
1508         metaslab_set_fragmentation(ms);
1509
1510         /*
1511          * If we're opening an existing pool (txg == 0) or creating
1512          * a new one (txg == TXG_INITIAL), all space is available now.
1513          * If we're adding space to an existing pool, the new space
1514          * does not become available until after this txg has synced.
1515          * The metaslab's weight will also be initialized when we sync
1516          * out this txg. This ensures that we don't attempt to allocate
1517          * from it before we have initialized it completely.
1518          */
1519         if (txg <= TXG_INITIAL)
1520                 metaslab_sync_done(ms, 0);
1521
1522         /*
1523          * If metaslab_debug_load is set and we're initializing a metaslab
1524          * that has an allocated space map object then load the its space
1525          * map so that can verify frees.
1526          */
1527         if (metaslab_debug_load && ms->ms_sm != NULL) {
1528                 mutex_enter(&ms->ms_lock);
1529                 VERIFY0(metaslab_load(ms));
1530                 mutex_exit(&ms->ms_lock);
1531         }
1532
1533         if (txg != 0) {
1534                 vdev_dirty(vd, 0, NULL, txg);
1535                 vdev_dirty(vd, VDD_METASLAB, ms, txg);
1536         }
1537
1538         *msp = ms;
1539
1540         return (0);
1541 }
1542
1543 void
1544 metaslab_fini(metaslab_t *msp)
1545 {
1546         metaslab_group_t *mg = msp->ms_group;
1547
1548         metaslab_group_remove(mg, msp);
1549
1550         mutex_enter(&msp->ms_lock);
1551         VERIFY(msp->ms_group == NULL);
1552         vdev_space_update(mg->mg_vd, -space_map_allocated(msp->ms_sm),
1553             0, -msp->ms_size);
1554         space_map_close(msp->ms_sm);
1555
1556         metaslab_unload(msp);
1557         range_tree_destroy(msp->ms_tree);
1558         range_tree_destroy(msp->ms_freeingtree);
1559         range_tree_destroy(msp->ms_freedtree);
1560
1561         for (int t = 0; t < TXG_SIZE; t++) {
1562                 range_tree_destroy(msp->ms_alloctree[t]);
1563         }
1564
1565         for (int t = 0; t < TXG_DEFER_SIZE; t++) {
1566                 range_tree_destroy(msp->ms_defertree[t]);
1567         }
1568
1569         ASSERT0(msp->ms_deferspace);
1570
1571         mutex_exit(&msp->ms_lock);
1572         cv_destroy(&msp->ms_load_cv);
1573         mutex_destroy(&msp->ms_lock);
1574
1575         kmem_free(msp, sizeof (metaslab_t));
1576 }
1577
1578 #define FRAGMENTATION_TABLE_SIZE        17
1579
1580 /*
1581  * This table defines a segment size based fragmentation metric that will
1582  * allow each metaslab to derive its own fragmentation value. This is done
1583  * by calculating the space in each bucket of the spacemap histogram and
1584  * multiplying that by the fragmetation metric in this table. Doing
1585  * this for all buckets and dividing it by the total amount of free
1586  * space in this metaslab (i.e. the total free space in all buckets) gives
1587  * us the fragmentation metric. This means that a high fragmentation metric
1588  * equates to most of the free space being comprised of small segments.
1589  * Conversely, if the metric is low, then most of the free space is in
1590  * large segments. A 10% change in fragmentation equates to approximately
1591  * double the number of segments.
1592  *
1593  * This table defines 0% fragmented space using 16MB segments. Testing has
1594  * shown that segments that are greater than or equal to 16MB do not suffer
1595  * from drastic performance problems. Using this value, we derive the rest
1596  * of the table. Since the fragmentation value is never stored on disk, it
1597  * is possible to change these calculations in the future.
1598  */
1599 int zfs_frag_table[FRAGMENTATION_TABLE_SIZE] = {
1600         100,    /* 512B */
1601         100,    /* 1K   */
1602         98,     /* 2K   */
1603         95,     /* 4K   */
1604         90,     /* 8K   */
1605         80,     /* 16K  */
1606         70,     /* 32K  */
1607         60,     /* 64K  */
1608         50,     /* 128K */
1609         40,     /* 256K */
1610         30,     /* 512K */
1611         20,     /* 1M   */
1612         15,     /* 2M   */
1613         10,     /* 4M   */
1614         5,      /* 8M   */
1615         0       /* 16M  */
1616 };
1617
1618 /*
1619  * Calclate the metaslab's fragmentation metric. A return value
1620  * of ZFS_FRAG_INVALID means that the metaslab has not been upgraded and does
1621  * not support this metric. Otherwise, the return value should be in the
1622  * range [0, 100].
1623  */
1624 static void
1625 metaslab_set_fragmentation(metaslab_t *msp)
1626 {
1627         spa_t *spa = msp->ms_group->mg_vd->vdev_spa;
1628         uint64_t fragmentation = 0;
1629         uint64_t total = 0;
1630         boolean_t feature_enabled = spa_feature_is_enabled(spa,
1631             SPA_FEATURE_SPACEMAP_HISTOGRAM);
1632
1633         if (!feature_enabled) {
1634                 msp->ms_fragmentation = ZFS_FRAG_INVALID;
1635                 return;
1636         }
1637
1638         /*
1639          * A null space map means that the entire metaslab is free
1640          * and thus is not fragmented.
1641          */
1642         if (msp->ms_sm == NULL) {
1643                 msp->ms_fragmentation = 0;
1644                 return;
1645         }
1646
1647         /*
1648          * If this metaslab's space map has not been upgraded, flag it
1649          * so that we upgrade next time we encounter it.
1650          */
1651         if (msp->ms_sm->sm_dbuf->db_size != sizeof (space_map_phys_t)) {
1652                 uint64_t txg = spa_syncing_txg(spa);
1653                 vdev_t *vd = msp->ms_group->mg_vd;
1654
1655                 if (spa_writeable(spa)) {
1656                         msp->ms_condense_wanted = B_TRUE;
1657                         vdev_dirty(vd, VDD_METASLAB, msp, txg + 1);
1658                         spa_dbgmsg(spa, "txg %llu, requesting force condense: "
1659                             "msp %p, vd %p", txg, msp, vd);
1660                 }
1661                 msp->ms_fragmentation = ZFS_FRAG_INVALID;
1662                 return;
1663         }
1664
1665         for (int i = 0; i < SPACE_MAP_HISTOGRAM_SIZE; i++) {
1666                 uint64_t space = 0;
1667                 uint8_t shift = msp->ms_sm->sm_shift;
1668
1669                 int idx = MIN(shift - SPA_MINBLOCKSHIFT + i,
1670                     FRAGMENTATION_TABLE_SIZE - 1);
1671
1672                 if (msp->ms_sm->sm_phys->smp_histogram[i] == 0)
1673                         continue;
1674
1675                 space = msp->ms_sm->sm_phys->smp_histogram[i] << (i + shift);
1676                 total += space;
1677
1678                 ASSERT3U(idx, <, FRAGMENTATION_TABLE_SIZE);
1679                 fragmentation += space * zfs_frag_table[idx];
1680         }
1681
1682         if (total > 0)
1683                 fragmentation /= total;
1684         ASSERT3U(fragmentation, <=, 100);
1685
1686         msp->ms_fragmentation = fragmentation;
1687 }
1688
1689 /*
1690  * Compute a weight -- a selection preference value -- for the given metaslab.
1691  * This is based on the amount of free space, the level of fragmentation,
1692  * the LBA range, and whether the metaslab is loaded.
1693  */
1694 static uint64_t
1695 metaslab_space_weight(metaslab_t *msp)
1696 {
1697         metaslab_group_t *mg = msp->ms_group;
1698         vdev_t *vd = mg->mg_vd;
1699         uint64_t weight, space;
1700
1701         ASSERT(MUTEX_HELD(&msp->ms_lock));
1702         ASSERT(!vd->vdev_removing);
1703
1704         /*
1705          * The baseline weight is the metaslab's free space.
1706          */
1707         space = msp->ms_size - space_map_allocated(msp->ms_sm);
1708
1709         if (metaslab_fragmentation_factor_enabled &&
1710             msp->ms_fragmentation != ZFS_FRAG_INVALID) {
1711                 /*
1712                  * Use the fragmentation information to inversely scale
1713                  * down the baseline weight. We need to ensure that we
1714                  * don't exclude this metaslab completely when it's 100%
1715                  * fragmented. To avoid this we reduce the fragmented value
1716                  * by 1.
1717                  */
1718                 space = (space * (100 - (msp->ms_fragmentation - 1))) / 100;
1719
1720                 /*
1721                  * If space < SPA_MINBLOCKSIZE, then we will not allocate from
1722                  * this metaslab again. The fragmentation metric may have
1723                  * decreased the space to something smaller than
1724                  * SPA_MINBLOCKSIZE, so reset the space to SPA_MINBLOCKSIZE
1725                  * so that we can consume any remaining space.
1726                  */
1727                 if (space > 0 && space < SPA_MINBLOCKSIZE)
1728                         space = SPA_MINBLOCKSIZE;
1729         }
1730         weight = space;
1731
1732         /*
1733          * Modern disks have uniform bit density and constant angular velocity.
1734          * Therefore, the outer recording zones are faster (higher bandwidth)
1735          * than the inner zones by the ratio of outer to inner track diameter,
1736          * which is typically around 2:1.  We account for this by assigning
1737          * higher weight to lower metaslabs (multiplier ranging from 2x to 1x).
1738          * In effect, this means that we'll select the metaslab with the most
1739          * free bandwidth rather than simply the one with the most free space.
1740          */
1741         if (metaslab_lba_weighting_enabled) {
1742                 weight = 2 * weight - (msp->ms_id * weight) / vd->vdev_ms_count;
1743                 ASSERT(weight >= space && weight <= 2 * space);
1744         }
1745
1746         /*
1747          * If this metaslab is one we're actively using, adjust its
1748          * weight to make it preferable to any inactive metaslab so
1749          * we'll polish it off. If the fragmentation on this metaslab
1750          * has exceed our threshold, then don't mark it active.
1751          */
1752         if (msp->ms_loaded && msp->ms_fragmentation != ZFS_FRAG_INVALID &&
1753             msp->ms_fragmentation <= zfs_metaslab_fragmentation_threshold) {
1754                 weight |= (msp->ms_weight & METASLAB_ACTIVE_MASK);
1755         }
1756
1757         WEIGHT_SET_SPACEBASED(weight);
1758         return (weight);
1759 }
1760
1761 /*
1762  * Return the weight of the specified metaslab, according to the segment-based
1763  * weighting algorithm. The metaslab must be loaded. This function can
1764  * be called within a sync pass since it relies only on the metaslab's
1765  * range tree which is always accurate when the metaslab is loaded.
1766  */
1767 static uint64_t
1768 metaslab_weight_from_range_tree(metaslab_t *msp)
1769 {
1770         uint64_t weight = 0;
1771         uint32_t segments = 0;
1772
1773         ASSERT(msp->ms_loaded);
1774
1775         for (int i = RANGE_TREE_HISTOGRAM_SIZE - 1; i >= SPA_MINBLOCKSHIFT;
1776             i--) {
1777                 uint8_t shift = msp->ms_group->mg_vd->vdev_ashift;
1778                 int max_idx = SPACE_MAP_HISTOGRAM_SIZE + shift - 1;
1779
1780                 segments <<= 1;
1781                 segments += msp->ms_tree->rt_histogram[i];
1782
1783                 /*
1784                  * The range tree provides more precision than the space map
1785                  * and must be downgraded so that all values fit within the
1786                  * space map's histogram. This allows us to compare loaded
1787                  * vs. unloaded metaslabs to determine which metaslab is
1788                  * considered "best".
1789                  */
1790                 if (i > max_idx)
1791                         continue;
1792
1793                 if (segments != 0) {
1794                         WEIGHT_SET_COUNT(weight, segments);
1795                         WEIGHT_SET_INDEX(weight, i);
1796                         WEIGHT_SET_ACTIVE(weight, 0);
1797                         break;
1798                 }
1799         }
1800         return (weight);
1801 }
1802
1803 /*
1804  * Calculate the weight based on the on-disk histogram. This should only
1805  * be called after a sync pass has completely finished since the on-disk
1806  * information is updated in metaslab_sync().
1807  */
1808 static uint64_t
1809 metaslab_weight_from_spacemap(metaslab_t *msp)
1810 {
1811         uint64_t weight = 0;
1812
1813         for (int i = SPACE_MAP_HISTOGRAM_SIZE - 1; i >= 0; i--) {
1814                 if (msp->ms_sm->sm_phys->smp_histogram[i] != 0) {
1815                         WEIGHT_SET_COUNT(weight,
1816                             msp->ms_sm->sm_phys->smp_histogram[i]);
1817                         WEIGHT_SET_INDEX(weight, i +
1818                             msp->ms_sm->sm_shift);
1819                         WEIGHT_SET_ACTIVE(weight, 0);
1820                         break;
1821                 }
1822         }
1823         return (weight);
1824 }
1825
1826 /*
1827  * Compute a segment-based weight for the specified metaslab. The weight
1828  * is determined by highest bucket in the histogram. The information
1829  * for the highest bucket is encoded into the weight value.
1830  */
1831 static uint64_t
1832 metaslab_segment_weight(metaslab_t *msp)
1833 {
1834         metaslab_group_t *mg = msp->ms_group;
1835         uint64_t weight = 0;
1836         uint8_t shift = mg->mg_vd->vdev_ashift;
1837
1838         ASSERT(MUTEX_HELD(&msp->ms_lock));
1839
1840         /*
1841          * The metaslab is completely free.
1842          */
1843         if (space_map_allocated(msp->ms_sm) == 0) {
1844                 int idx = highbit64(msp->ms_size) - 1;
1845                 int max_idx = SPACE_MAP_HISTOGRAM_SIZE + shift - 1;
1846
1847                 if (idx < max_idx) {
1848                         WEIGHT_SET_COUNT(weight, 1ULL);
1849                         WEIGHT_SET_INDEX(weight, idx);
1850                 } else {
1851                         WEIGHT_SET_COUNT(weight, 1ULL << (idx - max_idx));
1852                         WEIGHT_SET_INDEX(weight, max_idx);
1853                 }
1854                 WEIGHT_SET_ACTIVE(weight, 0);
1855                 ASSERT(!WEIGHT_IS_SPACEBASED(weight));
1856
1857                 return (weight);
1858         }
1859
1860         ASSERT3U(msp->ms_sm->sm_dbuf->db_size, ==, sizeof (space_map_phys_t));
1861
1862         /*
1863          * If the metaslab is fully allocated then just make the weight 0.
1864          */
1865         if (space_map_allocated(msp->ms_sm) == msp->ms_size)
1866                 return (0);
1867         /*
1868          * If the metaslab is already loaded, then use the range tree to
1869          * determine the weight. Otherwise, we rely on the space map information
1870          * to generate the weight.
1871          */
1872         if (msp->ms_loaded) {
1873                 weight = metaslab_weight_from_range_tree(msp);
1874         } else {
1875                 weight = metaslab_weight_from_spacemap(msp);
1876         }
1877
1878         /*
1879          * If the metaslab was active the last time we calculated its weight
1880          * then keep it active. We want to consume the entire region that
1881          * is associated with this weight.
1882          */
1883         if (msp->ms_activation_weight != 0 && weight != 0)
1884                 WEIGHT_SET_ACTIVE(weight, WEIGHT_GET_ACTIVE(msp->ms_weight));
1885         return (weight);
1886 }
1887
1888 /*
1889  * Determine if we should attempt to allocate from this metaslab. If the
1890  * metaslab has a maximum size then we can quickly determine if the desired
1891  * allocation size can be satisfied. Otherwise, if we're using segment-based
1892  * weighting then we can determine the maximum allocation that this metaslab
1893  * can accommodate based on the index encoded in the weight. If we're using
1894  * space-based weights then rely on the entire weight (excluding the weight
1895  * type bit).
1896  */
1897 boolean_t
1898 metaslab_should_allocate(metaslab_t *msp, uint64_t asize)
1899 {
1900         boolean_t should_allocate;
1901
1902         if (msp->ms_max_size != 0)
1903                 return (msp->ms_max_size >= asize);
1904
1905         if (!WEIGHT_IS_SPACEBASED(msp->ms_weight)) {
1906                 /*
1907                  * The metaslab segment weight indicates segments in the
1908                  * range [2^i, 2^(i+1)), where i is the index in the weight.
1909                  * Since the asize might be in the middle of the range, we
1910                  * should attempt the allocation if asize < 2^(i+1).
1911                  */
1912                 should_allocate = (asize <
1913                     1ULL << (WEIGHT_GET_INDEX(msp->ms_weight) + 1));
1914         } else {
1915                 should_allocate = (asize <=
1916                     (msp->ms_weight & ~METASLAB_WEIGHT_TYPE));
1917         }
1918         return (should_allocate);
1919 }
1920
1921 static uint64_t
1922 metaslab_weight(metaslab_t *msp)
1923 {
1924         vdev_t *vd = msp->ms_group->mg_vd;
1925         spa_t *spa = vd->vdev_spa;
1926         uint64_t weight;
1927
1928         ASSERT(MUTEX_HELD(&msp->ms_lock));
1929
1930         /*
1931          * This vdev is in the process of being removed so there is nothing
1932          * for us to do here.
1933          */
1934         if (vd->vdev_removing) {
1935                 ASSERT0(space_map_allocated(msp->ms_sm));
1936                 ASSERT0(vd->vdev_ms_shift);
1937                 return (0);
1938         }
1939
1940         metaslab_set_fragmentation(msp);
1941
1942         /*
1943          * Update the maximum size if the metaslab is loaded. This will
1944          * ensure that we get an accurate maximum size if newly freed space
1945          * has been added back into the free tree.
1946          */
1947         if (msp->ms_loaded)
1948                 msp->ms_max_size = metaslab_block_maxsize(msp);
1949
1950         /*
1951          * Segment-based weighting requires space map histogram support.
1952          */
1953         if (zfs_metaslab_segment_weight_enabled &&
1954             spa_feature_is_enabled(spa, SPA_FEATURE_SPACEMAP_HISTOGRAM) &&
1955             (msp->ms_sm == NULL || msp->ms_sm->sm_dbuf->db_size ==
1956             sizeof (space_map_phys_t))) {
1957                 weight = metaslab_segment_weight(msp);
1958         } else {
1959                 weight = metaslab_space_weight(msp);
1960         }
1961         return (weight);
1962 }
1963
1964 static int
1965 metaslab_activate(metaslab_t *msp, uint64_t activation_weight)
1966 {
1967         ASSERT(MUTEX_HELD(&msp->ms_lock));
1968
1969         if ((msp->ms_weight & METASLAB_ACTIVE_MASK) == 0) {
1970                 metaslab_load_wait(msp);
1971                 if (!msp->ms_loaded) {
1972                         int error = metaslab_load(msp);
1973                         if (error) {
1974                                 metaslab_group_sort(msp->ms_group, msp, 0);
1975                                 return (error);
1976                         }
1977                 }
1978
1979                 msp->ms_activation_weight = msp->ms_weight;
1980                 metaslab_group_sort(msp->ms_group, msp,
1981                     msp->ms_weight | activation_weight);
1982         }
1983         ASSERT(msp->ms_loaded);
1984         ASSERT(msp->ms_weight & METASLAB_ACTIVE_MASK);
1985
1986         return (0);
1987 }
1988
1989 static void
1990 metaslab_passivate(metaslab_t *msp, uint64_t weight)
1991 {
1992         uint64_t size = weight & ~METASLAB_WEIGHT_TYPE;
1993
1994         /*
1995          * If size < SPA_MINBLOCKSIZE, then we will not allocate from
1996          * this metaslab again.  In that case, it had better be empty,
1997          * or we would be leaving space on the table.
1998          */
1999         ASSERT(size >= SPA_MINBLOCKSIZE ||
2000             range_tree_space(msp->ms_tree) == 0);
2001         ASSERT0(weight & METASLAB_ACTIVE_MASK);
2002
2003         msp->ms_activation_weight = 0;
2004         metaslab_group_sort(msp->ms_group, msp, weight);
2005         ASSERT((msp->ms_weight & METASLAB_ACTIVE_MASK) == 0);
2006 }
2007
2008 /*
2009  * Segment-based metaslabs are activated once and remain active until
2010  * we either fail an allocation attempt (similar to space-based metaslabs)
2011  * or have exhausted the free space in zfs_metaslab_switch_threshold
2012  * buckets since the metaslab was activated. This function checks to see
2013  * if we've exhaused the zfs_metaslab_switch_threshold buckets in the
2014  * metaslab and passivates it proactively. This will allow us to select a
2015  * metaslabs with larger contiguous region if any remaining within this
2016  * metaslab group. If we're in sync pass > 1, then we continue using this
2017  * metaslab so that we don't dirty more block and cause more sync passes.
2018  */
2019 void
2020 metaslab_segment_may_passivate(metaslab_t *msp)
2021 {
2022         spa_t *spa = msp->ms_group->mg_vd->vdev_spa;
2023
2024         if (WEIGHT_IS_SPACEBASED(msp->ms_weight) || spa_sync_pass(spa) > 1)
2025                 return;
2026
2027         /*
2028          * Since we are in the middle of a sync pass, the most accurate
2029          * information that is accessible to us is the in-core range tree
2030          * histogram; calculate the new weight based on that information.
2031          */
2032         uint64_t weight = metaslab_weight_from_range_tree(msp);
2033         int activation_idx = WEIGHT_GET_INDEX(msp->ms_activation_weight);
2034         int current_idx = WEIGHT_GET_INDEX(weight);
2035
2036         if (current_idx <= activation_idx - zfs_metaslab_switch_threshold)
2037                 metaslab_passivate(msp, weight);
2038 }
2039
2040 static void
2041 metaslab_preload(void *arg)
2042 {
2043         metaslab_t *msp = arg;
2044         spa_t *spa = msp->ms_group->mg_vd->vdev_spa;
2045
2046         ASSERT(!MUTEX_HELD(&msp->ms_group->mg_lock));
2047
2048         mutex_enter(&msp->ms_lock);
2049         metaslab_load_wait(msp);
2050         if (!msp->ms_loaded)
2051                 (void) metaslab_load(msp);
2052         msp->ms_selected_txg = spa_syncing_txg(spa);
2053         mutex_exit(&msp->ms_lock);
2054 }
2055
2056 static void
2057 metaslab_group_preload(metaslab_group_t *mg)
2058 {
2059         spa_t *spa = mg->mg_vd->vdev_spa;
2060         metaslab_t *msp;
2061         avl_tree_t *t = &mg->mg_metaslab_tree;
2062         int m = 0;
2063
2064         if (spa_shutting_down(spa) || !metaslab_preload_enabled) {
2065                 taskq_wait(mg->mg_taskq);
2066                 return;
2067         }
2068
2069         mutex_enter(&mg->mg_lock);
2070         /*
2071          * Load the next potential metaslabs
2072          */
2073         for (msp = avl_first(t); msp != NULL; msp = AVL_NEXT(t, msp)) {
2074                 /*
2075                  * We preload only the maximum number of metaslabs specified
2076                  * by metaslab_preload_limit. If a metaslab is being forced
2077                  * to condense then we preload it too. This will ensure
2078                  * that force condensing happens in the next txg.
2079                  */
2080                 if (++m > metaslab_preload_limit && !msp->ms_condense_wanted) {
2081                         continue;
2082                 }
2083
2084                 VERIFY(taskq_dispatch(mg->mg_taskq, metaslab_preload,
2085                     msp, TQ_SLEEP) != 0);
2086         }
2087         mutex_exit(&mg->mg_lock);
2088 }
2089
2090 /*
2091  * Determine if the space map's on-disk footprint is past our tolerance
2092  * for inefficiency. We would like to use the following criteria to make
2093  * our decision:
2094  *
2095  * 1. The size of the space map object should not dramatically increase as a
2096  * result of writing out the free space range tree.
2097  *
2098  * 2. The minimal on-disk space map representation is zfs_condense_pct/100
2099  * times the size than the free space range tree representation
2100  * (i.e. zfs_condense_pct = 110 and in-core = 1MB, minimal = 1.1.MB).
2101  *
2102  * 3. The on-disk size of the space map should actually decrease.
2103  *
2104  * Checking the first condition is tricky since we don't want to walk
2105  * the entire AVL tree calculating the estimated on-disk size. Instead we
2106  * use the size-ordered range tree in the metaslab and calculate the
2107  * size required to write out the largest segment in our free tree. If the
2108  * size required to represent that segment on disk is larger than the space
2109  * map object then we avoid condensing this map.
2110  *
2111  * To determine the second criterion we use a best-case estimate and assume
2112  * each segment can be represented on-disk as a single 64-bit entry. We refer
2113  * to this best-case estimate as the space map's minimal form.
2114  *
2115  * Unfortunately, we cannot compute the on-disk size of the space map in this
2116  * context because we cannot accurately compute the effects of compression, etc.
2117  * Instead, we apply the heuristic described in the block comment for
2118  * zfs_metaslab_condense_block_threshold - we only condense if the space used
2119  * is greater than a threshold number of blocks.
2120  */
2121 static boolean_t
2122 metaslab_should_condense(metaslab_t *msp)
2123 {
2124         space_map_t *sm = msp->ms_sm;
2125         range_seg_t *rs;
2126         uint64_t size, entries, segsz, object_size, optimal_size, record_size;
2127         dmu_object_info_t doi;
2128         uint64_t vdev_blocksize = 1 << msp->ms_group->mg_vd->vdev_ashift;
2129
2130         ASSERT(MUTEX_HELD(&msp->ms_lock));
2131         ASSERT(msp->ms_loaded);
2132
2133         /*
2134          * Use the ms_size_tree range tree, which is ordered by size, to
2135          * obtain the largest segment in the free tree. We always condense
2136          * metaslabs that are empty and metaslabs for which a condense
2137          * request has been made.
2138          */
2139         rs = avl_last(&msp->ms_size_tree);
2140         if (rs == NULL || msp->ms_condense_wanted)
2141                 return (B_TRUE);
2142
2143         /*
2144          * Calculate the number of 64-bit entries this segment would
2145          * require when written to disk. If this single segment would be
2146          * larger on-disk than the entire current on-disk structure, then
2147          * clearly condensing will increase the on-disk structure size.
2148          */
2149         size = (rs->rs_end - rs->rs_start) >> sm->sm_shift;
2150         entries = size / (MIN(size, SM_RUN_MAX));
2151         segsz = entries * sizeof (uint64_t);
2152
2153         optimal_size = sizeof (uint64_t) * avl_numnodes(&msp->ms_tree->rt_root);
2154         object_size = space_map_length(msp->ms_sm);
2155
2156         dmu_object_info_from_db(sm->sm_dbuf, &doi);
2157         record_size = MAX(doi.doi_data_block_size, vdev_blocksize);
2158
2159         return (segsz <= object_size &&
2160             object_size >= (optimal_size * zfs_condense_pct / 100) &&
2161             object_size > zfs_metaslab_condense_block_threshold * record_size);
2162 }
2163
2164 /*
2165  * Condense the on-disk space map representation to its minimized form.
2166  * The minimized form consists of a small number of allocations followed by
2167  * the entries of the free range tree.
2168  */
2169 static void
2170 metaslab_condense(metaslab_t *msp, uint64_t txg, dmu_tx_t *tx)
2171 {
2172         spa_t *spa = msp->ms_group->mg_vd->vdev_spa;
2173         range_tree_t *condense_tree;
2174         space_map_t *sm = msp->ms_sm;
2175
2176         ASSERT(MUTEX_HELD(&msp->ms_lock));
2177         ASSERT3U(spa_sync_pass(spa), ==, 1);
2178         ASSERT(msp->ms_loaded);
2179
2180
2181         spa_dbgmsg(spa, "condensing: txg %llu, msp[%llu] %p, vdev id %llu, "
2182             "spa %s, smp size %llu, segments %lu, forcing condense=%s", txg,
2183             msp->ms_id, msp, msp->ms_group->mg_vd->vdev_id,
2184             msp->ms_group->mg_vd->vdev_spa->spa_name,
2185             space_map_length(msp->ms_sm), avl_numnodes(&msp->ms_tree->rt_root),
2186             msp->ms_condense_wanted ? "TRUE" : "FALSE");
2187
2188         msp->ms_condense_wanted = B_FALSE;
2189
2190         /*
2191          * Create an range tree that is 100% allocated. We remove segments
2192          * that have been freed in this txg, any deferred frees that exist,
2193          * and any allocation in the future. Removing segments should be
2194          * a relatively inexpensive operation since we expect these trees to
2195          * have a small number of nodes.
2196          */
2197         condense_tree = range_tree_create(NULL, NULL, &msp->ms_lock);
2198         range_tree_add(condense_tree, msp->ms_start, msp->ms_size);
2199
2200         /*
2201          * Remove what's been freed in this txg from the condense_tree.
2202          * Since we're in sync_pass 1, we know that all the frees from
2203          * this txg are in the freeingtree.
2204          */
2205         range_tree_walk(msp->ms_freeingtree, range_tree_remove, condense_tree);
2206
2207         for (int t = 0; t < TXG_DEFER_SIZE; t++) {
2208                 range_tree_walk(msp->ms_defertree[t],
2209                     range_tree_remove, condense_tree);
2210         }
2211
2212         for (int t = 1; t < TXG_CONCURRENT_STATES; t++) {
2213                 range_tree_walk(msp->ms_alloctree[(txg + t) & TXG_MASK],
2214                     range_tree_remove, condense_tree);
2215         }
2216
2217         /*
2218          * We're about to drop the metaslab's lock thus allowing
2219          * other consumers to change it's content. Set the
2220          * metaslab's ms_condensing flag to ensure that
2221          * allocations on this metaslab do not occur while we're
2222          * in the middle of committing it to disk. This is only critical
2223          * for the ms_tree as all other range trees use per txg
2224          * views of their content.
2225          */
2226         msp->ms_condensing = B_TRUE;
2227
2228         mutex_exit(&msp->ms_lock);
2229         space_map_truncate(sm, tx);
2230         mutex_enter(&msp->ms_lock);
2231
2232         /*
2233          * While we would ideally like to create a space map representation
2234          * that consists only of allocation records, doing so can be
2235          * prohibitively expensive because the in-core free tree can be
2236          * large, and therefore computationally expensive to subtract
2237          * from the condense_tree. Instead we sync out two trees, a cheap
2238          * allocation only tree followed by the in-core free tree. While not
2239          * optimal, this is typically close to optimal, and much cheaper to
2240          * compute.
2241          */
2242         space_map_write(sm, condense_tree, SM_ALLOC, tx);
2243         range_tree_vacate(condense_tree, NULL, NULL);
2244         range_tree_destroy(condense_tree);
2245
2246         space_map_write(sm, msp->ms_tree, SM_FREE, tx);
2247         msp->ms_condensing = B_FALSE;
2248 }
2249
2250 /*
2251  * Write a metaslab to disk in the context of the specified transaction group.
2252  */
2253 void
2254 metaslab_sync(metaslab_t *msp, uint64_t txg)
2255 {
2256         metaslab_group_t *mg = msp->ms_group;
2257         vdev_t *vd = mg->mg_vd;
2258         spa_t *spa = vd->vdev_spa;
2259         objset_t *mos = spa_meta_objset(spa);
2260         range_tree_t *alloctree = msp->ms_alloctree[txg & TXG_MASK];
2261         dmu_tx_t *tx;
2262         uint64_t object = space_map_object(msp->ms_sm);
2263
2264         ASSERT(!vd->vdev_ishole);
2265
2266         /*
2267          * This metaslab has just been added so there's no work to do now.
2268          */
2269         if (msp->ms_freeingtree == NULL) {
2270                 ASSERT3P(alloctree, ==, NULL);
2271                 return;
2272         }
2273
2274         ASSERT3P(alloctree, !=, NULL);
2275         ASSERT3P(msp->ms_freeingtree, !=, NULL);
2276         ASSERT3P(msp->ms_freedtree, !=, NULL);
2277
2278         /*
2279          * Normally, we don't want to process a metaslab if there
2280          * are no allocations or frees to perform. However, if the metaslab
2281          * is being forced to condense we need to let it through.
2282          */
2283         if (range_tree_space(alloctree) == 0 &&
2284             range_tree_space(msp->ms_freeingtree) == 0 &&
2285             !msp->ms_condense_wanted)
2286                 return;
2287
2288         /*
2289          * The only state that can actually be changing concurrently with
2290          * metaslab_sync() is the metaslab's ms_tree.  No other thread can
2291          * be modifying this txg's alloctree, freeingtree, freedtree, or
2292          * space_map_phys_t. Therefore, we only hold ms_lock to satify
2293          * space map ASSERTs. We drop it whenever we call into the DMU,
2294          * because the DMU can call down to us (e.g. via zio_free()) at
2295          * any time.
2296          */
2297
2298         tx = dmu_tx_create_assigned(spa_get_dsl(spa), txg);
2299
2300         if (msp->ms_sm == NULL) {
2301                 uint64_t new_object;
2302
2303                 new_object = space_map_alloc(mos, tx);
2304                 VERIFY3U(new_object, !=, 0);
2305
2306                 VERIFY0(space_map_open(&msp->ms_sm, mos, new_object,
2307                     msp->ms_start, msp->ms_size, vd->vdev_ashift,
2308                     &msp->ms_lock));
2309                 ASSERT(msp->ms_sm != NULL);
2310         }
2311
2312         mutex_enter(&msp->ms_lock);
2313
2314         /*
2315          * Note: metaslab_condense() clears the space map's histogram.
2316          * Therefore we must verify and remove this histogram before
2317          * condensing.
2318          */
2319         metaslab_group_histogram_verify(mg);
2320         metaslab_class_histogram_verify(mg->mg_class);
2321         metaslab_group_histogram_remove(mg, msp);
2322
2323         if (msp->ms_loaded && spa_sync_pass(spa) == 1 &&
2324             metaslab_should_condense(msp)) {
2325                 metaslab_condense(msp, txg, tx);
2326         } else {
2327                 space_map_write(msp->ms_sm, alloctree, SM_ALLOC, tx);
2328                 space_map_write(msp->ms_sm, msp->ms_freeingtree, SM_FREE, tx);
2329         }
2330
2331         if (msp->ms_loaded) {
2332                 /*
2333                  * When the space map is loaded, we have an accruate
2334                  * histogram in the range tree. This gives us an opportunity
2335                  * to bring the space map's histogram up-to-date so we clear
2336                  * it first before updating it.
2337                  */
2338                 space_map_histogram_clear(msp->ms_sm);
2339                 space_map_histogram_add(msp->ms_sm, msp->ms_tree, tx);
2340
2341                 /*
2342                  * Since we've cleared the histogram we need to add back
2343                  * any free space that has already been processed, plus
2344                  * any deferred space. This allows the on-disk histogram
2345                  * to accurately reflect all free space even if some space
2346                  * is not yet available for allocation (i.e. deferred).
2347                  */
2348                 space_map_histogram_add(msp->ms_sm, msp->ms_freedtree, tx);
2349
2350                 /*
2351                  * Add back any deferred free space that has not been
2352                  * added back into the in-core free tree yet. This will
2353                  * ensure that we don't end up with a space map histogram
2354                  * that is completely empty unless the metaslab is fully
2355                  * allocated.
2356                  */
2357                 for (int t = 0; t < TXG_DEFER_SIZE; t++) {
2358                         space_map_histogram_add(msp->ms_sm,
2359                             msp->ms_defertree[t], tx);
2360                 }
2361         }
2362
2363         /*
2364          * Always add the free space from this sync pass to the space
2365          * map histogram. We want to make sure that the on-disk histogram
2366          * accounts for all free space. If the space map is not loaded,
2367          * then we will lose some accuracy but will correct it the next
2368          * time we load the space map.
2369          */
2370         space_map_histogram_add(msp->ms_sm, msp->ms_freeingtree, tx);
2371
2372         metaslab_group_histogram_add(mg, msp);
2373         metaslab_group_histogram_verify(mg);
2374         metaslab_class_histogram_verify(mg->mg_class);
2375
2376         /*
2377          * For sync pass 1, we avoid traversing this txg's free range tree
2378          * and instead will just swap the pointers for freeingtree and
2379          * freedtree. We can safely do this since the freed_tree is
2380          * guaranteed to be empty on the initial pass.
2381          */
2382         if (spa_sync_pass(spa) == 1) {
2383                 range_tree_swap(&msp->ms_freeingtree, &msp->ms_freedtree);
2384         } else {
2385                 range_tree_vacate(msp->ms_freeingtree,
2386                     range_tree_add, msp->ms_freedtree);
2387         }
2388         range_tree_vacate(alloctree, NULL, NULL);
2389
2390         ASSERT0(range_tree_space(msp->ms_alloctree[txg & TXG_MASK]));
2391         ASSERT0(range_tree_space(msp->ms_alloctree[TXG_CLEAN(txg) & TXG_MASK]));
2392         ASSERT0(range_tree_space(msp->ms_freeingtree));
2393
2394         mutex_exit(&msp->ms_lock);
2395
2396         if (object != space_map_object(msp->ms_sm)) {
2397                 object = space_map_object(msp->ms_sm);
2398                 dmu_write(mos, vd->vdev_ms_array, sizeof (uint64_t) *
2399                     msp->ms_id, sizeof (uint64_t), &object, tx);
2400         }
2401         dmu_tx_commit(tx);
2402 }
2403
2404 /*
2405  * Called after a transaction group has completely synced to mark
2406  * all of the metaslab's free space as usable.
2407  */
2408 void
2409 metaslab_sync_done(metaslab_t *msp, uint64_t txg)
2410 {
2411         metaslab_group_t *mg = msp->ms_group;
2412         vdev_t *vd = mg->mg_vd;
2413         spa_t *spa = vd->vdev_spa;
2414         range_tree_t **defer_tree;
2415         int64_t alloc_delta, defer_delta;
2416         boolean_t defer_allowed = B_TRUE;
2417
2418         ASSERT(!vd->vdev_ishole);
2419
2420         mutex_enter(&msp->ms_lock);
2421
2422         /*
2423          * If this metaslab is just becoming available, initialize its
2424          * range trees and add its capacity to the vdev.
2425          */
2426         if (msp->ms_freedtree == NULL) {
2427                 for (int t = 0; t < TXG_SIZE; t++) {
2428                         ASSERT(msp->ms_alloctree[t] == NULL);
2429
2430                         msp->ms_alloctree[t] = range_tree_create(NULL, msp,
2431                             &msp->ms_lock);
2432                 }
2433
2434                 ASSERT3P(msp->ms_freeingtree, ==, NULL);
2435                 msp->ms_freeingtree = range_tree_create(NULL, msp,
2436                     &msp->ms_lock);
2437
2438                 ASSERT3P(msp->ms_freedtree, ==, NULL);
2439                 msp->ms_freedtree = range_tree_create(NULL, msp,
2440                     &msp->ms_lock);
2441
2442                 for (int t = 0; t < TXG_DEFER_SIZE; t++) {
2443                         ASSERT(msp->ms_defertree[t] == NULL);
2444
2445                         msp->ms_defertree[t] = range_tree_create(NULL, msp,
2446                             &msp->ms_lock);
2447                 }
2448
2449                 vdev_space_update(vd, 0, 0, msp->ms_size);
2450         }
2451
2452         defer_tree = &msp->ms_defertree[txg % TXG_DEFER_SIZE];
2453
2454         uint64_t free_space = metaslab_class_get_space(spa_normal_class(spa)) -
2455             metaslab_class_get_alloc(spa_normal_class(spa));
2456         if (free_space <= spa_get_slop_space(spa)) {
2457                 defer_allowed = B_FALSE;
2458         }
2459
2460         defer_delta = 0;
2461         alloc_delta = space_map_alloc_delta(msp->ms_sm);
2462         if (defer_allowed) {
2463                 defer_delta = range_tree_space(msp->ms_freedtree) -
2464                     range_tree_space(*defer_tree);
2465         } else {
2466                 defer_delta -= range_tree_space(*defer_tree);
2467         }
2468
2469         vdev_space_update(vd, alloc_delta + defer_delta, defer_delta, 0);
2470
2471         /*
2472          * If there's a metaslab_load() in progress, wait for it to complete
2473          * so that we have a consistent view of the in-core space map.
2474          */
2475         metaslab_load_wait(msp);
2476
2477         /*
2478          * Move the frees from the defer_tree back to the free
2479          * range tree (if it's loaded). Swap the freed_tree and the
2480          * defer_tree -- this is safe to do because we've just emptied out
2481          * the defer_tree.
2482          */
2483         range_tree_vacate(*defer_tree,
2484             msp->ms_loaded ? range_tree_add : NULL, msp->ms_tree);
2485         if (defer_allowed) {
2486                 range_tree_swap(&msp->ms_freedtree, defer_tree);
2487         } else {
2488                 range_tree_vacate(msp->ms_freedtree,
2489                     msp->ms_loaded ? range_tree_add : NULL, msp->ms_tree);
2490         }
2491
2492         space_map_update(msp->ms_sm);
2493
2494         msp->ms_deferspace += defer_delta;
2495         ASSERT3S(msp->ms_deferspace, >=, 0);
2496         ASSERT3S(msp->ms_deferspace, <=, msp->ms_size);
2497         if (msp->ms_deferspace != 0) {
2498                 /*
2499                  * Keep syncing this metaslab until all deferred frees
2500                  * are back in circulation.
2501                  */
2502                 vdev_dirty(vd, VDD_METASLAB, msp, txg + 1);
2503         }
2504
2505         /*
2506          * Calculate the new weights before unloading any metaslabs.
2507          * This will give us the most accurate weighting.
2508          */
2509         metaslab_group_sort(mg, msp, metaslab_weight(msp));
2510
2511         /*
2512          * If the metaslab is loaded and we've not tried to load or allocate
2513          * from it in 'metaslab_unload_delay' txgs, then unload it.
2514          */
2515         if (msp->ms_loaded &&
2516             msp->ms_selected_txg + metaslab_unload_delay < txg) {
2517                 for (int t = 1; t < TXG_CONCURRENT_STATES; t++) {
2518                         VERIFY0(range_tree_space(
2519                             msp->ms_alloctree[(txg + t) & TXG_MASK]));
2520                 }
2521
2522                 if (!metaslab_debug_unload)
2523                         metaslab_unload(msp);
2524         }
2525
2526         mutex_exit(&msp->ms_lock);
2527 }
2528
2529 void
2530 metaslab_sync_reassess(metaslab_group_t *mg)
2531 {
2532         metaslab_group_alloc_update(mg);
2533         mg->mg_fragmentation = metaslab_group_fragmentation(mg);
2534
2535         /*
2536          * Preload the next potential metaslabs
2537          */
2538         metaslab_group_preload(mg);
2539 }
2540
2541 static uint64_t
2542 metaslab_distance(metaslab_t *msp, dva_t *dva)
2543 {
2544         uint64_t ms_shift = msp->ms_group->mg_vd->vdev_ms_shift;
2545         uint64_t offset = DVA_GET_OFFSET(dva) >> ms_shift;
2546         uint64_t start = msp->ms_id;
2547
2548         if (msp->ms_group->mg_vd->vdev_id != DVA_GET_VDEV(dva))
2549                 return (1ULL << 63);
2550
2551         if (offset < start)
2552                 return ((start - offset) << ms_shift);
2553         if (offset > start)
2554                 return ((offset - start) << ms_shift);
2555         return (0);
2556 }
2557
2558 /*
2559  * ==========================================================================
2560  * Metaslab allocation tracing facility
2561  * ==========================================================================
2562  */
2563 kstat_t *metaslab_trace_ksp;
2564 kstat_named_t metaslab_trace_over_limit;
2565
2566 void
2567 metaslab_alloc_trace_init(void)
2568 {
2569         ASSERT(metaslab_alloc_trace_cache == NULL);
2570         metaslab_alloc_trace_cache = kmem_cache_create(
2571             "metaslab_alloc_trace_cache", sizeof (metaslab_alloc_trace_t),
2572             0, NULL, NULL, NULL, NULL, NULL, 0);
2573         metaslab_trace_ksp = kstat_create("zfs", 0, "metaslab_trace_stats",
2574             "misc", KSTAT_TYPE_NAMED, 1, KSTAT_FLAG_VIRTUAL);
2575         if (metaslab_trace_ksp != NULL) {
2576                 metaslab_trace_ksp->ks_data = &metaslab_trace_over_limit;
2577                 kstat_named_init(&metaslab_trace_over_limit,
2578                     "metaslab_trace_over_limit", KSTAT_DATA_UINT64);
2579                 kstat_install(metaslab_trace_ksp);
2580         }
2581 }
2582
2583 void
2584 metaslab_alloc_trace_fini(void)
2585 {
2586         if (metaslab_trace_ksp != NULL) {
2587                 kstat_delete(metaslab_trace_ksp);
2588                 metaslab_trace_ksp = NULL;
2589         }
2590         kmem_cache_destroy(metaslab_alloc_trace_cache);
2591         metaslab_alloc_trace_cache = NULL;
2592 }
2593
2594 /*
2595  * Add an allocation trace element to the allocation tracing list.
2596  */
2597 static void
2598 metaslab_trace_add(zio_alloc_list_t *zal, metaslab_group_t *mg,
2599     metaslab_t *msp, uint64_t psize, uint32_t dva_id, uint64_t offset)
2600 {
2601         if (!metaslab_trace_enabled)
2602                 return;
2603
2604         /*
2605          * When the tracing list reaches its maximum we remove
2606          * the second element in the list before adding a new one.
2607          * By removing the second element we preserve the original
2608          * entry as a clue to what allocations steps have already been
2609          * performed.
2610          */
2611         if (zal->zal_size == metaslab_trace_max_entries) {
2612                 metaslab_alloc_trace_t *mat_next;
2613 #ifdef DEBUG
2614                 panic("too many entries in allocation list");
2615 #endif
2616                 atomic_inc_64(&metaslab_trace_over_limit.value.ui64);
2617                 zal->zal_size--;
2618                 mat_next = list_next(&zal->zal_list, list_head(&zal->zal_list));
2619                 list_remove(&zal->zal_list, mat_next);
2620                 kmem_cache_free(metaslab_alloc_trace_cache, mat_next);
2621         }
2622
2623         metaslab_alloc_trace_t *mat =
2624             kmem_cache_alloc(metaslab_alloc_trace_cache, KM_SLEEP);
2625         list_link_init(&mat->mat_list_node);
2626         mat->mat_mg = mg;
2627         mat->mat_msp = msp;
2628         mat->mat_size = psize;
2629         mat->mat_dva_id = dva_id;
2630         mat->mat_offset = offset;
2631         mat->mat_weight = 0;
2632
2633         if (msp != NULL)
2634                 mat->mat_weight = msp->ms_weight;
2635
2636         /*
2637          * The list is part of the zio so locking is not required. Only
2638          * a single thread will perform allocations for a given zio.
2639          */
2640         list_insert_tail(&zal->zal_list, mat);
2641         zal->zal_size++;
2642
2643         ASSERT3U(zal->zal_size, <=, metaslab_trace_max_entries);
2644 }
2645
2646 void
2647 metaslab_trace_init(zio_alloc_list_t *zal)
2648 {
2649         list_create(&zal->zal_list, sizeof (metaslab_alloc_trace_t),
2650             offsetof(metaslab_alloc_trace_t, mat_list_node));
2651         zal->zal_size = 0;
2652 }
2653
2654 void
2655 metaslab_trace_fini(zio_alloc_list_t *zal)
2656 {
2657         metaslab_alloc_trace_t *mat;
2658
2659         while ((mat = list_remove_head(&zal->zal_list)) != NULL)
2660                 kmem_cache_free(metaslab_alloc_trace_cache, mat);
2661         list_destroy(&zal->zal_list);
2662         zal->zal_size = 0;
2663 }
2664
2665 /*
2666  * ==========================================================================
2667  * Metaslab block operations
2668  * ==========================================================================
2669  */
2670
2671 static void
2672 metaslab_group_alloc_increment(spa_t *spa, uint64_t vdev, void *tag, int flags)
2673 {
2674         if (!(flags & METASLAB_ASYNC_ALLOC) ||
2675             flags & METASLAB_DONT_THROTTLE)
2676                 return;
2677
2678         metaslab_group_t *mg = vdev_lookup_top(spa, vdev)->vdev_mg;
2679         if (!mg->mg_class->mc_alloc_throttle_enabled)
2680                 return;
2681
2682         (void) refcount_add(&mg->mg_alloc_queue_depth, tag);
2683 }
2684
2685 void
2686 metaslab_group_alloc_decrement(spa_t *spa, uint64_t vdev, void *tag, int flags)
2687 {
2688         if (!(flags & METASLAB_ASYNC_ALLOC) ||
2689             flags & METASLAB_DONT_THROTTLE)
2690                 return;
2691
2692         metaslab_group_t *mg = vdev_lookup_top(spa, vdev)->vdev_mg;
2693         if (!mg->mg_class->mc_alloc_throttle_enabled)
2694                 return;
2695
2696         (void) refcount_remove(&mg->mg_alloc_queue_depth, tag);
2697 }
2698
2699 void
2700 metaslab_group_alloc_verify(spa_t *spa, const blkptr_t *bp, void *tag)
2701 {
2702 #ifdef ZFS_DEBUG
2703         const dva_t *dva = bp->blk_dva;
2704         int ndvas = BP_GET_NDVAS(bp);
2705
2706         for (int d = 0; d < ndvas; d++) {
2707                 uint64_t vdev = DVA_GET_VDEV(&dva[d]);
2708                 metaslab_group_t *mg = vdev_lookup_top(spa, vdev)->vdev_mg;
2709                 VERIFY(refcount_not_held(&mg->mg_alloc_queue_depth, tag));
2710         }
2711 #endif
2712 }
2713
2714 static uint64_t
2715 metaslab_block_alloc(metaslab_t *msp, uint64_t size, uint64_t txg)
2716 {
2717         uint64_t start;
2718         range_tree_t *rt = msp->ms_tree;
2719         metaslab_class_t *mc = msp->ms_group->mg_class;
2720
2721         VERIFY(!msp->ms_condensing);
2722
2723         start = mc->mc_ops->msop_alloc(msp, size);
2724         if (start != -1ULL) {
2725                 metaslab_group_t *mg = msp->ms_group;
2726                 vdev_t *vd = mg->mg_vd;
2727
2728                 VERIFY0(P2PHASE(start, 1ULL << vd->vdev_ashift));
2729                 VERIFY0(P2PHASE(size, 1ULL << vd->vdev_ashift));
2730                 VERIFY3U(range_tree_space(rt) - size, <=, msp->ms_size);
2731                 range_tree_remove(rt, start, size);
2732
2733                 if (range_tree_space(msp->ms_alloctree[txg & TXG_MASK]) == 0)
2734                         vdev_dirty(mg->mg_vd, VDD_METASLAB, msp, txg);
2735
2736                 range_tree_add(msp->ms_alloctree[txg & TXG_MASK], start, size);
2737
2738                 /* Track the last successful allocation */
2739                 msp->ms_alloc_txg = txg;
2740                 metaslab_verify_space(msp, txg);
2741         }
2742
2743         /*
2744          * Now that we've attempted the allocation we need to update the
2745          * metaslab's maximum block size since it may have changed.
2746          */
2747         msp->ms_max_size = metaslab_block_maxsize(msp);
2748         return (start);
2749 }
2750
2751 static uint64_t
2752 metaslab_group_alloc_normal(metaslab_group_t *mg, zio_alloc_list_t *zal,
2753     uint64_t asize, uint64_t txg, uint64_t min_distance, dva_t *dva, int d)
2754 {
2755         metaslab_t *msp = NULL;
2756         uint64_t offset = -1ULL;
2757         uint64_t activation_weight;
2758         uint64_t target_distance;
2759         int i;
2760
2761         activation_weight = METASLAB_WEIGHT_PRIMARY;
2762         for (i = 0; i < d; i++) {
2763                 if (DVA_GET_VDEV(&dva[i]) == mg->mg_vd->vdev_id) {
2764                         activation_weight = METASLAB_WEIGHT_SECONDARY;
2765                         break;
2766                 }
2767         }
2768
2769         metaslab_t *search = kmem_alloc(sizeof (*search), KM_SLEEP);
2770         search->ms_weight = UINT64_MAX;
2771         search->ms_start = 0;
2772         for (;;) {
2773                 boolean_t was_active;
2774                 avl_tree_t *t = &mg->mg_metaslab_tree;
2775                 avl_index_t idx;
2776
2777                 mutex_enter(&mg->mg_lock);
2778
2779                 /*
2780                  * Find the metaslab with the highest weight that is less
2781                  * than what we've already tried.  In the common case, this
2782                  * means that we will examine each metaslab at most once.
2783                  * Note that concurrent callers could reorder metaslabs
2784                  * by activation/passivation once we have dropped the mg_lock.
2785                  * If a metaslab is activated by another thread, and we fail
2786                  * to allocate from the metaslab we have selected, we may
2787                  * not try the newly-activated metaslab, and instead activate
2788                  * another metaslab.  This is not optimal, but generally
2789                  * does not cause any problems (a possible exception being
2790                  * if every metaslab is completely full except for the
2791                  * the newly-activated metaslab which we fail to examine).
2792                  */
2793                 msp = avl_find(t, search, &idx);
2794                 if (msp == NULL)
2795                         msp = avl_nearest(t, idx, AVL_AFTER);
2796                 for (; msp != NULL; msp = AVL_NEXT(t, msp)) {
2797
2798                         if (!metaslab_should_allocate(msp, asize)) {
2799                                 metaslab_trace_add(zal, mg, msp, asize, d,
2800                                     TRACE_TOO_SMALL);
2801                                 continue;
2802                         }
2803
2804                         /*
2805                          * If the selected metaslab is condensing, skip it.
2806                          */
2807                         if (msp->ms_condensing)
2808                                 continue;
2809
2810                         was_active = msp->ms_weight & METASLAB_ACTIVE_MASK;
2811                         if (activation_weight == METASLAB_WEIGHT_PRIMARY)
2812                                 break;
2813
2814                         target_distance = min_distance +
2815                             (space_map_allocated(msp->ms_sm) != 0 ? 0 :
2816                             min_distance >> 1);
2817
2818                         for (i = 0; i < d; i++) {
2819                                 if (metaslab_distance(msp, &dva[i]) <
2820                                     target_distance)
2821                                         break;
2822                         }
2823                         if (i == d)
2824                                 break;
2825                 }
2826                 mutex_exit(&mg->mg_lock);
2827                 if (msp == NULL) {
2828                         kmem_free(search, sizeof (*search));
2829                         return (-1ULL);
2830                 }
2831                 search->ms_weight = msp->ms_weight;
2832                 search->ms_start = msp->ms_start + 1;
2833
2834                 mutex_enter(&msp->ms_lock);
2835
2836                 /*
2837                  * Ensure that the metaslab we have selected is still
2838                  * capable of handling our request. It's possible that
2839                  * another thread may have changed the weight while we
2840                  * were blocked on the metaslab lock. We check the
2841                  * active status first to see if we need to reselect
2842                  * a new metaslab.
2843                  */
2844                 if (was_active && !(msp->ms_weight & METASLAB_ACTIVE_MASK)) {
2845                         mutex_exit(&msp->ms_lock);
2846                         continue;
2847                 }
2848
2849                 if ((msp->ms_weight & METASLAB_WEIGHT_SECONDARY) &&
2850                     activation_weight == METASLAB_WEIGHT_PRIMARY) {
2851                         metaslab_passivate(msp,
2852                             msp->ms_weight & ~METASLAB_ACTIVE_MASK);
2853                         mutex_exit(&msp->ms_lock);
2854                         continue;
2855                 }
2856
2857                 if (metaslab_activate(msp, activation_weight) != 0) {
2858                         mutex_exit(&msp->ms_lock);
2859                         continue;
2860                 }
2861                 msp->ms_selected_txg = txg;
2862
2863                 /*
2864                  * Now that we have the lock, recheck to see if we should
2865                  * continue to use this metaslab for this allocation. The
2866                  * the metaslab is now loaded so metaslab_should_allocate() can
2867                  * accurately determine if the allocation attempt should
2868                  * proceed.
2869                  */
2870                 if (!metaslab_should_allocate(msp, asize)) {
2871                         /* Passivate this metaslab and select a new one. */
2872                         metaslab_trace_add(zal, mg, msp, asize, d,
2873                             TRACE_TOO_SMALL);
2874                         goto next;
2875                 }
2876
2877                 /*
2878                  * If this metaslab is currently condensing then pick again as
2879                  * we can't manipulate this metaslab until it's committed
2880                  * to disk.
2881                  */
2882                 if (msp->ms_condensing) {
2883                         metaslab_trace_add(zal, mg, msp, asize, d,
2884                             TRACE_CONDENSING);
2885                         mutex_exit(&msp->ms_lock);
2886                         continue;
2887                 }
2888
2889                 offset = metaslab_block_alloc(msp, asize, txg);
2890                 metaslab_trace_add(zal, mg, msp, asize, d, offset);
2891
2892                 if (offset != -1ULL) {
2893                         /* Proactively passivate the metaslab, if needed */
2894                         metaslab_segment_may_passivate(msp);
2895                         break;
2896                 }
2897 next:
2898                 ASSERT(msp->ms_loaded);
2899
2900                 /*
2901                  * We were unable to allocate from this metaslab so determine
2902                  * a new weight for this metaslab. Now that we have loaded
2903                  * the metaslab we can provide a better hint to the metaslab
2904                  * selector.
2905                  *
2906                  * For space-based metaslabs, we use the maximum block size.
2907                  * This information is only available when the metaslab
2908                  * is loaded and is more accurate than the generic free
2909                  * space weight that was calculated by metaslab_weight().
2910                  * This information allows us to quickly compare the maximum
2911                  * available allocation in the metaslab to the allocation
2912                  * size being requested.
2913                  *
2914                  * For segment-based metaslabs, determine the new weight
2915                  * based on the highest bucket in the range tree. We
2916                  * explicitly use the loaded segment weight (i.e. the range
2917                  * tree histogram) since it contains the space that is
2918                  * currently available for allocation and is accurate
2919                  * even within a sync pass.
2920                  */
2921                 if (WEIGHT_IS_SPACEBASED(msp->ms_weight)) {
2922                         uint64_t weight = metaslab_block_maxsize(msp);
2923                         WEIGHT_SET_SPACEBASED(weight);
2924                         metaslab_passivate(msp, weight);
2925                 } else {
2926                         metaslab_passivate(msp,
2927                             metaslab_weight_from_range_tree(msp));
2928                 }
2929
2930                 /*
2931                  * We have just failed an allocation attempt, check
2932                  * that metaslab_should_allocate() agrees. Otherwise,
2933                  * we may end up in an infinite loop retrying the same
2934                  * metaslab.
2935                  */
2936                 ASSERT(!metaslab_should_allocate(msp, asize));
2937                 mutex_exit(&msp->ms_lock);
2938         }
2939         mutex_exit(&msp->ms_lock);
2940         kmem_free(search, sizeof (*search));
2941         return (offset);
2942 }
2943
2944 static uint64_t
2945 metaslab_group_alloc(metaslab_group_t *mg, zio_alloc_list_t *zal,
2946     uint64_t asize, uint64_t txg, uint64_t min_distance, dva_t *dva, int d)
2947 {
2948         uint64_t offset;
2949         ASSERT(mg->mg_initialized);
2950
2951         offset = metaslab_group_alloc_normal(mg, zal, asize, txg,
2952             min_distance, dva, d);
2953
2954         mutex_enter(&mg->mg_lock);
2955         if (offset == -1ULL) {
2956                 mg->mg_failed_allocations++;
2957                 metaslab_trace_add(zal, mg, NULL, asize, d,
2958                     TRACE_GROUP_FAILURE);
2959                 if (asize == SPA_GANGBLOCKSIZE) {
2960                         /*
2961                          * This metaslab group was unable to allocate
2962                          * the minimum gang block size so it must be out of
2963                          * space. We must notify the allocation throttle
2964                          * to start skipping allocation attempts to this
2965                          * metaslab group until more space becomes available.
2966                          * Note: this failure cannot be caused by the
2967                          * allocation throttle since the allocation throttle
2968                          * is only responsible for skipping devices and
2969                          * not failing block allocations.
2970                          */
2971                         mg->mg_no_free_space = B_TRUE;
2972                 }
2973         }
2974         mg->mg_allocations++;
2975         mutex_exit(&mg->mg_lock);
2976         return (offset);
2977 }
2978
2979 /*
2980  * If we have to write a ditto block (i.e. more than one DVA for a given BP)
2981  * on the same vdev as an existing DVA of this BP, then try to allocate it
2982  * at least (vdev_asize / (2 ^ ditto_same_vdev_distance_shift)) away from the
2983  * existing DVAs.
2984  */
2985 int ditto_same_vdev_distance_shift = 3;
2986
2987 /*
2988  * Allocate a block for the specified i/o.
2989  */
2990 static int
2991 metaslab_alloc_dva(spa_t *spa, metaslab_class_t *mc, uint64_t psize,
2992     dva_t *dva, int d, dva_t *hintdva, uint64_t txg, int flags,
2993     zio_alloc_list_t *zal)
2994 {
2995         metaslab_group_t *mg, *rotor;
2996         vdev_t *vd;
2997         boolean_t try_hard = B_FALSE;
2998
2999         ASSERT(!DVA_IS_VALID(&dva[d]));
3000
3001         /*
3002          * For testing, make some blocks above a certain size be gang blocks.
3003          */
3004         if (psize >= metaslab_gang_bang && (ddi_get_lbolt() & 3) == 0) {
3005                 metaslab_trace_add(zal, NULL, NULL, psize, d, TRACE_FORCE_GANG);
3006                 return (SET_ERROR(ENOSPC));
3007         }
3008
3009         /*
3010          * Start at the rotor and loop through all mgs until we find something.
3011          * Note that there's no locking on mc_rotor or mc_aliquot because
3012          * nothing actually breaks if we miss a few updates -- we just won't
3013          * allocate quite as evenly.  It all balances out over time.
3014          *
3015          * If we are doing ditto or log blocks, try to spread them across
3016          * consecutive vdevs.  If we're forced to reuse a vdev before we've
3017          * allocated all of our ditto blocks, then try and spread them out on
3018          * that vdev as much as possible.  If it turns out to not be possible,
3019          * gradually lower our standards until anything becomes acceptable.
3020          * Also, allocating on consecutive vdevs (as opposed to random vdevs)
3021          * gives us hope of containing our fault domains to something we're
3022          * able to reason about.  Otherwise, any two top-level vdev failures
3023          * will guarantee the loss of data.  With consecutive allocation,
3024          * only two adjacent top-level vdev failures will result in data loss.
3025          *
3026          * If we are doing gang blocks (hintdva is non-NULL), try to keep
3027          * ourselves on the same vdev as our gang block header.  That
3028          * way, we can hope for locality in vdev_cache, plus it makes our
3029          * fault domains something tractable.
3030          */
3031         if (hintdva) {
3032                 vd = vdev_lookup_top(spa, DVA_GET_VDEV(&hintdva[d]));
3033
3034                 /*
3035                  * It's possible the vdev we're using as the hint no
3036                  * longer exists (i.e. removed). Consult the rotor when
3037                  * all else fails.
3038                  */
3039                 if (vd != NULL) {
3040                         mg = vd->vdev_mg;
3041
3042                         if (flags & METASLAB_HINTBP_AVOID &&
3043                             mg->mg_next != NULL)
3044                                 mg = mg->mg_next;
3045                 } else {
3046                         mg = mc->mc_rotor;
3047                 }
3048         } else if (d != 0) {
3049                 vd = vdev_lookup_top(spa, DVA_GET_VDEV(&dva[d - 1]));
3050                 mg = vd->vdev_mg->mg_next;
3051         } else {
3052                 mg = mc->mc_rotor;
3053         }
3054
3055         /*
3056          * If the hint put us into the wrong metaslab class, or into a
3057          * metaslab group that has been passivated, just follow the rotor.
3058          */
3059         if (mg->mg_class != mc || mg->mg_activation_count <= 0)
3060                 mg = mc->mc_rotor;
3061
3062         rotor = mg;
3063 top:
3064         do {
3065                 boolean_t allocatable;
3066
3067                 ASSERT(mg->mg_activation_count == 1);
3068                 vd = mg->mg_vd;
3069
3070                 /*
3071                  * Don't allocate from faulted devices.
3072                  */
3073                 if (try_hard) {
3074                         spa_config_enter(spa, SCL_ZIO, FTAG, RW_READER);
3075                         allocatable = vdev_allocatable(vd);
3076                         spa_config_exit(spa, SCL_ZIO, FTAG);
3077                 } else {
3078                         allocatable = vdev_allocatable(vd);
3079                 }
3080
3081                 /*
3082                  * Determine if the selected metaslab group is eligible
3083                  * for allocations. If we're ganging then don't allow
3084                  * this metaslab group to skip allocations since that would
3085                  * inadvertently return ENOSPC and suspend the pool
3086                  * even though space is still available.
3087                  */
3088                 if (allocatable && !GANG_ALLOCATION(flags) && !try_hard) {
3089                         allocatable = metaslab_group_allocatable(mg, rotor,
3090                             psize);
3091                 }
3092
3093                 if (!allocatable) {
3094                         metaslab_trace_add(zal, mg, NULL, psize, d,
3095                             TRACE_NOT_ALLOCATABLE);
3096                         goto next;
3097                 }
3098
3099                 ASSERT(mg->mg_initialized);
3100
3101                 /*
3102                  * Avoid writing single-copy data to a failing,
3103                  * non-redundant vdev, unless we've already tried all
3104                  * other vdevs.
3105                  */
3106                 if ((vd->vdev_stat.vs_write_errors > 0 ||
3107                     vd->vdev_state < VDEV_STATE_HEALTHY) &&
3108                     d == 0 && !try_hard && vd->vdev_children == 0) {
3109                         metaslab_trace_add(zal, mg, NULL, psize, d,
3110                             TRACE_VDEV_ERROR);
3111                         goto next;
3112                 }
3113
3114                 ASSERT(mg->mg_class == mc);
3115
3116                 /*
3117                  * If we don't need to try hard, then require that the
3118                  * block be 1/8th of the device away from any other DVAs
3119                  * in this BP.  If we are trying hard, allow any offset
3120                  * to be used (distance=0).
3121                  */
3122                 uint64_t distance = 0;
3123                 if (!try_hard) {
3124                         distance = vd->vdev_asize >>
3125                             ditto_same_vdev_distance_shift;
3126                         if (distance <= (1ULL << vd->vdev_ms_shift))
3127                                 distance = 0;
3128                 }
3129
3130                 uint64_t asize = vdev_psize_to_asize(vd, psize);
3131                 ASSERT(P2PHASE(asize, 1ULL << vd->vdev_ashift) == 0);
3132
3133                 uint64_t offset = metaslab_group_alloc(mg, zal, asize, txg,
3134                     distance, dva, d);
3135
3136                 if (offset != -1ULL) {
3137                         /*
3138                          * If we've just selected this metaslab group,
3139                          * figure out whether the corresponding vdev is
3140                          * over- or under-used relative to the pool,
3141                          * and set an allocation bias to even it out.
3142                          */
3143                         if (mc->mc_aliquot == 0 && metaslab_bias_enabled) {
3144                                 vdev_stat_t *vs = &vd->vdev_stat;
3145                                 int64_t vu, cu;
3146
3147                                 vu = (vs->vs_alloc * 100) / (vs->vs_space + 1);
3148                                 cu = (mc->mc_alloc * 100) / (mc->mc_space + 1);
3149
3150                                 /*
3151                                  * Calculate how much more or less we should
3152                                  * try to allocate from this device during
3153                                  * this iteration around the rotor.
3154                                  * For example, if a device is 80% full
3155                                  * and the pool is 20% full then we should
3156                                  * reduce allocations by 60% on this device.
3157                                  *
3158                                  * mg_bias = (20 - 80) * 512K / 100 = -307K
3159                                  *
3160                                  * This reduces allocations by 307K for this
3161                                  * iteration.
3162                                  */
3163                                 mg->mg_bias = ((cu - vu) *
3164                                     (int64_t)mg->mg_aliquot) / 100;
3165                         } else if (!metaslab_bias_enabled) {
3166                                 mg->mg_bias = 0;
3167                         }
3168
3169                         if (atomic_add_64_nv(&mc->mc_aliquot, asize) >=
3170                             mg->mg_aliquot + mg->mg_bias) {
3171                                 mc->mc_rotor = mg->mg_next;
3172                                 mc->mc_aliquot = 0;
3173                         }
3174
3175                         DVA_SET_VDEV(&dva[d], vd->vdev_id);
3176                         DVA_SET_OFFSET(&dva[d], offset);
3177                         DVA_SET_GANG(&dva[d], !!(flags & METASLAB_GANG_HEADER));
3178                         DVA_SET_ASIZE(&dva[d], asize);
3179
3180                         return (0);
3181                 }
3182 next:
3183                 mc->mc_rotor = mg->mg_next;
3184                 mc->mc_aliquot = 0;
3185         } while ((mg = mg->mg_next) != rotor);
3186
3187         /*
3188          * If we haven't tried hard, do so now.
3189          */
3190         if (!try_hard) {
3191                 try_hard = B_TRUE;
3192                 goto top;
3193         }
3194
3195         bzero(&dva[d], sizeof (dva_t));
3196
3197         metaslab_trace_add(zal, rotor, NULL, psize, d, TRACE_ENOSPC);
3198         return (SET_ERROR(ENOSPC));
3199 }
3200
3201 /*
3202  * Free the block represented by DVA in the context of the specified
3203  * transaction group.
3204  */
3205 static void
3206 metaslab_free_dva(spa_t *spa, const dva_t *dva, uint64_t txg, boolean_t now)
3207 {
3208         uint64_t vdev = DVA_GET_VDEV(dva);
3209         uint64_t offset = DVA_GET_OFFSET(dva);
3210         uint64_t size = DVA_GET_ASIZE(dva);
3211         vdev_t *vd;
3212         metaslab_t *msp;
3213
3214         ASSERT(DVA_IS_VALID(dva));
3215
3216         if (txg > spa_freeze_txg(spa))
3217                 return;
3218
3219         if ((vd = vdev_lookup_top(spa, vdev)) == NULL ||
3220             (offset >> vd->vdev_ms_shift) >= vd->vdev_ms_count) {
3221                 cmn_err(CE_WARN, "metaslab_free_dva(): bad DVA %llu:%llu",
3222                     (u_longlong_t)vdev, (u_longlong_t)offset);
3223                 ASSERT(0);
3224                 return;
3225         }
3226
3227         msp = vd->vdev_ms[offset >> vd->vdev_ms_shift];
3228
3229         if (DVA_GET_GANG(dva))
3230                 size = vdev_psize_to_asize(vd, SPA_GANGBLOCKSIZE);
3231
3232         mutex_enter(&msp->ms_lock);
3233
3234         if (now) {
3235                 range_tree_remove(msp->ms_alloctree[txg & TXG_MASK],
3236                     offset, size);
3237
3238                 VERIFY(!msp->ms_condensing);
3239                 VERIFY3U(offset, >=, msp->ms_start);
3240                 VERIFY3U(offset + size, <=, msp->ms_start + msp->ms_size);
3241                 VERIFY3U(range_tree_space(msp->ms_tree) + size, <=,
3242                     msp->ms_size);
3243                 VERIFY0(P2PHASE(offset, 1ULL << vd->vdev_ashift));
3244                 VERIFY0(P2PHASE(size, 1ULL << vd->vdev_ashift));
3245                 range_tree_add(msp->ms_tree, offset, size);
3246                 msp->ms_max_size = metaslab_block_maxsize(msp);
3247         } else {
3248                 VERIFY3U(txg, ==, spa->spa_syncing_txg);
3249                 if (range_tree_space(msp->ms_freeingtree) == 0)
3250                         vdev_dirty(vd, VDD_METASLAB, msp, txg);
3251                 range_tree_add(msp->ms_freeingtree, offset, size);
3252         }
3253
3254         mutex_exit(&msp->ms_lock);
3255 }
3256
3257 /*
3258  * Intent log support: upon opening the pool after a crash, notify the SPA
3259  * of blocks that the intent log has allocated for immediate write, but
3260  * which are still considered free by the SPA because the last transaction
3261  * group didn't commit yet.
3262  */
3263 static int
3264 metaslab_claim_dva(spa_t *spa, const dva_t *dva, uint64_t txg)
3265 {
3266         uint64_t vdev = DVA_GET_VDEV(dva);
3267         uint64_t offset = DVA_GET_OFFSET(dva);
3268         uint64_t size = DVA_GET_ASIZE(dva);
3269         vdev_t *vd;
3270         metaslab_t *msp;
3271         int error = 0;
3272
3273         ASSERT(DVA_IS_VALID(dva));
3274
3275         if ((vd = vdev_lookup_top(spa, vdev)) == NULL ||
3276             (offset >> vd->vdev_ms_shift) >= vd->vdev_ms_count)
3277                 return (SET_ERROR(ENXIO));
3278
3279         msp = vd->vdev_ms[offset >> vd->vdev_ms_shift];
3280
3281         if (DVA_GET_GANG(dva))
3282                 size = vdev_psize_to_asize(vd, SPA_GANGBLOCKSIZE);
3283
3284         mutex_enter(&msp->ms_lock);
3285
3286         if ((txg != 0 && spa_writeable(spa)) || !msp->ms_loaded)
3287                 error = metaslab_activate(msp, METASLAB_WEIGHT_SECONDARY);
3288
3289         if (error == 0 && !range_tree_contains(msp->ms_tree, offset, size))
3290                 error = SET_ERROR(ENOENT);
3291
3292         if (error || txg == 0) {        /* txg == 0 indicates dry run */
3293                 mutex_exit(&msp->ms_lock);
3294                 return (error);
3295         }
3296
3297         VERIFY(!msp->ms_condensing);
3298         VERIFY0(P2PHASE(offset, 1ULL << vd->vdev_ashift));
3299         VERIFY0(P2PHASE(size, 1ULL << vd->vdev_ashift));
3300         VERIFY3U(range_tree_space(msp->ms_tree) - size, <=, msp->ms_size);
3301         range_tree_remove(msp->ms_tree, offset, size);
3302
3303         if (spa_writeable(spa)) {       /* don't dirty if we're zdb(1M) */
3304                 if (range_tree_space(msp->ms_alloctree[txg & TXG_MASK]) == 0)
3305                         vdev_dirty(vd, VDD_METASLAB, msp, txg);
3306                 range_tree_add(msp->ms_alloctree[txg & TXG_MASK], offset, size);
3307         }
3308
3309         mutex_exit(&msp->ms_lock);
3310
3311         return (0);
3312 }
3313
3314 /*
3315  * Reserve some allocation slots. The reservation system must be called
3316  * before we call into the allocator. If there aren't any available slots
3317  * then the I/O will be throttled until an I/O completes and its slots are
3318  * freed up. The function returns true if it was successful in placing
3319  * the reservation.
3320  */
3321 boolean_t
3322 metaslab_class_throttle_reserve(metaslab_class_t *mc, int slots, zio_t *zio,
3323     int flags)
3324 {
3325         uint64_t available_slots = 0;
3326         boolean_t slot_reserved = B_FALSE;
3327
3328         ASSERT(mc->mc_alloc_throttle_enabled);
3329         mutex_enter(&mc->mc_lock);
3330
3331         uint64_t reserved_slots = refcount_count(&mc->mc_alloc_slots);
3332         if (reserved_slots < mc->mc_alloc_max_slots)
3333                 available_slots = mc->mc_alloc_max_slots - reserved_slots;
3334
3335         if (slots <= available_slots || GANG_ALLOCATION(flags)) {
3336                 /*
3337                  * We reserve the slots individually so that we can unreserve
3338                  * them individually when an I/O completes.
3339                  */
3340                 for (int d = 0; d < slots; d++) {
3341                         reserved_slots = refcount_add(&mc->mc_alloc_slots, zio);
3342                 }
3343                 zio->io_flags |= ZIO_FLAG_IO_ALLOCATING;
3344                 slot_reserved = B_TRUE;
3345         }
3346
3347         mutex_exit(&mc->mc_lock);
3348         return (slot_reserved);
3349 }
3350
3351 void
3352 metaslab_class_throttle_unreserve(metaslab_class_t *mc, int slots, zio_t *zio)
3353 {
3354         ASSERT(mc->mc_alloc_throttle_enabled);
3355         mutex_enter(&mc->mc_lock);
3356         for (int d = 0; d < slots; d++) {
3357                 (void) refcount_remove(&mc->mc_alloc_slots, zio);
3358         }
3359         mutex_exit(&mc->mc_lock);
3360 }
3361
3362 int
3363 metaslab_alloc(spa_t *spa, metaslab_class_t *mc, uint64_t psize, blkptr_t *bp,
3364     int ndvas, uint64_t txg, blkptr_t *hintbp, int flags,
3365     zio_alloc_list_t *zal, zio_t *zio)
3366 {
3367         dva_t *dva = bp->blk_dva;
3368         dva_t *hintdva = hintbp->blk_dva;
3369         int error = 0;
3370
3371         ASSERT(bp->blk_birth == 0);
3372         ASSERT(BP_PHYSICAL_BIRTH(bp) == 0);
3373
3374         spa_config_enter(spa, SCL_ALLOC, FTAG, RW_READER);
3375
3376         if (mc->mc_rotor == NULL) {     /* no vdevs in this class */
3377                 spa_config_exit(spa, SCL_ALLOC, FTAG);
3378                 return (SET_ERROR(ENOSPC));
3379         }
3380
3381         ASSERT(ndvas > 0 && ndvas <= spa_max_replication(spa));
3382         ASSERT(BP_GET_NDVAS(bp) == 0);
3383         ASSERT(hintbp == NULL || ndvas <= BP_GET_NDVAS(hintbp));
3384         ASSERT3P(zal, !=, NULL);
3385
3386         for (int d = 0; d < ndvas; d++) {
3387                 error = metaslab_alloc_dva(spa, mc, psize, dva, d, hintdva,
3388                     txg, flags, zal);
3389                 if (error != 0) {
3390                         for (d--; d >= 0; d--) {
3391                                 metaslab_free_dva(spa, &dva[d], txg, B_TRUE);
3392                                 metaslab_group_alloc_decrement(spa,
3393                                     DVA_GET_VDEV(&dva[d]), zio, flags);
3394                                 bzero(&dva[d], sizeof (dva_t));
3395                         }
3396                         spa_config_exit(spa, SCL_ALLOC, FTAG);
3397                         return (error);
3398                 } else {
3399                         /*
3400                          * Update the metaslab group's queue depth
3401                          * based on the newly allocated dva.
3402                          */
3403                         metaslab_group_alloc_increment(spa,
3404                             DVA_GET_VDEV(&dva[d]), zio, flags);
3405                 }
3406
3407         }
3408         ASSERT(error == 0);
3409         ASSERT(BP_GET_NDVAS(bp) == ndvas);
3410
3411         spa_config_exit(spa, SCL_ALLOC, FTAG);
3412
3413         BP_SET_BIRTH(bp, txg, txg);
3414
3415         return (0);
3416 }
3417
3418 void
3419 metaslab_free(spa_t *spa, const blkptr_t *bp, uint64_t txg, boolean_t now)
3420 {
3421         const dva_t *dva = bp->blk_dva;
3422         int ndvas = BP_GET_NDVAS(bp);
3423
3424         ASSERT(!BP_IS_HOLE(bp));
3425         ASSERT(!now || bp->blk_birth >= spa_syncing_txg(spa));
3426
3427         spa_config_enter(spa, SCL_FREE, FTAG, RW_READER);
3428
3429         for (int d = 0; d < ndvas; d++)
3430                 metaslab_free_dva(spa, &dva[d], txg, now);
3431
3432         spa_config_exit(spa, SCL_FREE, FTAG);
3433 }
3434
3435 int
3436 metaslab_claim(spa_t *spa, const blkptr_t *bp, uint64_t txg)
3437 {
3438         const dva_t *dva = bp->blk_dva;
3439         int ndvas = BP_GET_NDVAS(bp);
3440         int error = 0;
3441
3442         ASSERT(!BP_IS_HOLE(bp));
3443
3444         if (txg != 0) {
3445                 /*
3446                  * First do a dry run to make sure all DVAs are claimable,
3447                  * so we don't have to unwind from partial failures below.
3448                  */
3449                 if ((error = metaslab_claim(spa, bp, 0)) != 0)
3450                         return (error);
3451         }
3452
3453         spa_config_enter(spa, SCL_ALLOC, FTAG, RW_READER);
3454
3455         for (int d = 0; d < ndvas; d++)
3456                 if ((error = metaslab_claim_dva(spa, &dva[d], txg)) != 0)
3457                         break;
3458
3459         spa_config_exit(spa, SCL_ALLOC, FTAG);
3460
3461         ASSERT(error == 0 || txg == 0);
3462
3463         return (error);
3464 }
3465
3466 void
3467 metaslab_check_free(spa_t *spa, const blkptr_t *bp)
3468 {
3469         if ((zfs_flags & ZFS_DEBUG_ZIO_FREE) == 0)
3470                 return;
3471
3472         spa_config_enter(spa, SCL_VDEV, FTAG, RW_READER);
3473         for (int i = 0; i < BP_GET_NDVAS(bp); i++) {
3474                 uint64_t vdev = DVA_GET_VDEV(&bp->blk_dva[i]);
3475                 vdev_t *vd = vdev_lookup_top(spa, vdev);
3476                 uint64_t offset = DVA_GET_OFFSET(&bp->blk_dva[i]);
3477                 uint64_t size = DVA_GET_ASIZE(&bp->blk_dva[i]);
3478                 metaslab_t *msp = vd->vdev_ms[offset >> vd->vdev_ms_shift];
3479
3480                 if (msp->ms_loaded)
3481                         range_tree_verify(msp->ms_tree, offset, size);
3482
3483                 range_tree_verify(msp->ms_freeingtree, offset, size);
3484                 range_tree_verify(msp->ms_freedtree, offset, size);
3485                 for (int j = 0; j < TXG_DEFER_SIZE; j++)
3486                         range_tree_verify(msp->ms_defertree[j], offset, size);
3487         }
3488         spa_config_exit(spa, SCL_VDEV, FTAG);
3489 }