]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/cddl/contrib/opensolaris/uts/common/fs/zfs/trim_map.c
Merge libucl 20140718 (fixes a bug in the parser)
[FreeBSD/FreeBSD.git] / sys / cddl / contrib / opensolaris / uts / common / fs / zfs / trim_map.c
1 /*
2  * CDDL HEADER START
3  *
4  * The contents of this file are subject to the terms of the
5  * Common Development and Distribution License (the "License").
6  * You may not use this file except in compliance with the License.
7  *
8  * You can obtain a copy of the license at usr/src/OPENSOLARIS.LICENSE
9  * or http://www.opensolaris.org/os/licensing.
10  * See the License for the specific language governing permissions
11  * and limitations under the License.
12  *
13  * When distributing Covered Code, include this CDDL HEADER in each
14  * file and include the License file at usr/src/OPENSOLARIS.LICENSE.
15  * If applicable, add the following below this CDDL HEADER, with the
16  * fields enclosed by brackets "[]" replaced with your own identifying
17  * information: Portions Copyright [yyyy] [name of copyright owner]
18  *
19  * CDDL HEADER END
20  */
21 /*
22  * Copyright (c) 2012 Pawel Jakub Dawidek <pawel@dawidek.net>.
23  * All rights reserved.
24  */
25
26 #include <sys/zfs_context.h>
27 #include <sys/spa_impl.h>
28 #include <sys/vdev_impl.h>
29 #include <sys/trim_map.h>
30 #include <sys/time.h>
31
32 /*
33  * Calculate the zio end, upgrading based on ashift which would be
34  * done by zio_vdev_io_start.
35  *
36  * This makes free range consolidation much more effective
37  * than it would otherwise be as well as ensuring that entire
38  * blocks are invalidated by writes.
39  */
40 #define TRIM_ZIO_END(vd, offset, size)  (offset +               \
41         P2ROUNDUP(size, 1ULL << vd->vdev_top->vdev_ashift))
42
43 #define TRIM_MAP_SINC(tm, size)                                 \
44         atomic_add_64(&(tm)->tm_bytes, (size))
45
46 #define TRIM_MAP_SDEC(tm, size)                                 \
47         atomic_add_64(&(tm)->tm_bytes, -(size))
48
49 #define TRIM_MAP_QINC(tm)                                       \
50         atomic_inc_64(&(tm)->tm_pending);                       \
51
52 #define TRIM_MAP_QDEC(tm)                                       \
53         atomic_dec_64(&(tm)->tm_pending);
54
55 typedef struct trim_map {
56         list_t          tm_head;                /* List of segments sorted by txg. */
57         avl_tree_t      tm_queued_frees;        /* AVL tree of segments waiting for TRIM. */
58         avl_tree_t      tm_inflight_frees;      /* AVL tree of in-flight TRIMs. */
59         avl_tree_t      tm_inflight_writes;     /* AVL tree of in-flight writes. */
60         list_t          tm_pending_writes;      /* Writes blocked on in-flight frees. */
61         kmutex_t        tm_lock;
62         uint64_t        tm_pending;             /* Count of pending TRIMs. */
63         uint64_t        tm_bytes;               /* Total size in bytes of queued TRIMs. */
64 } trim_map_t;
65
66 typedef struct trim_seg {
67         avl_node_t      ts_node;        /* AVL node. */
68         list_node_t     ts_next;        /* List element. */
69         uint64_t        ts_start;       /* Starting offset of this segment. */
70         uint64_t        ts_end;         /* Ending offset (non-inclusive). */
71         uint64_t        ts_txg;         /* Segment creation txg. */
72         hrtime_t        ts_time;        /* Segment creation time. */
73 } trim_seg_t;
74
75 extern boolean_t zfs_trim_enabled;
76
77 static u_int trim_txg_delay = 32;
78 static u_int trim_timeout = 30;
79 static u_int trim_max_interval = 1;
80 /* Limit outstanding TRIMs to 2G (max size for a single TRIM request) */
81 static uint64_t trim_vdev_max_bytes = 2147483648;
82 /* Limit outstanding TRIMs to 64 (max ranges for a single TRIM request) */      
83 static u_int trim_vdev_max_pending = 64;
84
85 SYSCTL_DECL(_vfs_zfs);
86 SYSCTL_NODE(_vfs_zfs, OID_AUTO, trim, CTLFLAG_RD, 0, "ZFS TRIM");
87
88 SYSCTL_UINT(_vfs_zfs_trim, OID_AUTO, txg_delay, CTLFLAG_RWTUN, &trim_txg_delay,
89     0, "Delay TRIMs by up to this many TXGs");
90 SYSCTL_UINT(_vfs_zfs_trim, OID_AUTO, timeout, CTLFLAG_RWTUN, &trim_timeout, 0,
91     "Delay TRIMs by up to this many seconds");
92 SYSCTL_UINT(_vfs_zfs_trim, OID_AUTO, max_interval, CTLFLAG_RWTUN,
93     &trim_max_interval, 0,
94     "Maximum interval between TRIM queue processing (seconds)");
95
96 SYSCTL_DECL(_vfs_zfs_vdev);
97 SYSCTL_QUAD(_vfs_zfs_vdev, OID_AUTO, trim_max_bytes, CTLFLAG_RWTUN,
98     &trim_vdev_max_bytes, 0,
99     "Maximum pending TRIM bytes for a vdev");
100 SYSCTL_UINT(_vfs_zfs_vdev, OID_AUTO, trim_max_pending, CTLFLAG_RWTUN,
101     &trim_vdev_max_pending, 0,
102     "Maximum pending TRIM segments for a vdev");
103
104 static void trim_map_vdev_commit_done(spa_t *spa, vdev_t *vd);
105
106 static int
107 trim_map_seg_compare(const void *x1, const void *x2)
108 {
109         const trim_seg_t *s1 = x1;
110         const trim_seg_t *s2 = x2;
111
112         if (s1->ts_start < s2->ts_start) {
113                 if (s1->ts_end > s2->ts_start)
114                         return (0);
115                 return (-1);
116         }
117         if (s1->ts_start > s2->ts_start) {
118                 if (s1->ts_start < s2->ts_end)
119                         return (0);
120                 return (1);
121         }
122         return (0);
123 }
124
125 static int
126 trim_map_zio_compare(const void *x1, const void *x2)
127 {
128         const zio_t *z1 = x1;
129         const zio_t *z2 = x2;
130
131         if (z1->io_offset < z2->io_offset) {
132                 if (z1->io_offset + z1->io_size > z2->io_offset)
133                         return (0);
134                 return (-1);
135         }
136         if (z1->io_offset > z2->io_offset) {
137                 if (z1->io_offset < z2->io_offset + z2->io_size)
138                         return (0);
139                 return (1);
140         }
141         return (0);
142 }
143
144 void
145 trim_map_create(vdev_t *vd)
146 {
147         trim_map_t *tm;
148
149         ASSERT(vd->vdev_ops->vdev_op_leaf);
150
151         if (!zfs_trim_enabled)
152                 return;
153
154         tm = kmem_zalloc(sizeof (*tm), KM_SLEEP);
155         mutex_init(&tm->tm_lock, NULL, MUTEX_DEFAULT, NULL);
156         list_create(&tm->tm_head, sizeof (trim_seg_t),
157             offsetof(trim_seg_t, ts_next));
158         list_create(&tm->tm_pending_writes, sizeof (zio_t),
159             offsetof(zio_t, io_trim_link));
160         avl_create(&tm->tm_queued_frees, trim_map_seg_compare,
161             sizeof (trim_seg_t), offsetof(trim_seg_t, ts_node));
162         avl_create(&tm->tm_inflight_frees, trim_map_seg_compare,
163             sizeof (trim_seg_t), offsetof(trim_seg_t, ts_node));
164         avl_create(&tm->tm_inflight_writes, trim_map_zio_compare,
165             sizeof (zio_t), offsetof(zio_t, io_trim_node));
166         vd->vdev_trimmap = tm;
167 }
168
169 void
170 trim_map_destroy(vdev_t *vd)
171 {
172         trim_map_t *tm;
173         trim_seg_t *ts;
174
175         ASSERT(vd->vdev_ops->vdev_op_leaf);
176
177         if (!zfs_trim_enabled)
178                 return;
179
180         tm = vd->vdev_trimmap;
181         if (tm == NULL)
182                 return;
183
184         /*
185          * We may have been called before trim_map_vdev_commit_done()
186          * had a chance to run, so do it now to prune the remaining
187          * inflight frees.
188          */
189         trim_map_vdev_commit_done(vd->vdev_spa, vd);
190
191         mutex_enter(&tm->tm_lock);
192         while ((ts = list_head(&tm->tm_head)) != NULL) {
193                 avl_remove(&tm->tm_queued_frees, ts);
194                 list_remove(&tm->tm_head, ts);
195                 kmem_free(ts, sizeof (*ts));
196                 TRIM_MAP_SDEC(tm, ts->ts_end - ts->ts_start);
197                 TRIM_MAP_QDEC(tm);
198         }
199         mutex_exit(&tm->tm_lock);
200
201         avl_destroy(&tm->tm_queued_frees);
202         avl_destroy(&tm->tm_inflight_frees);
203         avl_destroy(&tm->tm_inflight_writes);
204         list_destroy(&tm->tm_pending_writes);
205         list_destroy(&tm->tm_head);
206         mutex_destroy(&tm->tm_lock);
207         kmem_free(tm, sizeof (*tm));
208         vd->vdev_trimmap = NULL;
209 }
210
211 static void
212 trim_map_segment_add(trim_map_t *tm, uint64_t start, uint64_t end, uint64_t txg)
213 {
214         avl_index_t where;
215         trim_seg_t tsearch, *ts_before, *ts_after, *ts;
216         boolean_t merge_before, merge_after;
217         hrtime_t time;
218
219         ASSERT(MUTEX_HELD(&tm->tm_lock));
220         VERIFY(start < end);
221
222         time = gethrtime();
223         tsearch.ts_start = start;
224         tsearch.ts_end = end;
225
226         ts = avl_find(&tm->tm_queued_frees, &tsearch, &where);
227         if (ts != NULL) {
228                 if (start < ts->ts_start)
229                         trim_map_segment_add(tm, start, ts->ts_start, txg);
230                 if (end > ts->ts_end)
231                         trim_map_segment_add(tm, ts->ts_end, end, txg);
232                 return;
233         }
234
235         ts_before = avl_nearest(&tm->tm_queued_frees, where, AVL_BEFORE);
236         ts_after = avl_nearest(&tm->tm_queued_frees, where, AVL_AFTER);
237
238         merge_before = (ts_before != NULL && ts_before->ts_end == start);
239         merge_after = (ts_after != NULL && ts_after->ts_start == end);
240
241         if (merge_before && merge_after) {
242                 TRIM_MAP_SINC(tm, ts_after->ts_start - ts_before->ts_end);
243                 TRIM_MAP_QDEC(tm);
244                 avl_remove(&tm->tm_queued_frees, ts_before);
245                 list_remove(&tm->tm_head, ts_before);
246                 ts_after->ts_start = ts_before->ts_start;
247                 ts_after->ts_txg = txg;
248                 ts_after->ts_time = time;
249                 kmem_free(ts_before, sizeof (*ts_before));
250         } else if (merge_before) {
251                 TRIM_MAP_SINC(tm, end - ts_before->ts_end);
252                 ts_before->ts_end = end;
253                 ts_before->ts_txg = txg;
254                 ts_before->ts_time = time;
255         } else if (merge_after) {
256                 TRIM_MAP_SINC(tm, ts_after->ts_start - start);
257                 ts_after->ts_start = start;
258                 ts_after->ts_txg = txg;
259                 ts_after->ts_time = time;
260         } else {
261                 TRIM_MAP_SINC(tm, end - start);
262                 TRIM_MAP_QINC(tm);
263                 ts = kmem_alloc(sizeof (*ts), KM_SLEEP);
264                 ts->ts_start = start;
265                 ts->ts_end = end;
266                 ts->ts_txg = txg;
267                 ts->ts_time = time;
268                 avl_insert(&tm->tm_queued_frees, ts, where);
269                 list_insert_tail(&tm->tm_head, ts);
270         }
271 }
272
273 static void
274 trim_map_segment_remove(trim_map_t *tm, trim_seg_t *ts, uint64_t start,
275     uint64_t end)
276 {
277         trim_seg_t *nts;
278         boolean_t left_over, right_over;
279
280         ASSERT(MUTEX_HELD(&tm->tm_lock));
281
282         left_over = (ts->ts_start < start);
283         right_over = (ts->ts_end > end);
284
285         TRIM_MAP_SDEC(tm, end - start);
286         if (left_over && right_over) {
287                 nts = kmem_alloc(sizeof (*nts), KM_SLEEP);
288                 nts->ts_start = end;
289                 nts->ts_end = ts->ts_end;
290                 nts->ts_txg = ts->ts_txg;
291                 nts->ts_time = ts->ts_time;
292                 ts->ts_end = start;
293                 avl_insert_here(&tm->tm_queued_frees, nts, ts, AVL_AFTER);
294                 list_insert_after(&tm->tm_head, ts, nts);
295                 TRIM_MAP_QINC(tm);
296         } else if (left_over) {
297                 ts->ts_end = start;
298         } else if (right_over) {
299                 ts->ts_start = end;
300         } else {
301                 avl_remove(&tm->tm_queued_frees, ts);
302                 list_remove(&tm->tm_head, ts);
303                 TRIM_MAP_QDEC(tm);
304                 kmem_free(ts, sizeof (*ts));
305         }
306 }
307
308 static void
309 trim_map_free_locked(trim_map_t *tm, uint64_t start, uint64_t end, uint64_t txg)
310 {
311         zio_t zsearch, *zs;
312
313         ASSERT(MUTEX_HELD(&tm->tm_lock));
314
315         zsearch.io_offset = start;
316         zsearch.io_size = end - start;
317
318         zs = avl_find(&tm->tm_inflight_writes, &zsearch, NULL);
319         if (zs == NULL) {
320                 trim_map_segment_add(tm, start, end, txg);
321                 return;
322         }
323         if (start < zs->io_offset)
324                 trim_map_free_locked(tm, start, zs->io_offset, txg);
325         if (zs->io_offset + zs->io_size < end)
326                 trim_map_free_locked(tm, zs->io_offset + zs->io_size, end, txg);
327 }
328
329 void
330 trim_map_free(vdev_t *vd, uint64_t offset, uint64_t size, uint64_t txg)
331 {
332         trim_map_t *tm = vd->vdev_trimmap;
333
334         if (!zfs_trim_enabled || vd->vdev_notrim || tm == NULL)
335                 return;
336
337         mutex_enter(&tm->tm_lock);
338         trim_map_free_locked(tm, offset, TRIM_ZIO_END(vd, offset, size), txg);
339         mutex_exit(&tm->tm_lock);
340 }
341
342 boolean_t
343 trim_map_write_start(zio_t *zio)
344 {
345         vdev_t *vd = zio->io_vd;
346         trim_map_t *tm = vd->vdev_trimmap;
347         trim_seg_t tsearch, *ts;
348         boolean_t left_over, right_over;
349         uint64_t start, end;
350
351         if (!zfs_trim_enabled || vd->vdev_notrim || tm == NULL)
352                 return (B_TRUE);
353
354         start = zio->io_offset;
355         end = TRIM_ZIO_END(zio->io_vd, start, zio->io_size);
356         tsearch.ts_start = start;
357         tsearch.ts_end = end;
358
359         mutex_enter(&tm->tm_lock);
360
361         /*
362          * Checking for colliding in-flight frees.
363          */
364         ts = avl_find(&tm->tm_inflight_frees, &tsearch, NULL);
365         if (ts != NULL) {
366                 list_insert_tail(&tm->tm_pending_writes, zio);
367                 mutex_exit(&tm->tm_lock);
368                 return (B_FALSE);
369         }
370
371         ts = avl_find(&tm->tm_queued_frees, &tsearch, NULL);
372         if (ts != NULL) {
373                 /*
374                  * Loop until all overlapping segments are removed.
375                  */
376                 do {
377                         trim_map_segment_remove(tm, ts, start, end);
378                         ts = avl_find(&tm->tm_queued_frees, &tsearch, NULL);
379                 } while (ts != NULL);
380         }
381         avl_add(&tm->tm_inflight_writes, zio);
382
383         mutex_exit(&tm->tm_lock);
384
385         return (B_TRUE);
386 }
387
388 void
389 trim_map_write_done(zio_t *zio)
390 {
391         vdev_t *vd = zio->io_vd;
392         trim_map_t *tm = vd->vdev_trimmap;
393
394         /*
395          * Don't check for vdev_notrim, since the write could have
396          * started before vdev_notrim was set.
397          */
398         if (!zfs_trim_enabled || tm == NULL)
399                 return;
400
401         mutex_enter(&tm->tm_lock);
402         /*
403          * Don't fail if the write isn't in the tree, since the write
404          * could have started after vdev_notrim was set.
405          */
406         if (zio->io_trim_node.avl_child[0] ||
407             zio->io_trim_node.avl_child[1] ||
408             AVL_XPARENT(&zio->io_trim_node) ||
409             tm->tm_inflight_writes.avl_root == &zio->io_trim_node)
410                 avl_remove(&tm->tm_inflight_writes, zio);
411         mutex_exit(&tm->tm_lock);
412 }
413
414 /*
415  * Return the oldest segment (the one with the lowest txg / time) or NULL if:
416  * 1. The list is empty
417  * 2. The first element's txg is greater than txgsafe
418  * 3. The first element's txg is not greater than the txg argument and the
419  *    the first element's time is not greater than time argument
420  */
421 static trim_seg_t *
422 trim_map_first(trim_map_t *tm, uint64_t txg, uint64_t txgsafe, hrtime_t time)
423 {
424         trim_seg_t *ts;
425
426         ASSERT(MUTEX_HELD(&tm->tm_lock));
427         VERIFY(txgsafe >= txg);
428
429         ts = list_head(&tm->tm_head);
430         if (ts != NULL && ts->ts_txg <= txgsafe &&
431             (ts->ts_txg <= txg || ts->ts_time <= time ||
432             tm->tm_bytes > trim_vdev_max_bytes ||
433             tm->tm_pending > trim_vdev_max_pending))
434                 return (ts);
435         return (NULL);
436 }
437
438 static void
439 trim_map_vdev_commit(spa_t *spa, zio_t *zio, vdev_t *vd)
440 {
441         trim_map_t *tm = vd->vdev_trimmap;
442         trim_seg_t *ts;
443         uint64_t size, offset, txgtarget, txgsafe;
444         hrtime_t timelimit;
445
446         ASSERT(vd->vdev_ops->vdev_op_leaf);
447
448         if (tm == NULL)
449                 return;
450
451         timelimit = gethrtime() - trim_timeout * NANOSEC;
452         if (vd->vdev_isl2cache) {
453                 txgsafe = UINT64_MAX;
454                 txgtarget = UINT64_MAX;
455         } else {
456                 txgsafe = MIN(spa_last_synced_txg(spa), spa_freeze_txg(spa));
457                 if (txgsafe > trim_txg_delay)
458                         txgtarget = txgsafe - trim_txg_delay;
459                 else
460                         txgtarget = 0;
461         }
462
463         mutex_enter(&tm->tm_lock);
464         /* Loop until we have sent all outstanding free's */
465         while ((ts = trim_map_first(tm, txgtarget, txgsafe, timelimit))
466             != NULL) {
467                 list_remove(&tm->tm_head, ts);
468                 avl_remove(&tm->tm_queued_frees, ts);
469                 avl_add(&tm->tm_inflight_frees, ts);
470                 size = ts->ts_end - ts->ts_start;
471                 offset = ts->ts_start;
472                 TRIM_MAP_SDEC(tm, size);
473                 TRIM_MAP_QDEC(tm);
474                 /*
475                  * We drop the lock while we call zio_nowait as the IO
476                  * scheduler can result in a different IO being run e.g.
477                  * a write which would result in a recursive lock.
478                  */
479                 mutex_exit(&tm->tm_lock);
480
481                 zio_nowait(zio_trim(zio, spa, vd, offset, size));
482
483                 mutex_enter(&tm->tm_lock);
484         }
485         mutex_exit(&tm->tm_lock);
486 }
487
488 static void
489 trim_map_vdev_commit_done(spa_t *spa, vdev_t *vd)
490 {
491         trim_map_t *tm = vd->vdev_trimmap;
492         trim_seg_t *ts;
493         list_t pending_writes;
494         zio_t *zio;
495         uint64_t start, size;
496         void *cookie;
497
498         ASSERT(vd->vdev_ops->vdev_op_leaf);
499
500         if (tm == NULL)
501                 return;
502
503         mutex_enter(&tm->tm_lock);
504         if (!avl_is_empty(&tm->tm_inflight_frees)) {
505                 cookie = NULL;
506                 while ((ts = avl_destroy_nodes(&tm->tm_inflight_frees,
507                     &cookie)) != NULL) {
508                         kmem_free(ts, sizeof (*ts));
509                 }
510         }
511         list_create(&pending_writes, sizeof (zio_t), offsetof(zio_t,
512             io_trim_link));
513         list_move_tail(&pending_writes, &tm->tm_pending_writes);
514         mutex_exit(&tm->tm_lock);
515
516         while ((zio = list_remove_head(&pending_writes)) != NULL) {
517                 zio_vdev_io_reissue(zio);
518                 zio_execute(zio);
519         }
520         list_destroy(&pending_writes);
521 }
522
523 static void
524 trim_map_commit(spa_t *spa, zio_t *zio, vdev_t *vd)
525 {
526         int c;
527
528         if (vd == NULL)
529                 return;
530
531         if (vd->vdev_ops->vdev_op_leaf) {
532                 trim_map_vdev_commit(spa, zio, vd);
533         } else {
534                 for (c = 0; c < vd->vdev_children; c++)
535                         trim_map_commit(spa, zio, vd->vdev_child[c]);
536         }
537 }
538
539 static void
540 trim_map_commit_done(spa_t *spa, vdev_t *vd)
541 {
542         int c;
543
544         if (vd == NULL)
545                 return;
546
547         if (vd->vdev_ops->vdev_op_leaf) {
548                 trim_map_vdev_commit_done(spa, vd);
549         } else {
550                 for (c = 0; c < vd->vdev_children; c++)
551                         trim_map_commit_done(spa, vd->vdev_child[c]);
552         }
553 }
554
555 static void
556 trim_thread(void *arg)
557 {
558         spa_t *spa = arg;
559         zio_t *zio;
560
561 #ifdef _KERNEL
562         (void) snprintf(curthread->td_name, sizeof(curthread->td_name),
563             "trim %s", spa_name(spa));
564 #endif
565
566         for (;;) {
567                 mutex_enter(&spa->spa_trim_lock);
568                 if (spa->spa_trim_thread == NULL) {
569                         spa->spa_trim_thread = curthread;
570                         cv_signal(&spa->spa_trim_cv);
571                         mutex_exit(&spa->spa_trim_lock);
572                         thread_exit();
573                 }
574
575                 (void) cv_timedwait(&spa->spa_trim_cv, &spa->spa_trim_lock,
576                     hz * trim_max_interval);
577                 mutex_exit(&spa->spa_trim_lock);
578
579                 zio = zio_root(spa, NULL, NULL, ZIO_FLAG_CANFAIL);
580
581                 spa_config_enter(spa, SCL_STATE, FTAG, RW_READER);
582                 trim_map_commit(spa, zio, spa->spa_root_vdev);
583                 (void) zio_wait(zio);
584                 trim_map_commit_done(spa, spa->spa_root_vdev);
585                 spa_config_exit(spa, SCL_STATE, FTAG);
586         }
587 }
588
589 void
590 trim_thread_create(spa_t *spa)
591 {
592
593         if (!zfs_trim_enabled)
594                 return;
595
596         mutex_init(&spa->spa_trim_lock, NULL, MUTEX_DEFAULT, NULL);
597         cv_init(&spa->spa_trim_cv, NULL, CV_DEFAULT, NULL);
598         mutex_enter(&spa->spa_trim_lock);
599         spa->spa_trim_thread = thread_create(NULL, 0, trim_thread, spa, 0, &p0,
600             TS_RUN, minclsyspri);
601         mutex_exit(&spa->spa_trim_lock);
602 }
603
604 void
605 trim_thread_destroy(spa_t *spa)
606 {
607
608         if (!zfs_trim_enabled)
609                 return;
610         if (spa->spa_trim_thread == NULL)
611                 return;
612
613         mutex_enter(&spa->spa_trim_lock);
614         /* Setting spa_trim_thread to NULL tells the thread to stop. */
615         spa->spa_trim_thread = NULL;
616         cv_signal(&spa->spa_trim_cv);
617         /* The thread will set it back to != NULL on exit. */
618         while (spa->spa_trim_thread == NULL)
619                 cv_wait(&spa->spa_trim_cv, &spa->spa_trim_lock);
620         spa->spa_trim_thread = NULL;
621         mutex_exit(&spa->spa_trim_lock);
622
623         cv_destroy(&spa->spa_trim_cv);
624         mutex_destroy(&spa->spa_trim_lock);
625 }
626
627 void
628 trim_thread_wakeup(spa_t *spa)
629 {
630
631         if (!zfs_trim_enabled)
632                 return;
633         if (spa->spa_trim_thread == NULL)
634                 return;
635
636         mutex_enter(&spa->spa_trim_lock);
637         cv_signal(&spa->spa_trim_cv);
638         mutex_exit(&spa->spa_trim_lock);
639 }