]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/sys/systm.h
MFV r361280:
[FreeBSD/FreeBSD.git] / sys / sys / systm.h
1 /*-
2  * SPDX-License-Identifier: BSD-3-Clause
3  *
4  * Copyright (c) 1982, 1988, 1991, 1993
5  *      The Regents of the University of California.  All rights reserved.
6  * (c) UNIX System Laboratories, Inc.
7  * All or some portions of this file are derived from material licensed
8  * to the University of California by American Telephone and Telegraph
9  * Co. or Unix System Laboratories, Inc. and are reproduced herein with
10  * the permission of UNIX System Laboratories, Inc.
11  *
12  * Redistribution and use in source and binary forms, with or without
13  * modification, are permitted provided that the following conditions
14  * are met:
15  * 1. Redistributions of source code must retain the above copyright
16  *    notice, this list of conditions and the following disclaimer.
17  * 2. Redistributions in binary form must reproduce the above copyright
18  *    notice, this list of conditions and the following disclaimer in the
19  *    documentation and/or other materials provided with the distribution.
20  * 3. Neither the name of the University nor the names of its contributors
21  *    may be used to endorse or promote products derived from this software
22  *    without specific prior written permission.
23  *
24  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
25  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
26  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
27  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
28  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
29  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
30  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
31  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
32  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
33  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
34  * SUCH DAMAGE.
35  *
36  *      @(#)systm.h     8.7 (Berkeley) 3/29/95
37  * $FreeBSD$
38  */
39
40 #ifndef _SYS_SYSTM_H_
41 #define _SYS_SYSTM_H_
42
43 #include <sys/cdefs.h>
44 #include <machine/atomic.h>
45 #include <machine/cpufunc.h>
46 #include <sys/callout.h>
47 #include <sys/queue.h>
48 #include <sys/stdint.h>         /* for people using printf mainly */
49
50 __NULLABILITY_PRAGMA_PUSH
51
52 extern int cold;                /* nonzero if we are doing a cold boot */
53 extern int suspend_blocked;     /* block suspend due to pending shutdown */
54 extern int rebooting;           /* kern_reboot() has been called. */
55 extern const char *panicstr;    /* panic message */
56 extern bool panicked;
57 #define KERNEL_PANICKED()       __predict_false(panicked)
58 extern char version[];          /* system version */
59 extern char compiler_version[]; /* compiler version */
60 extern char copyright[];        /* system copyright */
61 extern int kstack_pages;        /* number of kernel stack pages */
62
63 extern u_long pagesizes[];      /* supported page sizes */
64 extern long physmem;            /* physical memory */
65 extern long realmem;            /* 'real' memory */
66
67 extern char *rootdevnames[2];   /* names of possible root devices */
68
69 extern int boothowto;           /* reboot flags, from console subsystem */
70 extern int bootverbose;         /* nonzero to print verbose messages */
71
72 extern int maxusers;            /* system tune hint */
73 extern int ngroups_max;         /* max # of supplemental groups */
74 extern int vm_guest;            /* Running as virtual machine guest? */
75
76 /*
77  * Detected virtual machine guest types. The intention is to expand
78  * and/or add to the VM_GUEST_VM type if specific VM functionality is
79  * ever implemented (e.g. vendor-specific paravirtualization features).
80  * Keep in sync with vm_guest_sysctl_names[].
81  */
82 enum VM_GUEST { VM_GUEST_NO = 0, VM_GUEST_VM, VM_GUEST_XEN, VM_GUEST_HV,
83                 VM_GUEST_VMWARE, VM_GUEST_KVM, VM_GUEST_BHYVE, VM_GUEST_VBOX,
84                 VM_GUEST_PARALLELS, VM_LAST };
85
86 /*
87  * These functions need to be declared before the KASSERT macro is invoked in
88  * !KASSERT_PANIC_OPTIONAL builds, so their declarations are sort of out of
89  * place compared to other function definitions in this header.  On the other
90  * hand, this header is a bit disorganized anyway.
91  */
92 void    panic(const char *, ...) __dead2 __printflike(1, 2);
93 void    vpanic(const char *, __va_list) __dead2 __printflike(1, 0);
94
95 #if defined(WITNESS) || defined(INVARIANT_SUPPORT)
96 #ifdef KASSERT_PANIC_OPTIONAL
97 void    kassert_panic(const char *fmt, ...)  __printflike(1, 2);
98 #else
99 #define kassert_panic   panic
100 #endif
101 #endif
102
103 #ifdef  INVARIANTS              /* The option is always available */
104 #define KASSERT(exp,msg) do {                                           \
105         if (__predict_false(!(exp)))                                    \
106                 kassert_panic msg;                                      \
107 } while (0)
108 #define VNASSERT(exp, vp, msg) do {                                     \
109         if (__predict_false(!(exp))) {                                  \
110                 vn_printf(vp, "VNASSERT failed: %s not true at %s:%d (%s)\n",\
111                    #exp, __FILE__, __LINE__, __func__);                 \
112                 kassert_panic msg;                                      \
113         }                                                               \
114 } while (0)
115 #define VNPASS(exp, vp) do {                                            \
116         const char *_exp = #exp;                                        \
117         VNASSERT(exp, vp, ("condition %s not met at %s:%d (%s)",        \
118             _exp, __FILE__, __LINE__, __func__));                       \
119 } while (0)
120 #define __assert_unreachable() \
121         panic("executing segment marked as unreachable at %s:%d (%s)\n", \
122             __FILE__, __LINE__, __func__)
123 #else
124 #define KASSERT(exp,msg) do { \
125 } while (0)
126
127 #define VNASSERT(exp, vp, msg) do { \
128 } while (0)
129 #define VNPASS(exp, vp) do { \
130 } while (0)
131 #define __assert_unreachable()  __unreachable()
132 #endif
133
134 #ifndef CTASSERT        /* Allow lint to override */
135 #define CTASSERT(x)     _Static_assert(x, "compile-time assertion failed")
136 #endif
137
138 #if defined(_KERNEL)
139 #include <sys/param.h>          /* MAXCPU */
140 #include <sys/pcpu.h>           /* curthread */
141 #include <sys/kpilite.h>
142 #endif
143
144 /*
145  * Assert that a pointer can be loaded from memory atomically.
146  *
147  * This assertion enforces stronger alignment than necessary.  For example,
148  * on some architectures, atomicity for unaligned loads will depend on
149  * whether or not the load spans multiple cache lines.
150  */
151 #define ASSERT_ATOMIC_LOAD_PTR(var, msg)                                \
152         KASSERT(sizeof(var) == sizeof(void *) &&                        \
153             ((uintptr_t)&(var) & (sizeof(void *) - 1)) == 0, msg)
154
155 /*
156  * Assert that a thread is in critical(9) section.
157  */
158 #define CRITICAL_ASSERT(td)                                             \
159         KASSERT((td)->td_critnest >= 1, ("Not in critical section"));
160  
161 /*
162  * If we have already panic'd and this is the thread that called
163  * panic(), then don't block on any mutexes but silently succeed.
164  * Otherwise, the kernel will deadlock since the scheduler isn't
165  * going to run the thread that holds any lock we need.
166  */
167 #define SCHEDULER_STOPPED_TD(td)  ({                                    \
168         MPASS((td) == curthread);                                       \
169         __predict_false((td)->td_stopsched);                            \
170 })
171 #define SCHEDULER_STOPPED() SCHEDULER_STOPPED_TD(curthread)
172
173 /*
174  * Align variables.
175  */
176 #define __read_mostly           __section(".data.read_mostly")
177 #define __read_frequently       __section(".data.read_frequently")
178 #define __exclusive_cache_line  __aligned(CACHE_LINE_SIZE) \
179                                     __section(".data.exclusive_cache_line")
180 /*
181  * XXX the hints declarations are even more misplaced than most declarations
182  * in this file, since they are needed in one file (per arch) and only used
183  * in two files.
184  * XXX most of these variables should be const.
185  */
186 extern int osreldate;
187 extern bool dynamic_kenv;
188 extern struct mtx kenv_lock;
189 extern char *kern_envp;
190 extern char *md_envp;
191 extern char static_env[];
192 extern char static_hints[];     /* by config for now */
193
194 extern char **kenvp;
195
196 extern const void *zero_region; /* address space maps to a zeroed page  */
197
198 extern int unmapped_buf_allowed;
199
200 #ifdef __LP64__
201 #define IOSIZE_MAX              iosize_max()
202 #define DEVFS_IOSIZE_MAX        devfs_iosize_max()
203 #else
204 #define IOSIZE_MAX              SSIZE_MAX
205 #define DEVFS_IOSIZE_MAX        SSIZE_MAX
206 #endif
207
208 /*
209  * General function declarations.
210  */
211
212 struct inpcb;
213 struct lock_object;
214 struct malloc_type;
215 struct mtx;
216 struct proc;
217 struct socket;
218 struct thread;
219 struct tty;
220 struct ucred;
221 struct uio;
222 struct _jmp_buf;
223 struct trapframe;
224 struct eventtimer;
225
226 int     setjmp(struct _jmp_buf *) __returns_twice;
227 void    longjmp(struct _jmp_buf *, int) __dead2;
228 int     dumpstatus(vm_offset_t addr, off_t count);
229 int     nullop(void);
230 int     eopnotsupp(void);
231 int     ureadc(int, struct uio *);
232 void    hashdestroy(void *, struct malloc_type *, u_long);
233 void    *hashinit(int count, struct malloc_type *type, u_long *hashmask);
234 void    *hashinit_flags(int count, struct malloc_type *type,
235     u_long *hashmask, int flags);
236 #define HASH_NOWAIT     0x00000001
237 #define HASH_WAITOK     0x00000002
238
239 void    *phashinit(int count, struct malloc_type *type, u_long *nentries);
240 void    *phashinit_flags(int count, struct malloc_type *type, u_long *nentries,
241     int flags);
242 void    g_waitidle(void);
243
244 void    cpu_boot(int);
245 void    cpu_flush_dcache(void *, size_t);
246 void    cpu_rootconf(void);
247 void    critical_enter_KBI(void);
248 void    critical_exit_KBI(void);
249 void    critical_exit_preempt(void);
250 void    init_param1(void);
251 void    init_param2(long physpages);
252 void    init_static_kenv(char *, size_t);
253 void    tablefull(const char *);
254
255 /*
256  * Allocate per-thread "current" state in the linuxkpi
257  */
258 extern int (*lkpi_alloc_current)(struct thread *, int);
259 int linux_alloc_current_noop(struct thread *, int);
260
261
262 #if defined(KLD_MODULE) || defined(KTR_CRITICAL) || !defined(_KERNEL) || defined(GENOFFSET)
263 #define critical_enter() critical_enter_KBI()
264 #define critical_exit() critical_exit_KBI()
265 #else
266 static __inline void
267 critical_enter(void)
268 {
269         struct thread_lite *td;
270
271         td = (struct thread_lite *)curthread;
272         td->td_critnest++;
273         __compiler_membar();
274 }
275
276 static __inline void
277 critical_exit(void)
278 {
279         struct thread_lite *td;
280
281         td = (struct thread_lite *)curthread;
282         KASSERT(td->td_critnest != 0,
283             ("critical_exit: td_critnest == 0"));
284         __compiler_membar();
285         td->td_critnest--;
286         __compiler_membar();
287         if (__predict_false(td->td_owepreempt))
288                 critical_exit_preempt();
289
290 }
291 #endif
292
293
294 #ifdef  EARLY_PRINTF
295 typedef void early_putc_t(int ch);
296 extern early_putc_t *early_putc;
297 #endif
298 int     kvprintf(char const *, void (*)(int, void*), void *, int,
299             __va_list) __printflike(1, 0);
300 void    log(int, const char *, ...) __printflike(2, 3);
301 void    log_console(struct uio *);
302 void    vlog(int, const char *, __va_list) __printflike(2, 0);
303 int     asprintf(char **ret, struct malloc_type *mtp, const char *format, 
304             ...) __printflike(3, 4);
305 int     printf(const char *, ...) __printflike(1, 2);
306 int     snprintf(char *, size_t, const char *, ...) __printflike(3, 4);
307 int     sprintf(char *buf, const char *, ...) __printflike(2, 3);
308 int     uprintf(const char *, ...) __printflike(1, 2);
309 int     vprintf(const char *, __va_list) __printflike(1, 0);
310 int     vasprintf(char **ret, struct malloc_type *mtp, const char *format,
311             __va_list ap) __printflike(3, 0);
312 int     vsnprintf(char *, size_t, const char *, __va_list) __printflike(3, 0);
313 int     vsnrprintf(char *, size_t, int, const char *, __va_list) __printflike(4, 0);
314 int     vsprintf(char *buf, const char *, __va_list) __printflike(2, 0);
315 int     sscanf(const char *, char const * _Nonnull, ...) __scanflike(2, 3);
316 int     vsscanf(const char * _Nonnull, char const * _Nonnull, __va_list)  __scanflike(2, 0);
317 long    strtol(const char *, char **, int);
318 u_long  strtoul(const char *, char **, int);
319 quad_t  strtoq(const char *, char **, int);
320 u_quad_t strtouq(const char *, char **, int);
321 void    tprintf(struct proc *p, int pri, const char *, ...) __printflike(3, 4);
322 void    vtprintf(struct proc *, int, const char *, __va_list) __printflike(3, 0);
323 void    hexdump(const void *ptr, int length, const char *hdr, int flags);
324 #define HD_COLUMN_MASK  0xff
325 #define HD_DELIM_MASK   0xff00
326 #define HD_OMIT_COUNT   (1 << 16)
327 #define HD_OMIT_HEX     (1 << 17)
328 #define HD_OMIT_CHARS   (1 << 18)
329
330 #define ovbcopy(f, t, l) bcopy((f), (t), (l))
331 void    bcopy(const void * _Nonnull from, void * _Nonnull to, size_t len);
332 void    bzero(void * _Nonnull buf, size_t len);
333 void    explicit_bzero(void * _Nonnull, size_t);
334 int     bcmp(const void *b1, const void *b2, size_t len);
335
336 void    *memset(void * _Nonnull buf, int c, size_t len);
337 void    *memcpy(void * _Nonnull to, const void * _Nonnull from, size_t len);
338 void    *memmove(void * _Nonnull dest, const void * _Nonnull src, size_t n);
339 int     memcmp(const void *b1, const void *b2, size_t len);
340
341 #ifdef KCSAN
342 void    *kcsan_memset(void *, int, size_t);
343 void    *kcsan_memcpy(void *, const void *, size_t);
344 void    *kcsan_memmove(void *, const void *, size_t);
345 int     kcsan_memcmp(const void *, const void *, size_t);
346 #define bcopy(from, to, len) kcsan_memmove((to), (from), (len))
347 #define bzero(buf, len) kcsan_memset((buf), 0, (len))
348 #define bcmp(b1, b2, len) kcsan_memcmp((b1), (b2), (len))
349 #define memset(buf, c, len) kcsan_memset((buf), (c), (len))
350 #define memcpy(to, from, len) kcsan_memcpy((to), (from), (len))
351 #define memmove(dest, src, n) kcsan_memmove((dest), (src), (n))
352 #define memcmp(b1, b2, len) kcsan_memcmp((b1), (b2), (len))
353 #else
354 #define bcopy(from, to, len) __builtin_memmove((to), (from), (len))
355 #define bzero(buf, len) __builtin_memset((buf), 0, (len))
356 #define bcmp(b1, b2, len) __builtin_memcmp((b1), (b2), (len))
357 #define memset(buf, c, len) __builtin_memset((buf), (c), (len))
358 #define memcpy(to, from, len) __builtin_memcpy((to), (from), (len))
359 #define memmove(dest, src, n) __builtin_memmove((dest), (src), (n))
360 #define memcmp(b1, b2, len) __builtin_memcmp((b1), (b2), (len))
361 #endif
362
363 void    *memset_early(void * _Nonnull buf, int c, size_t len);
364 #define bzero_early(buf, len) memset_early((buf), 0, (len))
365 void    *memcpy_early(void * _Nonnull to, const void * _Nonnull from, size_t len);
366 void    *memmove_early(void * _Nonnull dest, const void * _Nonnull src, size_t n);
367 #define bcopy_early(from, to, len) memmove_early((to), (from), (len))
368
369 int     copystr(const void * _Nonnull __restrict kfaddr,
370             void * _Nonnull __restrict kdaddr, size_t len,
371             size_t * __restrict lencopied);
372 int     copyinstr(const void * __restrict udaddr,
373             void * _Nonnull __restrict kaddr, size_t len,
374             size_t * __restrict lencopied);
375 int     copyin(const void * __restrict udaddr,
376             void * _Nonnull __restrict kaddr, size_t len);
377 int     copyin_nofault(const void * __restrict udaddr,
378             void * _Nonnull __restrict kaddr, size_t len);
379 int     copyout(const void * _Nonnull __restrict kaddr,
380             void * __restrict udaddr, size_t len);
381 int     copyout_nofault(const void * _Nonnull __restrict kaddr,
382             void * __restrict udaddr, size_t len);
383
384 #ifdef KCSAN
385 int     kcsan_copystr(const void *, void *, size_t, size_t *);
386 int     kcsan_copyin(const void *, void *, size_t);
387 int     kcsan_copyinstr(const void *, void *, size_t, size_t *);
388 int     kcsan_copyout(const void *, void *, size_t);
389 #define copystr(kf, k, l, lc) kcsan_copystr((kf), (k), (l), (lc))
390 #define copyin(u, k, l) kcsan_copyin((u), (k), (l))
391 #define copyinstr(u, k, l, lc) kcsan_copyinstr((u), (k), (l), (lc))
392 #define copyout(k, u, l) kcsan_copyout((k), (u), (l))
393 #endif
394
395 int     fubyte(volatile const void *base);
396 long    fuword(volatile const void *base);
397 int     fuword16(volatile const void *base);
398 int32_t fuword32(volatile const void *base);
399 int64_t fuword64(volatile const void *base);
400 int     fueword(volatile const void *base, long *val);
401 int     fueword32(volatile const void *base, int32_t *val);
402 int     fueword64(volatile const void *base, int64_t *val);
403 int     subyte(volatile void *base, int byte);
404 int     suword(volatile void *base, long word);
405 int     suword16(volatile void *base, int word);
406 int     suword32(volatile void *base, int32_t word);
407 int     suword64(volatile void *base, int64_t word);
408 uint32_t casuword32(volatile uint32_t *base, uint32_t oldval, uint32_t newval);
409 u_long  casuword(volatile u_long *p, u_long oldval, u_long newval);
410 int     casueword32(volatile uint32_t *base, uint32_t oldval, uint32_t *oldvalp,
411             uint32_t newval);
412 int     casueword(volatile u_long *p, u_long oldval, u_long *oldvalp,
413             u_long newval);
414
415 void    realitexpire(void *);
416
417 int     sysbeep(int hertz, int period);
418
419 void    hardclock(int cnt, int usermode);
420 void    hardclock_sync(int cpu);
421 void    softclock(void *);
422 void    statclock(int cnt, int usermode);
423 void    profclock(int cnt, int usermode, uintfptr_t pc);
424
425 int     hardclockintr(void);
426
427 void    startprofclock(struct proc *);
428 void    stopprofclock(struct proc *);
429 void    cpu_startprofclock(void);
430 void    cpu_stopprofclock(void);
431 void    suspendclock(void);
432 void    resumeclock(void);
433 sbintime_t      cpu_idleclock(void);
434 void    cpu_activeclock(void);
435 void    cpu_new_callout(int cpu, sbintime_t bt, sbintime_t bt_opt);
436 void    cpu_et_frequency(struct eventtimer *et, uint64_t newfreq);
437 extern int      cpu_disable_c2_sleep;
438 extern int      cpu_disable_c3_sleep;
439
440 char    *kern_getenv(const char *name);
441 void    freeenv(char *env);
442 int     getenv_int(const char *name, int *data);
443 int     getenv_uint(const char *name, unsigned int *data);
444 int     getenv_long(const char *name, long *data);
445 int     getenv_ulong(const char *name, unsigned long *data);
446 int     getenv_string(const char *name, char *data, int size);
447 int     getenv_int64(const char *name, int64_t *data);
448 int     getenv_uint64(const char *name, uint64_t *data);
449 int     getenv_quad(const char *name, quad_t *data);
450 int     kern_setenv(const char *name, const char *value);
451 int     kern_unsetenv(const char *name);
452 int     testenv(const char *name);
453
454 int     getenv_array(const char *name, void *data, int size, int *psize,
455     int type_size, bool allow_signed);
456 #define GETENV_UNSIGNED false   /* negative numbers not allowed */
457 #define GETENV_SIGNED   true    /* negative numbers allowed */
458
459 typedef uint64_t (cpu_tick_f)(void);
460 void set_cputicker(cpu_tick_f *func, uint64_t freq, unsigned var);
461 extern cpu_tick_f *cpu_ticks;
462 uint64_t cpu_tickrate(void);
463 uint64_t cputick2usec(uint64_t tick);
464
465 #ifdef APM_FIXUP_CALLTODO
466 struct timeval;
467 void    adjust_timeout_calltodo(struct timeval *time_change);
468 #endif /* APM_FIXUP_CALLTODO */
469
470 #include <sys/libkern.h>
471
472 /* Initialize the world */
473 void    consinit(void);
474 void    cpu_initclocks(void);
475 void    cpu_initclocks_bsp(void);
476 void    cpu_initclocks_ap(void);
477 void    usrinfoinit(void);
478
479 /* Finalize the world */
480 void    kern_reboot(int) __dead2;
481 void    shutdown_nice(int);
482
483 /* Stubs for obsolete functions that used to be for interrupt management */
484 static __inline intrmask_t      splbio(void)            { return 0; }
485 static __inline intrmask_t      splcam(void)            { return 0; }
486 static __inline intrmask_t      splclock(void)          { return 0; }
487 static __inline intrmask_t      splhigh(void)           { return 0; }
488 static __inline intrmask_t      splimp(void)            { return 0; }
489 static __inline intrmask_t      splnet(void)            { return 0; }
490 static __inline intrmask_t      spltty(void)            { return 0; }
491 static __inline void            splx(intrmask_t ipl __unused)   { return; }
492
493 /*
494  * Common `proc' functions are declared here so that proc.h can be included
495  * less often.
496  */
497 int     _sleep(const void * _Nonnull chan, struct lock_object *lock, int pri,
498            const char *wmesg, sbintime_t sbt, sbintime_t pr, int flags);
499 #define msleep(chan, mtx, pri, wmesg, timo)                             \
500         _sleep((chan), &(mtx)->lock_object, (pri), (wmesg),             \
501             tick_sbt * (timo), 0, C_HARDCLOCK)
502 #define msleep_sbt(chan, mtx, pri, wmesg, bt, pr, flags)                \
503         _sleep((chan), &(mtx)->lock_object, (pri), (wmesg), (bt), (pr), \
504             (flags))
505 int     msleep_spin_sbt(const void * _Nonnull chan, struct mtx *mtx,
506             const char *wmesg, sbintime_t sbt, sbintime_t pr, int flags);
507 #define msleep_spin(chan, mtx, wmesg, timo)                             \
508         msleep_spin_sbt((chan), (mtx), (wmesg), tick_sbt * (timo),      \
509             0, C_HARDCLOCK)
510 int     pause_sbt(const char *wmesg, sbintime_t sbt, sbintime_t pr,
511             int flags);
512 #define pause(wmesg, timo)                                              \
513         pause_sbt((wmesg), tick_sbt * (timo), 0, C_HARDCLOCK)
514 #define pause_sig(wmesg, timo)                                          \
515         pause_sbt((wmesg), tick_sbt * (timo), 0, C_HARDCLOCK | C_CATCH)
516 #define tsleep(chan, pri, wmesg, timo)                                  \
517         _sleep((chan), NULL, (pri), (wmesg), tick_sbt * (timo),         \
518             0, C_HARDCLOCK)
519 #define tsleep_sbt(chan, pri, wmesg, bt, pr, flags)                     \
520         _sleep((chan), NULL, (pri), (wmesg), (bt), (pr), (flags))
521 void    wakeup(const void *chan);
522 void    wakeup_one(const void *chan);
523 void    wakeup_any(const void *chan);
524
525 /*
526  * Common `struct cdev *' stuff are declared here to avoid #include poisoning
527  */
528
529 struct cdev;
530 dev_t dev2udev(struct cdev *x);
531 const char *devtoname(struct cdev *cdev);
532
533 #ifdef __LP64__
534 size_t  devfs_iosize_max(void);
535 size_t  iosize_max(void);
536 #endif
537
538 int poll_no_poll(int events);
539
540 /* XXX: Should be void nanodelay(u_int nsec); */
541 void    DELAY(int usec);
542
543 /* Root mount holdback API */
544 struct root_hold_token {
545         int                             flags;
546         const char                      *who;
547         TAILQ_ENTRY(root_hold_token)    list;
548 };
549
550 struct root_hold_token *root_mount_hold(const char *identifier);
551 void root_mount_hold_token(const char *identifier, struct root_hold_token *h);
552 void root_mount_rel(struct root_hold_token *h);
553 int root_mounted(void);
554
555
556 /*
557  * Unit number allocation API. (kern/subr_unit.c)
558  */
559 struct unrhdr;
560 struct unrhdr *new_unrhdr(int low, int high, struct mtx *mutex);
561 void init_unrhdr(struct unrhdr *uh, int low, int high, struct mtx *mutex);
562 void delete_unrhdr(struct unrhdr *uh);
563 void clear_unrhdr(struct unrhdr *uh);
564 void clean_unrhdr(struct unrhdr *uh);
565 void clean_unrhdrl(struct unrhdr *uh);
566 int alloc_unr(struct unrhdr *uh);
567 int alloc_unr_specific(struct unrhdr *uh, u_int item);
568 int alloc_unrl(struct unrhdr *uh);
569 void free_unr(struct unrhdr *uh, u_int item);
570
571 #ifndef __LP64__
572 #define UNR64_LOCKED
573 #endif
574
575 struct unrhdr64 {
576         uint64_t        counter;
577 };
578
579 static __inline void
580 new_unrhdr64(struct unrhdr64 *unr64, uint64_t low)
581 {
582
583         unr64->counter = low;
584 }
585
586 #ifdef UNR64_LOCKED
587 uint64_t alloc_unr64(struct unrhdr64 *);
588 #else
589 static __inline uint64_t
590 alloc_unr64(struct unrhdr64 *unr64)
591 {
592
593         return (atomic_fetchadd_64(&unr64->counter, 1));
594 }
595 #endif
596
597 void    intr_prof_stack_use(struct thread *td, struct trapframe *frame);
598
599 void counted_warning(unsigned *counter, const char *msg);
600
601 /*
602  * APIs to manage deprecation and obsolescence.
603  */
604 struct device;
605 void _gone_in(int major, const char *msg);
606 void _gone_in_dev(struct device *dev, int major, const char *msg);
607 #ifdef NO_OBSOLETE_CODE
608 #define __gone_ok(m, msg)                                        \
609         _Static_assert(m < P_OSREL_MAJOR(__FreeBSD_version)),    \
610             "Obsolete code: " msg);
611 #else
612 #define __gone_ok(m, msg)
613 #endif
614 #define gone_in(major, msg)             __gone_ok(major, msg) _gone_in(major, msg)
615 #define gone_in_dev(dev, major, msg)    __gone_ok(major, msg) _gone_in_dev(dev, major, msg)
616
617 __NULLABILITY_PRAGMA_POP
618
619 #endif /* !_SYS_SYSTM_H_ */