]> CyberLeo.Net >> Repos - FreeBSD/releng/9.1.git/blob - sys/sys/sched.h
Copy stable/9 to releng/9.1 as part of the 9.1-RELEASE release process.
[FreeBSD/releng/9.1.git] / sys / sys / sched.h
1 /*-
2  * Copyright (c) 1996, 1997
3  *      HD Associates, Inc.  All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  * 3. All advertising materials mentioning features or use of this software
14  *    must display the following acknowledgement:
15  *      This product includes software developed by HD Associates, Inc
16  *      and Jukka Antero Ukkonen.
17  * 4. Neither the name of the author nor the names of any co-contributors
18  *    may be used to endorse or promote products derived from this software
19  *    without specific prior written permission.
20  *
21  * THIS SOFTWARE IS PROVIDED BY HD ASSOCIATES AND CONTRIBUTORS ``AS IS'' AND
22  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
23  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
24  * ARE DISCLAIMED.  IN NO EVENT SHALL HD ASSOCIATES OR CONTRIBUTORS BE LIABLE
25  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
26  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
27  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
28  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
29  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
30  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
31  * SUCH DAMAGE.
32  */
33
34 /*-
35  * Copyright (c) 2002-2008, Jeffrey Roberson <jeff@freebsd.org>
36  * All rights reserved.
37  *
38  * Redistribution and use in source and binary forms, with or without
39  * modification, are permitted provided that the following conditions
40  * are met:
41  * 1. Redistributions of source code must retain the above copyright
42  *    notice unmodified, this list of conditions, and the following
43  *    disclaimer.
44  * 2. Redistributions in binary form must reproduce the above copyright
45  *    notice, this list of conditions and the following disclaimer in the
46  *    documentation and/or other materials provided with the distribution.
47  *
48  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
49  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
50  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
51  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
52  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
53  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
54  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
55  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
56  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
57  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
58  *
59  * $FreeBSD$
60  */
61
62 #ifndef _SCHED_H_
63 #define _SCHED_H_
64
65 #ifdef _KERNEL
66 /*
67  * General scheduling info.
68  *
69  * sched_load:
70  *      Total runnable non-ithread threads in the system.
71  *
72  * sched_runnable:
73  *      Runnable threads for this processor.
74  */
75 int     sched_load(void);
76 int     sched_rr_interval(void);
77 int     sched_runnable(void);
78
79 /* 
80  * Proc related scheduling hooks.
81  */
82 void    sched_exit(struct proc *p, struct thread *childtd);
83 void    sched_fork(struct thread *td, struct thread *childtd);
84 void    sched_fork_exit(struct thread *td);
85 void    sched_class(struct thread *td, int class);
86 void    sched_nice(struct proc *p, int nice);
87
88 /*
89  * Threads are switched in and out, block on resources, have temporary
90  * priorities inherited from their procs, and use up cpu time.
91  */
92 void    sched_exit_thread(struct thread *td, struct thread *child);
93 void    sched_fork_thread(struct thread *td, struct thread *child);
94 void    sched_lend_prio(struct thread *td, u_char prio);
95 void    sched_lend_user_prio(struct thread *td, u_char pri);
96 fixpt_t sched_pctcpu(struct thread *td);
97 void    sched_prio(struct thread *td, u_char prio);
98 void    sched_sleep(struct thread *td, int prio);
99 void    sched_switch(struct thread *td, struct thread *newtd, int flags);
100 void    sched_throw(struct thread *td);
101 void    sched_unlend_prio(struct thread *td, u_char prio);
102 void    sched_user_prio(struct thread *td, u_char prio);
103 void    sched_userret(struct thread *td);
104 void    sched_wakeup(struct thread *td);
105 void    sched_preempt(struct thread *td);
106
107 /*
108  * Threads are moved on and off of run queues
109  */
110 void    sched_add(struct thread *td, int flags);
111 void    sched_clock(struct thread *td);
112 void    sched_rem(struct thread *td);
113 void    sched_tick(int cnt);
114 void    sched_relinquish(struct thread *td);
115 struct thread *sched_choose(void);
116 void    sched_idletd(void *);
117
118 /*
119  * Binding makes cpu affinity permanent while pinning is used to temporarily
120  * hold a thread on a particular CPU.
121  */
122 void    sched_bind(struct thread *td, int cpu);
123 static __inline void sched_pin(void);
124 void    sched_unbind(struct thread *td);
125 static __inline void sched_unpin(void);
126 int     sched_is_bound(struct thread *td);
127 void    sched_affinity(struct thread *td);
128
129 /*
130  * These procedures tell the process data structure allocation code how
131  * many bytes to actually allocate.
132  */
133 int     sched_sizeof_proc(void);
134 int     sched_sizeof_thread(void);
135
136 /*
137  * This routine provides a consistent thread name for use with KTR graphing
138  * functions.
139  */
140 char    *sched_tdname(struct thread *td);
141 #ifdef KTR
142 void    sched_clear_tdname(struct thread *td);
143 #endif
144
145 static __inline void
146 sched_pin(void)
147 {
148         curthread->td_pinned++;
149 }
150
151 static __inline void
152 sched_unpin(void)
153 {
154         curthread->td_pinned--;
155 }
156
157 /* sched_add arguments (formerly setrunqueue) */
158 #define SRQ_BORING      0x0000          /* No special circumstances. */
159 #define SRQ_YIELDING    0x0001          /* We are yielding (from mi_switch). */
160 #define SRQ_OURSELF     0x0002          /* It is ourself (from mi_switch). */
161 #define SRQ_INTR        0x0004          /* It is probably urgent. */
162 #define SRQ_PREEMPTED   0x0008          /* has been preempted.. be kind */
163 #define SRQ_BORROWING   0x0010          /* Priority updated due to prio_lend */
164
165 /* Scheduler stats. */
166 #ifdef SCHED_STATS
167 DPCPU_DECLARE(long, sched_switch_stats[SWT_COUNT]);
168
169 #define SCHED_STAT_DEFINE_VAR(name, ptr, descr)                         \
170 static void name ## _add_proc(void *dummy __unused)                     \
171 {                                                                       \
172                                                                         \
173         SYSCTL_ADD_PROC(NULL,                                           \
174             SYSCTL_STATIC_CHILDREN(_kern_sched_stats), OID_AUTO,        \
175             #name, CTLTYPE_LONG|CTLFLAG_RD|CTLFLAG_MPSAFE,              \
176             ptr, 0, sysctl_dpcpu_long, "LU", descr);                    \
177 }                                                                       \
178 SYSINIT(name, SI_SUB_RUN_SCHEDULER, SI_ORDER_MIDDLE, name ## _add_proc, NULL);
179
180 #define SCHED_STAT_DEFINE(name, descr)                                  \
181     DPCPU_DEFINE(unsigned long, name);                                  \
182     SCHED_STAT_DEFINE_VAR(name, &DPCPU_NAME(name), descr)
183 /*
184  * Sched stats are always incremented in critical sections so no atomic
185  * is necesssary to increment them.
186  */
187 #define SCHED_STAT_INC(var)     DPCPU_GET(var)++;
188 #else
189 #define SCHED_STAT_DEFINE_VAR(name, descr, ptr)
190 #define SCHED_STAT_DEFINE(name, descr)
191 #define SCHED_STAT_INC(var)                     (void)0
192 #endif
193
194 /*
195  * Fixup scheduler state for proc0 and thread0
196  */
197 void schedinit(void);
198 #endif /* _KERNEL */
199
200 /* POSIX 1003.1b Process Scheduling */
201
202 /*
203  * POSIX scheduling policies
204  */
205 #define SCHED_FIFO      1
206 #define SCHED_OTHER     2
207 #define SCHED_RR        3
208
209 struct sched_param {
210         int     sched_priority;
211 };
212
213 /*
214  * POSIX scheduling declarations for userland.
215  */
216 #ifndef _KERNEL
217 #include <sys/cdefs.h>
218 #include <sys/_types.h>
219
220 #ifndef _PID_T_DECLARED
221 typedef __pid_t         pid_t;
222 #define _PID_T_DECLARED
223 #endif
224
225 struct timespec;
226
227 __BEGIN_DECLS
228 int     sched_get_priority_max(int);
229 int     sched_get_priority_min(int);
230 int     sched_getparam(pid_t, struct sched_param *);
231 int     sched_getscheduler(pid_t);
232 int     sched_rr_get_interval(pid_t, struct timespec *);
233 int     sched_setparam(pid_t, const struct sched_param *);
234 int     sched_setscheduler(pid_t, int, const struct sched_param *);
235 int     sched_yield(void);
236 __END_DECLS
237
238 #endif
239 #endif /* !_SCHED_H_ */