]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/kern/tty_info.c
zfs: merge openzfs/zfs@feff9dfed
[FreeBSD/FreeBSD.git] / sys / kern / tty_info.c
1 /*-
2  * SPDX-License-Identifier: BSD-3-Clause
3  *
4  * Copyright (c) 1982, 1986, 1990, 1991, 1993
5  *      The Regents of the University of California.  All rights reserved.
6  * (c) UNIX System Laboratories, Inc.
7  * All or some portions of this file are derived from material licensed
8  * to the University of California by American Telephone and Telegraph
9  * Co. or Unix System Laboratories, Inc. and are reproduced herein with
10  * the permission of UNIX System Laboratories, Inc.
11  *
12  * Copyright (c) 2002 Networks Associates Technologies, Inc.
13  * All rights reserved.
14  *
15  * Portions of this software were developed for the FreeBSD Project by
16  * ThinkSec AS and NAI Labs, the Security Research Division of Network
17  * Associates, Inc.  under DARPA/SPAWAR contract N66001-01-C-8035
18  * ("CBOSS"), as part of the DARPA CHATS research program.
19  *
20  * Redistribution and use in source and binary forms, with or without
21  * modification, are permitted provided that the following conditions
22  * are met:
23  * 1. Redistributions of source code must retain the above copyright
24  *    notice, this list of conditions and the following disclaimer.
25  * 2. Redistributions in binary form must reproduce the above copyright
26  *    notice, this list of conditions and the following disclaimer in the
27  *    documentation and/or other materials provided with the distribution.
28  * 3. Neither the name of the University nor the names of its contributors
29  *    may be used to endorse or promote products derived from this software
30  *    without specific prior written permission.
31  *
32  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
33  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
34  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
35  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
36  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
37  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
38  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
39  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
40  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
41  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
42  * SUCH DAMAGE.
43  */
44
45 #include <sys/cdefs.h>
46 __FBSDID("$FreeBSD$");
47
48 #include "opt_stack.h"
49
50 #include <sys/param.h>
51 #include <sys/cons.h>
52 #include <sys/kdb.h>
53 #include <sys/lock.h>
54 #include <sys/malloc.h>
55 #include <sys/mutex.h>
56 #include <sys/proc.h>
57 #include <sys/resourcevar.h>
58 #include <sys/sbuf.h>
59 #include <sys/sched.h>
60 #include <sys/stack.h>
61 #include <sys/sysctl.h>
62 #include <sys/systm.h>
63 #include <sys/tty.h>
64
65 #include <vm/vm.h>
66 #include <vm/pmap.h>
67 #include <vm/vm_map.h>
68
69 /*
70  * Returns 1 if p2 is "better" than p1
71  *
72  * The algorithm for picking the "interesting" process is thus:
73  *
74  *      1) Only foreground processes are eligible - implied.
75  *      2) Runnable processes are favored over anything else.  The runner
76  *         with the highest cpu utilization is picked (p_estcpu).  Ties are
77  *         broken by picking the highest pid.
78  *      3) The sleeper with the shortest sleep time is next.  With ties,
79  *         we pick out just "short-term" sleepers (P_SINTR == 0).
80  *      4) Further ties are broken by picking the highest pid.
81  */
82
83 #define TESTAB(a, b)    ((a)<<1 | (b))
84 #define ONLYA   2
85 #define ONLYB   1
86 #define BOTH    3
87
88 static int
89 proc_sum(struct proc *p, fixpt_t *estcpup)
90 {
91         struct thread *td;
92         int estcpu;
93         int val;
94
95         val = 0;
96         estcpu = 0;
97         FOREACH_THREAD_IN_PROC(p, td) {
98                 thread_lock(td);
99                 if (TD_ON_RUNQ(td) ||
100                     TD_IS_RUNNING(td))
101                         val = 1;
102                 estcpu += sched_pctcpu(td);
103                 thread_unlock(td);
104         }
105         *estcpup = estcpu;
106
107         return (val);
108 }
109
110 static int
111 thread_compare(struct thread *td, struct thread *td2)
112 {
113         int runa, runb;
114         int slpa, slpb;
115         fixpt_t esta, estb;
116
117         if (td == NULL)
118                 return (1);
119
120         /*
121          * Fetch running stats, pctcpu usage, and interruptable flag.
122          */
123         thread_lock(td);
124         runa = TD_IS_RUNNING(td) || TD_ON_RUNQ(td);
125         slpa = td->td_flags & TDF_SINTR;
126         esta = sched_pctcpu(td);
127         thread_unlock(td);
128         thread_lock(td2);
129         runb = TD_IS_RUNNING(td2) || TD_ON_RUNQ(td2);
130         estb = sched_pctcpu(td2);
131         slpb = td2->td_flags & TDF_SINTR;
132         thread_unlock(td2);
133         /*
134          * see if at least one of them is runnable
135          */
136         switch (TESTAB(runa, runb)) {
137         case ONLYA:
138                 return (0);
139         case ONLYB:
140                 return (1);
141         case BOTH:
142                 break;
143         }
144         /*
145          *  favor one with highest recent cpu utilization
146          */
147         if (estb > esta)
148                 return (1);
149         if (esta > estb)
150                 return (0);
151         /*
152          * favor one sleeping in a non-interruptible sleep
153          */
154         switch (TESTAB(slpa, slpb)) {
155         case ONLYA:
156                 return (0);
157         case ONLYB:
158                 return (1);
159         case BOTH:
160                 break;
161         }
162
163         return (td < td2);
164 }
165
166 static int
167 proc_compare(struct proc *p1, struct proc *p2)
168 {
169
170         int runa, runb;
171         fixpt_t esta, estb;
172
173         if (p1 == NULL)
174                 return (1);
175
176         /*
177          * Fetch various stats about these processes.  After we drop the
178          * lock the information could be stale but the race is unimportant.
179          */
180         PROC_LOCK(p1);
181         runa = proc_sum(p1, &esta);
182         PROC_UNLOCK(p1);
183         PROC_LOCK(p2);
184         runb = proc_sum(p2, &estb);
185         PROC_UNLOCK(p2);
186
187         /*
188          * see if at least one of them is runnable
189          */
190         switch (TESTAB(runa, runb)) {
191         case ONLYA:
192                 return (0);
193         case ONLYB:
194                 return (1);
195         case BOTH:
196                 break;
197         }
198         /*
199          *  favor one with highest recent cpu utilization
200          */
201         if (estb > esta)
202                 return (1);
203         if (esta > estb)
204                 return (0);
205         /*
206          * weed out zombies
207          */
208         switch (TESTAB(p1->p_state == PRS_ZOMBIE, p2->p_state == PRS_ZOMBIE)) {
209         case ONLYA:
210                 return (1);
211         case ONLYB:
212                 return (0);
213         case BOTH:
214                 break;
215         }
216
217         return (p2->p_pid > p1->p_pid);         /* tie - return highest pid */
218 }
219
220 static int
221 sbuf_tty_drain(void *a, const char *d, int len)
222 {
223         struct tty *tp;
224         int rc;
225
226         tp = a;
227
228         if (kdb_active) {
229                 cnputsn(d, len);
230                 return (len);
231         }
232         if (tp != NULL && !KERNEL_PANICKED()) {
233                 rc = tty_putstrn(tp, d, len);
234                 if (rc != 0)
235                         return (-ENXIO);
236                 return (len);
237         }
238         return (-ENXIO);
239 }
240
241 #ifdef STACK
242 #ifdef INVARIANTS
243 static int tty_info_kstacks = STACK_SBUF_FMT_COMPACT;
244 #else
245 static int tty_info_kstacks = STACK_SBUF_FMT_NONE;
246 #endif
247
248 static int
249 sysctl_tty_info_kstacks(SYSCTL_HANDLER_ARGS)
250 {
251         enum stack_sbuf_fmt val;
252         int error;
253
254         val = tty_info_kstacks;
255         error = sysctl_handle_int(oidp, &val, 0, req);
256         if (error != 0 || req->newptr == NULL)
257                 return (error);
258
259         switch (val) {
260         case STACK_SBUF_FMT_NONE:
261         case STACK_SBUF_FMT_LONG:
262         case STACK_SBUF_FMT_COMPACT:
263                 tty_info_kstacks = val;
264                 break;
265         default:
266                 error = EINVAL;
267         }
268
269         return (error);
270 }
271 SYSCTL_PROC(_kern, OID_AUTO, tty_info_kstacks,
272     CTLFLAG_RWTUN | CTLFLAG_MPSAFE | CTLTYPE_INT, NULL, 0,
273     sysctl_tty_info_kstacks, "I",
274     "Adjust format of kernel stack(9) traces on ^T (tty info): "
275     "0 - disabled; 1 - long; 2 - compact");
276 #endif
277
278 /*
279  * Report on state of foreground process group.
280  */
281 void
282 tty_info(struct tty *tp)
283 {
284         struct timeval rtime, utime, stime;
285 #ifdef STACK
286         struct stack stack;
287         int sterr, kstacks_val;
288         bool print_kstacks;
289 #endif
290         struct proc *p, *ppick;
291         struct thread *td, *tdpick;
292         const char *stateprefix, *state;
293         struct sbuf sb;
294         long rss;
295         int load, pctcpu;
296         pid_t pid;
297         char comm[MAXCOMLEN + 1];
298         struct rusage ru;
299
300         tty_assert_locked(tp);
301
302         if (tty_checkoutq(tp) == 0)
303                 return;
304
305         (void)sbuf_new(&sb, tp->t_prbuf, tp->t_prbufsz, SBUF_FIXEDLEN);
306         sbuf_set_drain(&sb, sbuf_tty_drain, tp);
307
308         /* Print load average. */
309         load = ((int64_t)averunnable.ldavg[0] * 100 + FSCALE / 2) >> FSHIFT;
310         sbuf_printf(&sb, "%sload: %d.%02d ", tp->t_column == 0 ? "" : "\n",
311             load / 100, load % 100);
312
313         if (tp->t_session == NULL) {
314                 sbuf_printf(&sb, "not a controlling terminal\n");
315                 goto out;
316         }
317         if (tp->t_pgrp == NULL) {
318                 sbuf_printf(&sb, "no foreground process group\n");
319                 goto out;
320         }
321         PGRP_LOCK(tp->t_pgrp);
322         if (LIST_EMPTY(&tp->t_pgrp->pg_members)) {
323                 PGRP_UNLOCK(tp->t_pgrp);
324                 sbuf_printf(&sb, "empty foreground process group\n");
325                 goto out;
326         }
327
328         /*
329          * Pick the most interesting process and copy some of its
330          * state for printing later.  This operation could rely on stale
331          * data as we can't hold the proc slock or thread locks over the
332          * whole list. However, we're guaranteed not to reference an exited
333          * thread or proc since we hold the tty locked.
334          */
335         p = NULL;
336         LIST_FOREACH(ppick, &tp->t_pgrp->pg_members, p_pglist)
337                 if (proc_compare(p, ppick))
338                         p = ppick;
339
340         PROC_LOCK(p);
341         PGRP_UNLOCK(tp->t_pgrp);
342         td = NULL;
343         FOREACH_THREAD_IN_PROC(p, tdpick)
344                 if (thread_compare(td, tdpick))
345                         td = tdpick;
346         stateprefix = "";
347         thread_lock(td);
348         if (TD_IS_RUNNING(td))
349                 state = "running";
350         else if (TD_ON_RUNQ(td) || TD_CAN_RUN(td))
351                 state = "runnable";
352         else if (TD_IS_SLEEPING(td)) {
353                 /* XXX: If we're sleeping, are we ever not in a queue? */
354                 if (TD_ON_SLEEPQ(td))
355                         state = td->td_wmesg;
356                 else
357                         state = "sleeping without queue";
358         } else if (TD_ON_LOCK(td)) {
359                 state = td->td_lockname;
360                 stateprefix = "*";
361         } else if (TD_IS_SUSPENDED(td))
362                 state = "suspended";
363         else if (TD_AWAITING_INTR(td))
364                 state = "intrwait";
365         else if (p->p_state == PRS_ZOMBIE)
366                 state = "zombie";
367         else
368                 state = "unknown";
369         pctcpu = (sched_pctcpu(td) * 10000 + FSCALE / 2) >> FSHIFT;
370 #ifdef STACK
371         kstacks_val = atomic_load_int(&tty_info_kstacks);
372         print_kstacks = (kstacks_val != STACK_SBUF_FMT_NONE);
373
374         if (print_kstacks) {
375                 if (TD_IS_SWAPPED(td))
376                         sterr = ENOENT;
377                 else
378                         sterr = stack_save_td(&stack, td);
379         }
380 #endif
381         thread_unlock(td);
382         if (p->p_state == PRS_NEW || p->p_state == PRS_ZOMBIE)
383                 rss = 0;
384         else
385                 rss = pgtok(vmspace_resident_count(p->p_vmspace));
386         microuptime(&rtime);
387         timevalsub(&rtime, &p->p_stats->p_start);
388         rufetchcalc(p, &ru, &utime, &stime);
389         pid = p->p_pid;
390         strlcpy(comm, p->p_comm, sizeof comm);
391         PROC_UNLOCK(p);
392
393         /* Print command, pid, state, rtime, utime, stime, %cpu, and rss. */
394         sbuf_printf(&sb,
395             " cmd: %s %d [%s%s] %ld.%02ldr %ld.%02ldu %ld.%02lds %d%% %ldk\n",
396             comm, pid, stateprefix, state,
397             (long)rtime.tv_sec, rtime.tv_usec / 10000,
398             (long)utime.tv_sec, utime.tv_usec / 10000,
399             (long)stime.tv_sec, stime.tv_usec / 10000,
400             pctcpu / 100, rss);
401
402 #ifdef STACK
403         if (print_kstacks && sterr == 0)
404                 stack_sbuf_print_flags(&sb, &stack, M_NOWAIT, kstacks_val);
405 #endif
406
407 out:
408         sbuf_finish(&sb);
409         sbuf_delete(&sb);
410 }