]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/sys/vmmeter.h
MFV r328225: 8603 rename zilog's "zl_writer_lock" to "zl_issuer_lock"
[FreeBSD/FreeBSD.git] / sys / sys / vmmeter.h
1 /*-
2  * SPDX-License-Identifier: BSD-3-Clause
3  *
4  * Copyright (c) 1982, 1986, 1993
5  *      The Regents of the University of California.  All rights reserved.
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  * 1. Redistributions of source code must retain the above copyright
11  *    notice, this list of conditions and the following disclaimer.
12  * 2. Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in the
14  *    documentation and/or other materials provided with the distribution.
15  * 3. Neither the name of the University nor the names of its contributors
16  *    may be used to endorse or promote products derived from this software
17  *    without specific prior written permission.
18  *
19  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
20  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
21  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
22  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
23  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
24  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
25  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
26  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
27  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
28  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
29  * SUCH DAMAGE.
30  *
31  *      @(#)vmmeter.h   8.2 (Berkeley) 7/10/94
32  * $FreeBSD$
33  */
34
35 #ifndef _SYS_VMMETER_H_
36 #define _SYS_VMMETER_H_
37
38 /*
39  * This value is used by ps(1) to change sleep state flag from 'S' to
40  * 'I' and by the sched process to set the alarm clock.
41  */
42 #define MAXSLP                  20
43
44 struct vmtotal {
45         uint64_t        t_vm;           /* total virtual memory */
46         uint64_t        t_avm;          /* active virtual memory */
47         uint64_t        t_rm;           /* total real memory in use */
48         uint64_t        t_arm;          /* active real memory */
49         uint64_t        t_vmshr;        /* shared virtual memory */
50         uint64_t        t_avmshr;       /* active shared virtual memory */
51         uint64_t        t_rmshr;        /* shared real memory */
52         uint64_t        t_armshr;       /* active shared real memory */
53         uint64_t        t_free;         /* free memory pages */
54         int16_t         t_rq;           /* length of the run queue */
55         int16_t         t_dw;           /* threads in ``disk wait'' (neg
56                                            priority) */
57         int16_t         t_pw;           /* threads in page wait */
58         int16_t         t_sl;           /* threads sleeping in core */
59         int16_t         t_sw;           /* swapped out runnable/short
60                                            block threads */
61         uint16_t        t_pad[3];
62 };
63
64 #if defined(_KERNEL) || defined(_WANT_VMMETER)
65 #include <sys/counter.h>
66
67 #ifdef _KERNEL
68 #define VMMETER_ALIGNED __aligned(CACHE_LINE_SIZE)
69 #else
70 #define VMMETER_ALIGNED
71 #endif
72
73 /*
74  * System wide statistics counters.
75  * Locking:
76  *      a - locked by atomic operations
77  *      c - constant after initialization
78  *      f - locked by vm_page_queue_free_mtx
79  *      p - uses counter(9)
80  *      q - changes are synchronized by the corresponding vm_pagequeue lock
81  */
82 struct vmmeter {
83         /*
84          * General system activity.
85          */
86         counter_u64_t v_swtch;          /* (p) context switches */
87         counter_u64_t v_trap;           /* (p) calls to trap */
88         counter_u64_t v_syscall;        /* (p) calls to syscall() */
89         counter_u64_t v_intr;           /* (p) device interrupts */
90         counter_u64_t v_soft;           /* (p) software interrupts */
91         /*
92          * Virtual memory activity.
93          */
94         counter_u64_t v_vm_faults;      /* (p) address memory faults */
95         counter_u64_t v_io_faults;      /* (p) page faults requiring I/O */
96         counter_u64_t v_cow_faults;     /* (p) copy-on-writes faults */
97         counter_u64_t v_cow_optim;      /* (p) optimized COW faults */
98         counter_u64_t v_zfod;           /* (p) pages zero filled on demand */
99         counter_u64_t v_ozfod;          /* (p) optimized zero fill pages */
100         counter_u64_t v_swapin;         /* (p) swap pager pageins */
101         counter_u64_t v_swapout;        /* (p) swap pager pageouts */
102         counter_u64_t v_swappgsin;      /* (p) swap pager pages paged in */
103         counter_u64_t v_swappgsout;     /* (p) swap pager pages paged out */
104         counter_u64_t v_vnodein;        /* (p) vnode pager pageins */
105         counter_u64_t v_vnodeout;       /* (p) vnode pager pageouts */
106         counter_u64_t v_vnodepgsin;     /* (p) vnode_pager pages paged in */
107         counter_u64_t v_vnodepgsout;    /* (p) vnode pager pages paged out */
108         counter_u64_t v_intrans;        /* (p) intransit blocking page faults */
109         counter_u64_t v_reactivated;    /* (p) reactivated by the pagedaemon */
110         counter_u64_t v_pdwakeups;      /* (p) times daemon has awaken */
111         counter_u64_t v_pdpages;        /* (p) pages analyzed by daemon */
112         counter_u64_t v_pdshortfalls;   /* (p) page reclamation shortfalls */
113
114         counter_u64_t v_dfree;          /* (p) pages freed by daemon */
115         counter_u64_t v_pfree;          /* (p) pages freed by processes */
116         counter_u64_t v_tfree;          /* (p) total pages freed */
117         /*
118          * Fork/vfork/rfork activity.
119          */
120         counter_u64_t v_forks;          /* (p) fork() calls */
121         counter_u64_t v_vforks;         /* (p) vfork() calls */
122         counter_u64_t v_rforks;         /* (p) rfork() calls */
123         counter_u64_t v_kthreads;       /* (p) fork() calls by kernel */
124         counter_u64_t v_forkpages;      /* (p) pages affected by fork() */
125         counter_u64_t v_vforkpages;     /* (p) pages affected by vfork() */
126         counter_u64_t v_rforkpages;     /* (p) pages affected by rfork() */
127         counter_u64_t v_kthreadpages;   /* (p) ... and by kernel fork() */
128 #define VM_METER_NCOUNTERS      \
129         (offsetof(struct vmmeter, v_page_size) / sizeof(counter_u64_t))
130         /*
131          * Distribution of page usages.
132          */
133         u_int v_page_size;      /* (c) page size in bytes */
134         u_int v_page_count;     /* (c) total number of pages in system */
135         u_int v_free_reserved;  /* (c) pages reserved for deadlock */
136         u_int v_free_target;    /* (c) pages desired free */
137         u_int v_free_min;       /* (c) pages desired free */
138         u_int v_inactive_target; /* (c) pages desired inactive */
139         u_int v_pageout_free_min;   /* (c) min pages reserved for kernel */
140         u_int v_interrupt_free_min; /* (c) reserved pages for int code */
141         u_int v_free_severe;    /* (c) severe page depletion point */
142         u_int v_wire_count VMMETER_ALIGNED; /* (a) pages wired down */
143         u_int v_active_count VMMETER_ALIGNED; /* (a) pages active */
144         u_int v_inactive_count VMMETER_ALIGNED; /* (a) pages inactive */
145         u_int v_laundry_count VMMETER_ALIGNED; /* (a) pages eligible for
146                                                   laundering */
147         u_int v_free_count VMMETER_ALIGNED; /* (f) pages free */
148 };
149 #endif /* _KERNEL || _WANT_VMMETER */
150
151 #ifdef _KERNEL
152
153 extern struct vmmeter vm_cnt;
154 extern u_int vm_pageout_wakeup_thresh;
155
156 #define VM_CNT_ADD(var, x)      counter_u64_add(vm_cnt.var, x)
157 #define VM_CNT_INC(var)         VM_CNT_ADD(var, 1)
158 #define VM_CNT_FETCH(var)       counter_u64_fetch(vm_cnt.var)
159
160 /*
161  * Return TRUE if we are under our severe low-free-pages threshold
162  *
163  * This routine is typically used at the user<->system interface to determine
164  * whether we need to block in order to avoid a low memory deadlock.
165  */
166 static inline int
167 vm_page_count_severe(void)
168 {
169
170         return (vm_cnt.v_free_severe > vm_cnt.v_free_count);
171 }
172
173 /*
174  * Return TRUE if we are under our minimum low-free-pages threshold.
175  *
176  * This routine is typically used within the system to determine whether
177  * we can execute potentially very expensive code in terms of memory.  It
178  * is also used by the pageout daemon to calculate when to sleep, when
179  * to wake waiters up, and when (after making a pass) to become more
180  * desperate.
181  */
182 static inline int
183 vm_page_count_min(void)
184 {
185
186         return (vm_cnt.v_free_min > vm_cnt.v_free_count);
187 }
188
189 /*
190  * Return TRUE if we have not reached our free page target during
191  * free page recovery operations.
192  */
193 static inline int
194 vm_page_count_target(void)
195 {
196
197         return (vm_cnt.v_free_target > vm_cnt.v_free_count);
198 }
199
200 /*
201  * Return the number of pages we need to free-up or cache
202  * A positive number indicates that we do not have enough free pages.
203  */
204 static inline int
205 vm_paging_target(void)
206 {
207
208         return (vm_cnt.v_free_target - vm_cnt.v_free_count);
209 }
210
211 /*
212  * Returns TRUE if the pagedaemon needs to be woken up.
213  */
214 static inline int
215 vm_paging_needed(u_int free_count)
216 {
217
218         return (free_count < vm_pageout_wakeup_thresh);
219 }
220
221 /*
222  * Return the number of pages we need to launder.
223  * A positive number indicates that we have a shortfall of clean pages.
224  */
225 static inline int
226 vm_laundry_target(void)
227 {
228
229         return (vm_paging_target());
230 }
231 #endif  /* _KERNEL */
232 #endif  /* _SYS_VMMETER_H_ */