]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/vm/vm_phys.h
Import lib9p 9d5aee77bcc1bf0e79b0a3bfefff5fdf2146283c.
[FreeBSD/FreeBSD.git] / sys / vm / vm_phys.h
1 /*-
2  * SPDX-License-Identifier: BSD-2-Clause-FreeBSD
3  *
4  * Copyright (c) 2002-2006 Rice University
5  * Copyright (c) 2007 Alan L. Cox <alc@cs.rice.edu>
6  * All rights reserved.
7  *
8  * This software was developed for the FreeBSD Project by Alan L. Cox,
9  * Olivier Crameri, Peter Druschel, Sitaram Iyer, and Juan Navarro.
10  *
11  * Redistribution and use in source and binary forms, with or without
12  * modification, are permitted provided that the following conditions
13  * are met:
14  * 1. Redistributions of source code must retain the above copyright
15  *    notice, this list of conditions and the following disclaimer.
16  * 2. Redistributions in binary form must reproduce the above copyright
17  *    notice, this list of conditions and the following disclaimer in the
18  *    documentation and/or other materials provided with the distribution.
19  *
20  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
21  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
22  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
23  * A PARTICULAR PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE COPYRIGHT
24  * HOLDERS OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT,
25  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING,
26  * BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS
27  * OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
28  * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
29  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY
30  * WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
31  * POSSIBILITY OF SUCH DAMAGE.
32  *
33  * $FreeBSD$
34  */
35
36 /*
37  *      Physical memory system definitions
38  */
39
40 #ifndef _VM_PHYS_H_
41 #define _VM_PHYS_H_
42
43 #ifdef _KERNEL
44
45 #ifndef VM_NFREEORDER_MAX
46 #define VM_NFREEORDER_MAX       VM_NFREEORDER
47 #endif
48
49 extern vm_paddr_t phys_avail[PHYS_AVAIL_COUNT];
50 extern vm_paddr_t dump_avail[PHYS_AVAIL_COUNT];
51
52 /* Domains must be dense (non-sparse) and zero-based. */
53 struct mem_affinity {
54         vm_paddr_t start;
55         vm_paddr_t end;
56         int domain;
57 };
58 #ifdef NUMA
59 extern struct mem_affinity *mem_affinity;
60 extern int *mem_locality;
61 #endif
62
63 struct vm_freelist {
64         struct pglist pl;
65         int lcnt;
66 };
67
68 struct vm_phys_seg {
69         vm_paddr_t      start;
70         vm_paddr_t      end;
71         vm_page_t       first_page;
72 #if VM_NRESERVLEVEL > 0
73         vm_reserv_t     first_reserv;
74 #endif
75         void            *md_first;
76         int             domain;
77         struct vm_freelist (*free_queues)[VM_NFREEPOOL][VM_NFREEORDER_MAX];
78 };
79
80 extern struct vm_phys_seg vm_phys_segs[];
81 extern int vm_phys_nsegs;
82
83 /*
84  * The following functions are only to be used by the virtual memory system.
85  */
86 void vm_phys_add_seg(vm_paddr_t start, vm_paddr_t end);
87 vm_page_t vm_phys_alloc_contig(int domain, u_long npages, vm_paddr_t low,
88     vm_paddr_t high, u_long alignment, vm_paddr_t boundary);
89 vm_page_t vm_phys_alloc_freelist_pages(int domain, int freelist, int pool,
90     int order);
91 int vm_phys_alloc_npages(int domain, int pool, int npages, vm_page_t ma[]);
92 vm_page_t vm_phys_alloc_pages(int domain, int pool, int order);
93 int vm_phys_domain_match(int prefer, vm_paddr_t low, vm_paddr_t high);
94 void vm_phys_enqueue_contig(vm_page_t m, u_long npages);
95 int vm_phys_fictitious_reg_range(vm_paddr_t start, vm_paddr_t end,
96     vm_memattr_t memattr);
97 void vm_phys_fictitious_unreg_range(vm_paddr_t start, vm_paddr_t end);
98 vm_page_t vm_phys_fictitious_to_vm_page(vm_paddr_t pa);
99 void vm_phys_free_contig(vm_page_t m, u_long npages);
100 void vm_phys_free_pages(vm_page_t m, int order);
101 void vm_phys_init(void);
102 vm_page_t vm_phys_paddr_to_vm_page(vm_paddr_t pa);
103 void vm_phys_register_domains(int ndomains, struct mem_affinity *affinity,
104     int *locality);
105 vm_page_t vm_phys_scan_contig(int domain, u_long npages, vm_paddr_t low,
106     vm_paddr_t high, u_long alignment, vm_paddr_t boundary, int options);
107 void vm_phys_set_pool(int pool, vm_page_t m, int order);
108 boolean_t vm_phys_unfree_page(vm_page_t m);
109 int vm_phys_mem_affinity(int f, int t);
110 void vm_phys_early_add_seg(vm_paddr_t start, vm_paddr_t end);
111 vm_paddr_t vm_phys_early_alloc(int domain, size_t alloc_size);
112 void vm_phys_early_startup(void);
113 int vm_phys_avail_largest(void);
114 vm_paddr_t vm_phys_avail_size(int i);
115
116 /*
117  *
118  *      vm_phys_domain:
119  *
120  *      Return the index of the domain the page belongs to.
121  */
122 static inline int
123 vm_phys_domain(vm_page_t m)
124 {
125 #ifdef NUMA
126         int domn, segind;
127
128         /* XXXKIB try to assert that the page is managed */
129         segind = m->segind;
130         KASSERT(segind < vm_phys_nsegs, ("segind %d m %p", segind, m));
131         domn = vm_phys_segs[segind].domain;
132         KASSERT(domn < vm_ndomains, ("domain %d m %p", domn, m));
133         return (domn);
134 #else
135         return (0);
136 #endif
137 }
138 int _vm_phys_domain(vm_paddr_t pa);
139
140 #endif  /* _KERNEL */
141 #endif  /* !_VM_PHYS_H_ */