]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/powerpc/include/pmap.h
Merge llvm, clang, compiler-rt, libc++, libunwind, lld, lldb and openmp
[FreeBSD/FreeBSD.git] / sys / powerpc / include / pmap.h
1 /*-
2  * SPDX-License-Identifier: BSD-3-Clause AND BSD-4-Clause
3  *
4  * Copyright (C) 2006 Semihalf, Marian Balakowicz <m8@semihalf.com>
5  * All rights reserved.
6  *
7  * Adapted for Freescale's e500 core CPUs.
8  *
9  * Redistribution and use in source and binary forms, with or without
10  * modification, are permitted provided that the following conditions
11  * are met:
12  * 1. Redistributions of source code must retain the above copyright
13  *    notice, this list of conditions and the following disclaimer.
14  * 2. Redistributions in binary form must reproduce the above copyright
15  *    notice, this list of conditions and the following disclaimer in the
16  *    documentation and/or other materials provided with the distribution.
17  * 3. The name of the author may not be used to endorse or promote products
18  *    derived from this software without specific prior written permission.
19  *
20  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
21  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
22  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.  IN
23  * NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
24  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED
25  * TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
26  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF
27  * LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING
28  * NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS
29  * SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
30  *
31  * $FreeBSD$
32  */
33 /*-
34  * Copyright (C) 1995, 1996 Wolfgang Solfrank.
35  * Copyright (C) 1995, 1996 TooLs GmbH.
36  * All rights reserved.
37  *
38  * Redistribution and use in source and binary forms, with or without
39  * modification, are permitted provided that the following conditions
40  * are met:
41  * 1. Redistributions of source code must retain the above copyright
42  *    notice, this list of conditions and the following disclaimer.
43  * 2. Redistributions in binary form must reproduce the above copyright
44  *    notice, this list of conditions and the following disclaimer in the
45  *    documentation and/or other materials provided with the distribution.
46  * 3. All advertising materials mentioning features or use of this software
47  *    must display the following acknowledgement:
48  *      This product includes software developed by TooLs GmbH.
49  * 4. The name of TooLs GmbH may not be used to endorse or promote products
50  *    derived from this software without specific prior written permission.
51  *
52  * THIS SOFTWARE IS PROVIDED BY TOOLS GMBH ``AS IS'' AND ANY EXPRESS OR
53  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
54  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
55  * IN NO EVENT SHALL TOOLS GMBH BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
56  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
57  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
58  * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
59  * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
60  * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
61  * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
62  *
63  *      from: $NetBSD: pmap.h,v 1.17 2000/03/30 16:18:24 jdolecek Exp $
64  */
65
66 #ifndef _MACHINE_PMAP_H_
67 #define _MACHINE_PMAP_H_
68
69 #include <sys/queue.h>
70 #include <sys/tree.h>
71 #include <sys/_cpuset.h>
72 #include <sys/_lock.h>
73 #include <sys/_mutex.h>
74 #include <machine/sr.h>
75 #include <machine/pte.h>
76 #include <machine/slb.h>
77 #include <machine/tlb.h>
78 #include <machine/vmparam.h>
79 #ifdef __powerpc64__
80 #include <vm/vm_radix.h>
81 #endif
82
83
84 /*
85  * The radix page table structure is described by levels 1-4.
86  * See Fig 33. on p. 1002 of Power ISA v3.0B
87  *
88  * Page directories and tables must be size aligned.
89  */
90
91 /* Root page directory - 64k   -- each entry covers 512GB */
92 typedef uint64_t pml1_entry_t;
93 /* l2 page directory - 4k      -- each entry covers 1GB */
94 typedef uint64_t pml2_entry_t;
95 /* l3 page directory - 4k      -- each entry covers 2MB */
96 typedef uint64_t pml3_entry_t;
97 /* l4 page directory - 256B/4k -- each entry covers 64k/4k */
98 typedef uint64_t pml4_entry_t;
99
100 typedef uint64_t pt_entry_t;
101
102 struct pmap;
103 typedef struct pmap *pmap_t;
104
105 #define PMAP_ENTER_QUICK_LOCKED 0x10000000
106
107 #if !defined(NPMAPS)
108 #define NPMAPS          32768
109 #endif /* !defined(NPMAPS) */
110
111 struct  slbtnode;
112
113 struct pvo_entry {
114         LIST_ENTRY(pvo_entry) pvo_vlink;        /* Link to common virt page */
115 #ifndef __powerpc64__
116         LIST_ENTRY(pvo_entry) pvo_olink;        /* Link to overflow entry */
117 #endif
118         union {
119                 RB_ENTRY(pvo_entry) pvo_plink;  /* Link to pmap entries */
120                 SLIST_ENTRY(pvo_entry) pvo_dlink; /* Link to delete enty */
121         };
122         struct {
123 #ifndef __powerpc64__
124                 /* 32-bit fields */
125                 pte_t       pte;
126 #endif
127                 /* 64-bit fields */
128                 uintptr_t   slot;
129                 vm_paddr_t  pa;
130                 vm_prot_t   prot;
131         } pvo_pte;
132         pmap_t          pvo_pmap;               /* Owning pmap */
133         vm_offset_t     pvo_vaddr;              /* VA of entry */
134         uint64_t        pvo_vpn;                /* Virtual page number */
135 };
136 LIST_HEAD(pvo_head, pvo_entry);
137 SLIST_HEAD(pvo_dlist, pvo_entry);
138 RB_HEAD(pvo_tree, pvo_entry);
139 int pvo_vaddr_compare(struct pvo_entry *, struct pvo_entry *);
140 RB_PROTOTYPE(pvo_tree, pvo_entry, pvo_plink, pvo_vaddr_compare);
141
142 /* Used by 32-bit PMAP */
143 #define PVO_PTEGIDX_MASK        0x007UL         /* which PTEG slot */
144 #define PVO_PTEGIDX_VALID       0x008UL         /* slot is valid */
145 /* Used by 64-bit PMAP */
146 #define PVO_HID                 0x008UL         /* PVO entry in alternate hash*/
147 /* Used by both */
148 #define PVO_WIRED               0x010UL         /* PVO entry is wired */
149 #define PVO_MANAGED             0x020UL         /* PVO entry is managed */
150 #define PVO_BOOTSTRAP           0x080UL         /* PVO entry allocated during
151                                                    bootstrap */
152 #define PVO_DEAD                0x100UL         /* waiting to be deleted */
153 #define PVO_LARGE               0x200UL         /* large page */
154 #define PVO_VADDR(pvo)          ((pvo)->pvo_vaddr & ~ADDR_POFF)
155 #define PVO_PTEGIDX_GET(pvo)    ((pvo)->pvo_vaddr & PVO_PTEGIDX_MASK)
156 #define PVO_PTEGIDX_ISSET(pvo)  ((pvo)->pvo_vaddr & PVO_PTEGIDX_VALID)
157 #define PVO_PTEGIDX_CLR(pvo)    \
158         ((void)((pvo)->pvo_vaddr &= ~(PVO_PTEGIDX_VALID|PVO_PTEGIDX_MASK)))
159 #define PVO_PTEGIDX_SET(pvo, i) \
160         ((void)((pvo)->pvo_vaddr |= (i)|PVO_PTEGIDX_VALID))
161 #define PVO_VSID(pvo)           ((pvo)->pvo_vpn >> 16)
162
163 struct  pmap {
164         struct          pmap_statistics pm_stats;
165         struct  mtx     pm_mtx;
166         cpuset_t        pm_active;
167         union {
168                 struct {
169                     #ifdef __powerpc64__
170                         struct slbtnode *pm_slb_tree_root;
171                         struct slb      **pm_slb;
172                         int             pm_slb_len;
173                     #else
174                         register_t      pm_sr[16];
175                     #endif
176
177                         struct pmap     *pmap_phys;
178                         struct pvo_tree pmap_pvo;
179                 };
180 #ifdef __powerpc64__
181                 /* Radix support */
182                 struct {
183                         pml1_entry_t    *pm_pml1;       /* KVA of root page directory */
184                         struct vm_radix  pm_radix;      /* spare page table pages */
185                         TAILQ_HEAD(,pv_chunk)   pm_pvchunk;     /* list of mappings in pmap */
186                         uint64_t        pm_pid; /* PIDR value */
187                         int pm_flags;
188                 };
189 #endif
190                 struct {
191                         /* TID to identify this pmap entries in TLB */
192                         tlbtid_t        pm_tid[MAXCPU];
193
194 #ifdef __powerpc64__
195                         /*
196                          * Page table directory,
197                          * array of pointers to page directories.
198                          */
199                         pte_t ****pm_root;
200 #else
201                         /*
202                          * Page table directory,
203                          * array of pointers to page tables.
204                          */
205                         pte_t           **pm_pdir;
206
207                         /* List of allocated ptbl bufs (ptbl kva regions). */
208                         TAILQ_HEAD(, ptbl_buf)  pm_ptbl_list;
209 #endif
210                 };
211         } __aligned(CACHE_LINE_SIZE);
212 };
213
214 /*
215  * pv_entries are allocated in chunks per-process.  This avoids the
216  * need to track per-pmap assignments.
217  */
218 #define _NPCM   2
219 #define _NPCPV  126
220 #define PV_CHUNK_HEADER                                                 \
221         pmap_t                  pc_pmap;                                \
222         TAILQ_ENTRY(pv_chunk)   pc_list;                                \
223         uint64_t                pc_map[_NPCM];  /* bitmap; 1 = free */  \
224         TAILQ_ENTRY(pv_chunk)   pc_lru;
225
226 struct pv_entry {
227         pmap_t pv_pmap;
228         vm_offset_t pv_va;
229         TAILQ_ENTRY(pv_entry) pv_link;
230 };
231 typedef struct pv_entry *pv_entry_t;
232
233 struct pv_chunk_header {
234         PV_CHUNK_HEADER
235 };
236 struct pv_chunk {
237         PV_CHUNK_HEADER
238         uint64_t        reserved;
239         struct pv_entry         pc_pventry[_NPCPV];
240 };
241
242 struct  md_page {
243         union {
244                 struct {
245                         volatile int32_t mdpg_attrs;
246                         vm_memattr_t     mdpg_cache_attrs;
247                         struct  pvo_head mdpg_pvoh;
248                         int             pv_gen;   /* (p) */
249                 };
250                 struct {
251                         int                     pv_tracked;
252                 };
253         };
254         TAILQ_HEAD(, pv_entry)  pv_list;  /* (p) */
255 };
256
257 #ifdef AIM
258 #define pmap_page_get_memattr(m)        ((m)->md.mdpg_cache_attrs)
259 #else
260 #define pmap_page_get_memattr(m)        VM_MEMATTR_DEFAULT
261 #endif /* AIM */
262
263 /*
264  * Return the VSID corresponding to a given virtual address.
265  * If no VSID is currently defined, it will allocate one, and add
266  * it to a free slot if available.
267  *
268  * NB: The PMAP MUST be locked already.
269  */
270 uint64_t va_to_vsid(pmap_t pm, vm_offset_t va);
271
272 /* Lock-free, non-allocating lookup routines */
273 uint64_t kernel_va_to_slbv(vm_offset_t va);
274 struct slb *user_va_to_slb_entry(pmap_t pm, vm_offset_t va);
275
276 uint64_t allocate_user_vsid(pmap_t pm, uint64_t esid, int large);
277 void    free_vsid(pmap_t pm, uint64_t esid, int large);
278 void    slb_insert_user(pmap_t pm, struct slb *slb);
279 void    slb_insert_kernel(uint64_t slbe, uint64_t slbv);
280
281 struct slbtnode *slb_alloc_tree(void);
282 void     slb_free_tree(pmap_t pm);
283 struct slb **slb_alloc_user_cache(void);
284 void    slb_free_user_cache(struct slb **);
285
286 extern  struct pmap kernel_pmap_store;
287 #define kernel_pmap     (&kernel_pmap_store)
288
289 #ifdef _KERNEL
290
291 #define PMAP_LOCK(pmap)         mtx_lock(&(pmap)->pm_mtx)
292 #define PMAP_LOCK_ASSERT(pmap, type) \
293                                 mtx_assert(&(pmap)->pm_mtx, (type))
294 #define PMAP_LOCK_DESTROY(pmap) mtx_destroy(&(pmap)->pm_mtx)
295 #define PMAP_LOCK_INIT(pmap)    mtx_init(&(pmap)->pm_mtx, \
296                                     (pmap == kernel_pmap) ? "kernelpmap" : \
297                                     "pmap", NULL, MTX_DEF | MTX_DUPOK)
298 #define PMAP_LOCKED(pmap)       mtx_owned(&(pmap)->pm_mtx)
299 #define PMAP_MTX(pmap)          (&(pmap)->pm_mtx)
300 #define PMAP_TRYLOCK(pmap)      mtx_trylock(&(pmap)->pm_mtx)
301 #define PMAP_UNLOCK(pmap)       mtx_unlock(&(pmap)->pm_mtx)
302
303 #define pmap_page_is_write_mapped(m)    (((m)->a.flags & PGA_WRITEABLE) != 0)
304
305 void            pmap_bootstrap(vm_offset_t, vm_offset_t);
306 void            pmap_kenter(vm_offset_t va, vm_paddr_t pa);
307 void            pmap_kenter_attr(vm_offset_t va, vm_paddr_t pa, vm_memattr_t);
308 void            pmap_kremove(vm_offset_t);
309 void            *pmap_mapdev(vm_paddr_t, vm_size_t);
310 void            *pmap_mapdev_attr(vm_paddr_t, vm_size_t, vm_memattr_t);
311 void            pmap_unmapdev(vm_offset_t, vm_size_t);
312 void            pmap_page_set_memattr(vm_page_t, vm_memattr_t);
313 int             pmap_change_attr(vm_offset_t, vm_size_t, vm_memattr_t);
314 int             pmap_map_user_ptr(pmap_t pm, volatile const void *uaddr,
315                     void **kaddr, size_t ulen, size_t *klen);
316 int             pmap_decode_kernel_ptr(vm_offset_t addr, int *is_user,
317                     vm_offset_t *decoded_addr);
318 void            pmap_deactivate(struct thread *);
319 vm_paddr_t      pmap_kextract(vm_offset_t);
320 int             pmap_dev_direct_mapped(vm_paddr_t, vm_size_t);
321 boolean_t       pmap_mmu_install(char *name, int prio);
322 void            pmap_mmu_init(void);
323 const char      *pmap_mmu_name(void);
324 bool            pmap_ps_enabled(pmap_t pmap);
325 int             pmap_nofault(pmap_t pmap, vm_offset_t va, vm_prot_t flags);
326 boolean_t       pmap_page_is_mapped(vm_page_t m);
327
328 void            pmap_page_array_startup(long count);
329
330 #define vtophys(va)     pmap_kextract((vm_offset_t)(va))
331
332 extern  vm_offset_t virtual_avail;
333 extern  vm_offset_t virtual_end;
334 extern  caddr_t crashdumpmap;
335
336 extern  vm_offset_t msgbuf_phys;
337
338 extern  int pmap_bootstrapped;
339 extern  int radix_mmu;
340
341 vm_offset_t pmap_early_io_map(vm_paddr_t pa, vm_size_t size);
342 void pmap_early_io_unmap(vm_offset_t va, vm_size_t size);
343 void pmap_track_page(pmap_t pmap, vm_offset_t va);
344 void pmap_page_print_mappings(vm_page_t m);
345 void pmap_tlbie_all(void);
346
347 static inline int
348 pmap_vmspace_copy(pmap_t dst_pmap __unused, pmap_t src_pmap __unused)
349 {
350
351         return (0);
352 }
353
354 #endif
355
356 #endif /* !_MACHINE_PMAP_H_ */