]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/arm/include/pmap-v6.h
Merge ^/head r294599 through r294776.
[FreeBSD/FreeBSD.git] / sys / arm / include / pmap-v6.h
1 /*-
2  * Copyright 2014 Svatopluk Kraus <onwahe@gmail.com>
3  * Copyright 2014 Michal Meloun <meloun@miracle.cz>
4  * Copyright (c) 1991 Regents of the University of California.
5  * All rights reserved.
6  *
7  * This code is derived from software contributed to Berkeley by
8  * the Systems Programming Group of the University of Utah Computer
9  * Science Department and William Jolitz of UUNET Technologies Inc.
10  *
11  * Redistribution and use in source and binary forms, with or without
12  * modification, are permitted provided that the following conditions
13  * are met:
14  * 1. Redistributions of source code must retain the above copyright
15  *    notice, this list of conditions and the following disclaimer.
16  * 2. Redistributions in binary form must reproduce the above copyright
17  *    notice, this list of conditions and the following disclaimer in the
18  *    documentation and/or other materials provided with the distribution.
19  *
20  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
21  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
22  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
23  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
24  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
25  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
26  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
27  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
28  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
29  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
30  * SUCH DAMAGE.
31  *
32  * The ARM version of this file was more or less based on the i386 version,
33  * which has the following provenance...
34  *
35  * Derived from hp300 version by Mike Hibler, this version by William
36  * Jolitz uses a recursive map [a pde points to the page directory] to
37  * map the page tables using the pagetables themselves. This is done to
38  * reduce the impact on kernel virtual memory for lots of sparse address
39  * space, and to reduce the cost of memory to each process.
40  *
41  *      from: hp300: @(#)pmap.h 7.2 (Berkeley) 12/16/90
42  *      from: @(#)pmap.h        7.4 (Berkeley) 5/12/91
43  *      from: FreeBSD: src/sys/i386/include/pmap.h,v 1.70 2000/11/30
44  *
45  * $FreeBSD$
46  */
47
48 #ifndef _MACHINE_PMAP_H_
49 #define _MACHINE_PMAP_H_
50
51 #include <sys/queue.h>
52 #include <sys/_cpuset.h>
53 #include <sys/_lock.h>
54 #include <sys/_mutex.h>
55
56 typedef uint32_t        pt1_entry_t;            /* L1 table entry */
57 typedef uint32_t        pt2_entry_t;            /* L2 table entry */
58 typedef uint32_t        ttb_entry_t;            /* TTB entry */
59
60 #ifdef _KERNEL
61
62 #if 0
63 #define PMAP_PTE_NOCACHE // Use uncached page tables
64 #endif
65
66 /*
67  *  (1) During pmap bootstrap, physical pages for L2 page tables are
68  *      allocated in advance which are used for KVA continuous mapping
69  *      starting from KERNBASE. This makes things more simple.
70  *  (2) During vm subsystem initialization, only vm subsystem itself can
71  *      allocate physical memory safely. As pmap_map() is called during
72  *      this initialization, we must be prepared for that and have some
73  *      preallocated physical pages for L2 page tables.
74  *
75  *  Note that some more pages for L2 page tables are preallocated too
76  *  for mappings laying above VM_MAX_KERNEL_ADDRESS.
77  */
78 #ifndef NKPT2PG
79 /*
80  *  The optimal way is to define this in board configuration as
81  *  definition here must be safe enough. It means really big.
82  *
83  *  1 GB KVA <=> 256 kernel L2 page table pages
84  *
85  *  From real platforms:
86  *      1 GB physical memory <=> 10 pages is enough
87  *      2 GB physical memory <=> 21 pages is enough
88  */
89 #define NKPT2PG         32
90 #endif
91
92 extern vm_paddr_t phys_avail[];
93 extern vm_paddr_t dump_avail[];
94 extern char *_tmppt;      /* poor name! */
95 extern vm_offset_t virtual_avail;
96 extern vm_offset_t virtual_end;
97
98 /*
99  * Pmap stuff
100  */
101
102 /*
103  * This structure is used to hold a virtual<->physical address
104  * association and is used mostly by bootstrap code
105  */
106 struct pv_addr {
107         SLIST_ENTRY(pv_addr) pv_list;
108         vm_offset_t     pv_va;
109         vm_paddr_t      pv_pa;
110 };
111 #endif
112 struct  pv_entry;
113 struct  pv_chunk;
114
115 struct  md_page {
116         TAILQ_HEAD(,pv_entry)   pv_list;
117         uint16_t                pt2_wirecount[4];
118         int                     pat_mode;
119 };
120
121 struct  pmap {
122         struct mtx              pm_mtx;
123         pt1_entry_t             *pm_pt1;        /* KVA of pt1 */
124         pt2_entry_t             *pm_pt2tab;     /* KVA of pt2 pages table */
125         TAILQ_HEAD(,pv_chunk)   pm_pvchunk;     /* list of mappings in pmap */
126         cpuset_t                pm_active;      /* active on cpus */
127         struct pmap_statistics  pm_stats;       /* pmap statictics */
128         LIST_ENTRY(pmap)        pm_list;        /* List of all pmaps */
129 };
130
131 typedef struct pmap *pmap_t;
132
133 #ifdef _KERNEL
134 extern struct pmap              kernel_pmap_store;
135 #define kernel_pmap             (&kernel_pmap_store)
136
137 #define PMAP_LOCK(pmap)         mtx_lock(&(pmap)->pm_mtx)
138 #define PMAP_LOCK_ASSERT(pmap, type) \
139                                 mtx_assert(&(pmap)->pm_mtx, (type))
140 #define PMAP_LOCK_DESTROY(pmap) mtx_destroy(&(pmap)->pm_mtx)
141 #define PMAP_LOCK_INIT(pmap)    mtx_init(&(pmap)->pm_mtx, "pmap", \
142                                     NULL, MTX_DEF | MTX_DUPOK)
143 #define PMAP_LOCKED(pmap)       mtx_owned(&(pmap)->pm_mtx)
144 #define PMAP_MTX(pmap)          (&(pmap)->pm_mtx)
145 #define PMAP_TRYLOCK(pmap)      mtx_trylock(&(pmap)->pm_mtx)
146 #define PMAP_UNLOCK(pmap)       mtx_unlock(&(pmap)->pm_mtx)
147 #endif
148
149 /*
150  * For each vm_page_t, there is a list of all currently valid virtual
151  * mappings of that page.  An entry is a pv_entry_t, the list is pv_list.
152  */
153 typedef struct pv_entry {
154         vm_offset_t     pv_va;          /* virtual address for mapping */
155         TAILQ_ENTRY(pv_entry)   pv_next;
156 } *pv_entry_t;
157
158 /*
159  * pv_entries are allocated in chunks per-process.  This avoids the
160  * need to track per-pmap assignments.
161  */
162 #define _NPCM   11
163 #define _NPCPV  336
164 struct pv_chunk {
165         pmap_t                  pc_pmap;
166         TAILQ_ENTRY(pv_chunk)   pc_list;
167         uint32_t                pc_map[_NPCM];  /* bitmap; 1 = free */
168         TAILQ_ENTRY(pv_chunk)   pc_lru;
169         struct pv_entry         pc_pventry[_NPCPV];
170 };
171
172 #ifdef _KERNEL
173 struct pcb;
174 extern ttb_entry_t pmap_kern_ttb;       /* TTB for kernel pmap */
175
176 #define pmap_page_get_memattr(m)        ((vm_memattr_t)(m)->md.pat_mode)
177 #define pmap_page_is_write_mapped(m)    (((m)->aflags & PGA_WRITEABLE) != 0)
178
179 /*
180  * Only the following functions or macros may be used before pmap_bootstrap()
181  * is called: pmap_kenter(), pmap_kextract(), pmap_kremove(), vtophys(), and
182  * vtopte2().
183  */
184 void pmap_bootstrap(vm_offset_t );
185 void pmap_kenter(vm_offset_t , vm_paddr_t );
186 void *pmap_kenter_temporary(vm_paddr_t , int );
187 void pmap_kremove(vm_offset_t);
188 void *pmap_mapdev(vm_paddr_t, vm_size_t);
189 void *pmap_mapdev_attr(vm_paddr_t, vm_size_t, int);
190 boolean_t pmap_page_is_mapped(vm_page_t );
191 void pmap_page_set_memattr(vm_page_t , vm_memattr_t );
192 void pmap_unmapdev(vm_offset_t, vm_size_t);
193 void pmap_kenter_device(vm_offset_t, vm_size_t, vm_paddr_t);
194 void pmap_kremove_device(vm_offset_t, vm_size_t);
195 void pmap_set_pcb_pagedir(pmap_t , struct pcb *);
196
197 void pmap_tlb_flush(pmap_t , vm_offset_t );
198 void pmap_tlb_flush_range(pmap_t , vm_offset_t , vm_size_t );
199
200 void pmap_dcache_wb_range(vm_paddr_t , vm_size_t , vm_memattr_t );
201
202 vm_paddr_t pmap_kextract(vm_offset_t );
203 vm_paddr_t pmap_dump_kextract(vm_offset_t, pt2_entry_t *);
204
205 int pmap_fault(pmap_t , vm_offset_t , uint32_t , int , bool);
206 #define vtophys(va)     pmap_kextract((vm_offset_t)(va))
207
208 void pmap_set_tex(void);
209 void reinit_mmu(ttb_entry_t ttb, u_int aux_clr, u_int aux_set);
210
211 /*
212  * Pre-bootstrap epoch functions set.
213  */
214 void pmap_bootstrap_prepare(vm_paddr_t );
215 vm_paddr_t pmap_preboot_get_pages(u_int );
216 void pmap_preboot_map_pages(vm_paddr_t , vm_offset_t , u_int );
217 vm_offset_t pmap_preboot_reserve_pages(u_int );
218 vm_offset_t pmap_preboot_get_vpages(u_int );
219 void pmap_preboot_map_attr(vm_paddr_t , vm_offset_t , vm_size_t ,
220         int , int );
221 static __inline void
222 pmap_map_chunk(vm_offset_t l1pt, vm_offset_t va, vm_offset_t pa,
223     vm_size_t size, int prot, int cache)
224 {
225         pmap_preboot_map_attr(pa, va, size, prot, cache);
226 }
227
228 /*
229  * This structure is used by machine-dependent code to describe
230  * static mappings of devices, created at bootstrap time.
231  */
232 struct pmap_devmap {
233         vm_offset_t     pd_va;          /* virtual address */
234         vm_paddr_t      pd_pa;          /* physical address */
235         vm_size_t       pd_size;        /* size of region */
236         vm_prot_t       pd_prot;        /* protection code */
237         int             pd_cache;       /* cache attributes */
238 };
239
240 void pmap_devmap_bootstrap(const struct pmap_devmap *);
241
242 #endif  /* _KERNEL */
243
244 // ----------------- TO BE DELETED ---------------------------------------------
245 #include <machine/pte-v6.h>
246
247 #ifdef _KERNEL
248
249 /*
250  * sys/arm/arm/elf_trampoline.c
251  * sys/arm/arm/genassym.c
252  * sys/arm/arm/machdep.c
253  * sys/arm/arm/mp_machdep.c
254  * sys/arm/arm/locore.S
255  * sys/arm/arm/pmap.c
256  * sys/arm/arm/swtch.S
257  * sys/arm/at91/at91_machdep.c
258  * sys/arm/cavium/cns11xx/econa_machdep.c
259  * sys/arm/s3c2xx0/s3c24x0_machdep.c
260  * sys/arm/xscale/ixp425/avila_machdep.c
261  * sys/arm/xscale/i8134x/crb_machdep.c
262  * sys/arm/xscale/i80321/ep80219_machdep.c
263  * sys/arm/xscale/i80321/iq31244_machdep.c
264  * sys/arm/xscale/pxa/pxa_machdep.c
265  */
266 #define PMAP_DOMAIN_KERNEL      0       /* The kernel uses domain #0 */
267
268 /*
269  * sys/arm/arm/cpufunc.c
270  */
271 void pmap_pte_init_mmu_v6(void);
272 void vector_page_setprot(int);
273
274
275 /*
276  * sys/arm/arm/db_interface.c
277  * sys/arm/arm/machdep.c
278  * sys/arm/arm/minidump_machdep.c
279  * sys/arm/arm/pmap.c
280  */
281 #define pmap_kernel() kernel_pmap
282
283 /*
284  * sys/arm/arm/bus_space_generic.c (just comment)
285  * sys/arm/arm/devmap.c
286  * sys/arm/arm/pmap.c (just comment)
287  * sys/arm/at91/at91_machdep.c
288  * sys/arm/cavium/cns11xx/econa_machdep.c
289  * sys/arm/freescale/imx/imx6_machdep.c (just comment)
290  * sys/arm/mv/orion/db88f5xxx.c
291  * sys/arm/mv/mv_localbus.c
292  * sys/arm/mv/mv_machdep.c
293  * sys/arm/mv/mv_pci.c
294  * sys/arm/s3c2xx0/s3c24x0_machdep.c
295  * sys/arm/versatile/versatile_machdep.c
296  * sys/arm/xscale/ixp425/avila_machdep.c
297  * sys/arm/xscale/i8134x/crb_machdep.c
298  * sys/arm/xscale/i80321/ep80219_machdep.c
299  * sys/arm/xscale/i80321/iq31244_machdep.c
300  * sys/arm/xscale/pxa/pxa_machdep.c
301  */
302 #define PTE_DEVICE      PTE2_ATTR_DEVICE
303
304
305
306 #endif  /* _KERNEL */
307 // -----------------------------------------------------------------------------
308
309 #endif  /* !_MACHINE_PMAP_H_ */