]> CyberLeo.Net >> Repos - FreeBSD/stable/10.git/blob - sys/powerpc/include/pmap.h
Copy head (r256279) to stable/10 as part of the 10.0-RELEASE cycle.
[FreeBSD/stable/10.git] / sys / powerpc / include / pmap.h
1 /*-
2  * Copyright (C) 2006 Semihalf, Marian Balakowicz <m8@semihalf.com>
3  * All rights reserved.
4  *
5  * Adapted for Freescale's e500 core CPUs.
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  * 1. Redistributions of source code must retain the above copyright
11  *    notice, this list of conditions and the following disclaimer.
12  * 2. Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in the
14  *    documentation and/or other materials provided with the distribution.
15  * 3. The name of the author may not be used to endorse or promote products
16  *    derived from this software without specific prior written permission.
17  *
18  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
19  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
20  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.  IN
21  * NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
22  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED
23  * TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR
24  * PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF
25  * LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING
26  * NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS
27  * SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
28  *
29  * $FreeBSD$
30  */
31 /*-
32  * Copyright (C) 1995, 1996 Wolfgang Solfrank.
33  * Copyright (C) 1995, 1996 TooLs GmbH.
34  * All rights reserved.
35  *
36  * Redistribution and use in source and binary forms, with or without
37  * modification, are permitted provided that the following conditions
38  * are met:
39  * 1. Redistributions of source code must retain the above copyright
40  *    notice, this list of conditions and the following disclaimer.
41  * 2. Redistributions in binary form must reproduce the above copyright
42  *    notice, this list of conditions and the following disclaimer in the
43  *    documentation and/or other materials provided with the distribution.
44  * 3. All advertising materials mentioning features or use of this software
45  *    must display the following acknowledgement:
46  *      This product includes software developed by TooLs GmbH.
47  * 4. The name of TooLs GmbH may not be used to endorse or promote products
48  *    derived from this software without specific prior written permission.
49  *
50  * THIS SOFTWARE IS PROVIDED BY TOOLS GMBH ``AS IS'' AND ANY EXPRESS OR
51  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
52  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
53  * IN NO EVENT SHALL TOOLS GMBH BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
54  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
55  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
56  * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
57  * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
58  * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF
59  * ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
60  *
61  *      from: $NetBSD: pmap.h,v 1.17 2000/03/30 16:18:24 jdolecek Exp $
62  */
63
64 #ifndef _MACHINE_PMAP_H_
65 #define _MACHINE_PMAP_H_
66
67 #include <sys/queue.h>
68 #include <sys/tree.h>
69 #include <sys/_cpuset.h>
70 #include <sys/_lock.h>
71 #include <sys/_mutex.h>
72 #include <machine/sr.h>
73 #include <machine/pte.h>
74 #include <machine/slb.h>
75 #include <machine/tlb.h>
76
77 struct pmap_md {
78         u_int           md_index;
79         vm_paddr_t      md_paddr;
80         vm_offset_t     md_vaddr;
81         vm_size_t       md_size;
82 };
83
84 #if defined(AIM)
85
86 #if !defined(NPMAPS)
87 #define NPMAPS          32768
88 #endif /* !defined(NPMAPS) */
89
90 struct  slbtnode;
91 struct  pmap;
92 typedef struct pmap *pmap_t;
93
94 struct pvo_entry {
95         LIST_ENTRY(pvo_entry) pvo_vlink;        /* Link to common virt page */
96         LIST_ENTRY(pvo_entry) pvo_olink;        /* Link to overflow entry */
97         RB_ENTRY(pvo_entry) pvo_plink;  /* Link to pmap entries */
98         union {
99                 struct  pte pte;                /* 32 bit PTE */
100                 struct  lpte lpte;              /* 64 bit PTE */
101         } pvo_pte;
102         pmap_t          pvo_pmap;               /* Owning pmap */
103         vm_offset_t     pvo_vaddr;              /* VA of entry */
104         uint64_t        pvo_vpn;                /* Virtual page number */
105 };
106 LIST_HEAD(pvo_head, pvo_entry);
107 RB_HEAD(pvo_tree, pvo_entry);
108 int pvo_vaddr_compare(struct pvo_entry *, struct pvo_entry *);
109 RB_PROTOTYPE(pvo_tree, pvo_entry, pvo_plink, pvo_vaddr_compare);
110
111 #define PVO_PTEGIDX_MASK        0x007UL         /* which PTEG slot */
112 #define PVO_PTEGIDX_VALID       0x008UL         /* slot is valid */
113 #define PVO_WIRED               0x010UL         /* PVO entry is wired */
114 #define PVO_MANAGED             0x020UL         /* PVO entry is managed */
115 #define PVO_EXECUTABLE          0x040UL         /* PVO entry is executable */
116 #define PVO_BOOTSTRAP           0x080UL         /* PVO entry allocated during
117                                                    bootstrap */
118 #define PVO_LARGE               0x200UL         /* large page */
119 #define PVO_VADDR(pvo)          ((pvo)->pvo_vaddr & ~ADDR_POFF)
120 #define PVO_PTEGIDX_GET(pvo)    ((pvo)->pvo_vaddr & PVO_PTEGIDX_MASK)
121 #define PVO_PTEGIDX_ISSET(pvo)  ((pvo)->pvo_vaddr & PVO_PTEGIDX_VALID)
122 #define PVO_PTEGIDX_CLR(pvo)    \
123         ((void)((pvo)->pvo_vaddr &= ~(PVO_PTEGIDX_VALID|PVO_PTEGIDX_MASK)))
124 #define PVO_PTEGIDX_SET(pvo, i) \
125         ((void)((pvo)->pvo_vaddr |= (i)|PVO_PTEGIDX_VALID))
126 #define PVO_VSID(pvo)           ((pvo)->pvo_vpn >> 16)
127
128 struct  pmap {
129         struct  mtx     pm_mtx;
130         
131     #ifdef __powerpc64__
132         struct slbtnode *pm_slb_tree_root;
133         struct slb      **pm_slb;
134         int             pm_slb_len;
135     #else
136         register_t      pm_sr[16];
137     #endif
138         cpuset_t        pm_active;
139
140         struct pmap     *pmap_phys;
141         struct          pmap_statistics pm_stats;
142         struct pvo_tree pmap_pvo;
143 };
144
145 struct  md_page {
146         u_int64_t        mdpg_attrs;
147         vm_memattr_t     mdpg_cache_attrs;
148         struct  pvo_head mdpg_pvoh;
149 };
150
151 #define pmap_page_get_memattr(m)        ((m)->md.mdpg_cache_attrs)
152 #define pmap_page_is_mapped(m)  (!LIST_EMPTY(&(m)->md.mdpg_pvoh))
153
154 /*
155  * Return the VSID corresponding to a given virtual address.
156  * If no VSID is currently defined, it will allocate one, and add
157  * it to a free slot if available.
158  *
159  * NB: The PMAP MUST be locked already.
160  */
161 uint64_t va_to_vsid(pmap_t pm, vm_offset_t va);
162
163 /* Lock-free, non-allocating lookup routines */
164 uint64_t kernel_va_to_slbv(vm_offset_t va);
165 struct slb *user_va_to_slb_entry(pmap_t pm, vm_offset_t va);
166
167 uint64_t allocate_user_vsid(pmap_t pm, uint64_t esid, int large);
168 void    free_vsid(pmap_t pm, uint64_t esid, int large);
169 void    slb_insert_user(pmap_t pm, struct slb *slb);
170 void    slb_insert_kernel(uint64_t slbe, uint64_t slbv);
171
172 struct slbtnode *slb_alloc_tree(void);
173 void     slb_free_tree(pmap_t pm);
174 struct slb **slb_alloc_user_cache(void);
175 void    slb_free_user_cache(struct slb **);
176
177 #else
178
179 struct pmap {
180         struct mtx              pm_mtx;         /* pmap mutex */
181         tlbtid_t                pm_tid[MAXCPU]; /* TID to identify this pmap entries in TLB */
182         cpuset_t                pm_active;      /* active on cpus */
183         struct pmap_statistics  pm_stats;       /* pmap statistics */
184
185         /* Page table directory, array of pointers to page tables. */
186         pte_t                   *pm_pdir[PDIR_NENTRIES];
187
188         /* List of allocated ptbl bufs (ptbl kva regions). */
189         TAILQ_HEAD(, ptbl_buf)  pm_ptbl_list;
190 };
191 typedef struct pmap *pmap_t;
192
193 struct pv_entry {
194         pmap_t pv_pmap;
195         vm_offset_t pv_va;
196         TAILQ_ENTRY(pv_entry) pv_link;
197 };
198 typedef struct pv_entry *pv_entry_t;
199
200 struct md_page {
201         TAILQ_HEAD(, pv_entry) pv_list;
202 };
203
204 #define pmap_page_get_memattr(m)        VM_MEMATTR_DEFAULT
205 #define pmap_page_is_mapped(m)  (!TAILQ_EMPTY(&(m)->md.pv_list))
206
207 #endif /* AIM */
208
209 extern  struct pmap kernel_pmap_store;
210 #define kernel_pmap     (&kernel_pmap_store)
211
212 #ifdef _KERNEL
213
214 #define PMAP_LOCK(pmap)         mtx_lock(&(pmap)->pm_mtx)
215 #define PMAP_LOCK_ASSERT(pmap, type) \
216                                 mtx_assert(&(pmap)->pm_mtx, (type))
217 #define PMAP_LOCK_DESTROY(pmap) mtx_destroy(&(pmap)->pm_mtx)
218 #define PMAP_LOCK_INIT(pmap)    mtx_init(&(pmap)->pm_mtx, \
219                                     (pmap == kernel_pmap) ? "kernelpmap" : \
220                                     "pmap", NULL, MTX_DEF)
221 #define PMAP_LOCKED(pmap)       mtx_owned(&(pmap)->pm_mtx)
222 #define PMAP_MTX(pmap)          (&(pmap)->pm_mtx)
223 #define PMAP_TRYLOCK(pmap)      mtx_trylock(&(pmap)->pm_mtx)
224 #define PMAP_UNLOCK(pmap)       mtx_unlock(&(pmap)->pm_mtx)
225
226 #define pmap_page_is_write_mapped(m)    (((m)->aflags & PGA_WRITEABLE) != 0)
227
228 void            pmap_bootstrap(vm_offset_t, vm_offset_t);
229 void            pmap_kenter(vm_offset_t va, vm_paddr_t pa);
230 void            pmap_kenter_attr(vm_offset_t va, vm_offset_t pa, vm_memattr_t);
231 void            pmap_kremove(vm_offset_t);
232 void            *pmap_mapdev(vm_paddr_t, vm_size_t);
233 void            *pmap_mapdev_attr(vm_offset_t, vm_size_t, vm_memattr_t);
234 void            pmap_unmapdev(vm_offset_t, vm_size_t);
235 void            pmap_page_set_memattr(vm_page_t, vm_memattr_t);
236 void            pmap_deactivate(struct thread *);
237 vm_paddr_t      pmap_kextract(vm_offset_t);
238 int             pmap_dev_direct_mapped(vm_paddr_t, vm_size_t);
239 boolean_t       pmap_mmu_install(char *name, int prio);
240
241 #define vtophys(va)     pmap_kextract((vm_offset_t)(va))
242
243 #define PHYS_AVAIL_SZ   128
244 extern  vm_offset_t phys_avail[PHYS_AVAIL_SZ];
245 extern  vm_offset_t virtual_avail;
246 extern  vm_offset_t virtual_end;
247
248 extern  vm_offset_t msgbuf_phys;
249
250 extern  int pmap_bootstrapped;
251
252 extern vm_offset_t pmap_dumpsys_map(struct pmap_md *, vm_size_t, vm_size_t *);
253 extern void pmap_dumpsys_unmap(struct pmap_md *, vm_size_t, vm_offset_t);
254
255 extern struct pmap_md *pmap_scan_md(struct pmap_md *);
256
257 #endif
258
259 #endif /* !_MACHINE_PMAP_H_ */