]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/amd64/amd64/pmap.c
Revert r362998, r326999 while a better compatibility strategy is devised.
[FreeBSD/FreeBSD.git] / sys / amd64 / amd64 / pmap.c
1 /*-
2  * SPDX-License-Identifier: BSD-4-Clause
3  *
4  * Copyright (c) 1991 Regents of the University of California.
5  * All rights reserved.
6  * Copyright (c) 1994 John S. Dyson
7  * All rights reserved.
8  * Copyright (c) 1994 David Greenman
9  * All rights reserved.
10  * Copyright (c) 2003 Peter Wemm
11  * All rights reserved.
12  * Copyright (c) 2005-2010 Alan L. Cox <alc@cs.rice.edu>
13  * All rights reserved.
14  *
15  * This code is derived from software contributed to Berkeley by
16  * the Systems Programming Group of the University of Utah Computer
17  * Science Department and William Jolitz of UUNET Technologies Inc.
18  *
19  * Redistribution and use in source and binary forms, with or without
20  * modification, are permitted provided that the following conditions
21  * are met:
22  * 1. Redistributions of source code must retain the above copyright
23  *    notice, this list of conditions and the following disclaimer.
24  * 2. Redistributions in binary form must reproduce the above copyright
25  *    notice, this list of conditions and the following disclaimer in the
26  *    documentation and/or other materials provided with the distribution.
27  * 3. All advertising materials mentioning features or use of this software
28  *    must display the following acknowledgement:
29  *      This product includes software developed by the University of
30  *      California, Berkeley and its contributors.
31  * 4. Neither the name of the University nor the names of its contributors
32  *    may be used to endorse or promote products derived from this software
33  *    without specific prior written permission.
34  *
35  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
36  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
37  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
38  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
39  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
40  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
41  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
42  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
43  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
44  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
45  * SUCH DAMAGE.
46  *
47  *      from:   @(#)pmap.c      7.7 (Berkeley)  5/12/91
48  */
49 /*-
50  * Copyright (c) 2003 Networks Associates Technology, Inc.
51  * Copyright (c) 2014-2019 The FreeBSD Foundation
52  * All rights reserved.
53  *
54  * This software was developed for the FreeBSD Project by Jake Burkholder,
55  * Safeport Network Services, and Network Associates Laboratories, the
56  * Security Research Division of Network Associates, Inc. under
57  * DARPA/SPAWAR contract N66001-01-C-8035 ("CBOSS"), as part of the DARPA
58  * CHATS research program.
59  *
60  * Portions of this software were developed by
61  * Konstantin Belousov <kib@FreeBSD.org> under sponsorship from
62  * the FreeBSD Foundation.
63  *
64  * Redistribution and use in source and binary forms, with or without
65  * modification, are permitted provided that the following conditions
66  * are met:
67  * 1. Redistributions of source code must retain the above copyright
68  *    notice, this list of conditions and the following disclaimer.
69  * 2. Redistributions in binary form must reproduce the above copyright
70  *    notice, this list of conditions and the following disclaimer in the
71  *    documentation and/or other materials provided with the distribution.
72  *
73  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
74  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
75  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
76  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
77  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
78  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
79  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
80  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
81  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
82  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
83  * SUCH DAMAGE.
84  */
85
86 #define AMD64_NPT_AWARE
87
88 #include <sys/cdefs.h>
89 __FBSDID("$FreeBSD$");
90
91 /*
92  *      Manages physical address maps.
93  *
94  *      Since the information managed by this module is
95  *      also stored by the logical address mapping module,
96  *      this module may throw away valid virtual-to-physical
97  *      mappings at almost any time.  However, invalidations
98  *      of virtual-to-physical mappings must be done as
99  *      requested.
100  *
101  *      In order to cope with hardware architectures which
102  *      make virtual-to-physical map invalidates expensive,
103  *      this module may delay invalidate or reduced protection
104  *      operations until such time as they are actually
105  *      necessary.  This module is given full information as
106  *      to which processors are currently using which maps,
107  *      and to when physical maps must be made correct.
108  */
109
110 #include "opt_ddb.h"
111 #include "opt_pmap.h"
112 #include "opt_vm.h"
113
114 #include <sys/param.h>
115 #include <sys/bitstring.h>
116 #include <sys/bus.h>
117 #include <sys/systm.h>
118 #include <sys/kernel.h>
119 #include <sys/ktr.h>
120 #include <sys/lock.h>
121 #include <sys/malloc.h>
122 #include <sys/mman.h>
123 #include <sys/mutex.h>
124 #include <sys/proc.h>
125 #include <sys/rangeset.h>
126 #include <sys/rwlock.h>
127 #include <sys/sbuf.h>
128 #include <sys/sx.h>
129 #include <sys/turnstile.h>
130 #include <sys/vmem.h>
131 #include <sys/vmmeter.h>
132 #include <sys/sched.h>
133 #include <sys/sysctl.h>
134 #include <sys/smp.h>
135 #ifdef DDB
136 #include <sys/kdb.h>
137 #include <ddb/ddb.h>
138 #endif
139
140 #include <vm/vm.h>
141 #include <vm/vm_param.h>
142 #include <vm/vm_kern.h>
143 #include <vm/vm_page.h>
144 #include <vm/vm_map.h>
145 #include <vm/vm_object.h>
146 #include <vm/vm_extern.h>
147 #include <vm/vm_pageout.h>
148 #include <vm/vm_pager.h>
149 #include <vm/vm_phys.h>
150 #include <vm/vm_radix.h>
151 #include <vm/vm_reserv.h>
152 #include <vm/uma.h>
153
154 #include <machine/intr_machdep.h>
155 #include <x86/apicvar.h>
156 #include <x86/ifunc.h>
157 #include <machine/cpu.h>
158 #include <machine/cputypes.h>
159 #include <machine/md_var.h>
160 #include <machine/pcb.h>
161 #include <machine/specialreg.h>
162 #ifdef SMP
163 #include <machine/smp.h>
164 #endif
165 #include <machine/sysarch.h>
166 #include <machine/tss.h>
167
168 #ifdef NUMA
169 #define PMAP_MEMDOM     MAXMEMDOM
170 #else
171 #define PMAP_MEMDOM     1
172 #endif
173
174 static __inline boolean_t
175 pmap_type_guest(pmap_t pmap)
176 {
177
178         return ((pmap->pm_type == PT_EPT) || (pmap->pm_type == PT_RVI));
179 }
180
181 static __inline boolean_t
182 pmap_emulate_ad_bits(pmap_t pmap)
183 {
184
185         return ((pmap->pm_flags & PMAP_EMULATE_AD_BITS) != 0);
186 }
187
188 static __inline pt_entry_t
189 pmap_valid_bit(pmap_t pmap)
190 {
191         pt_entry_t mask;
192
193         switch (pmap->pm_type) {
194         case PT_X86:
195         case PT_RVI:
196                 mask = X86_PG_V;
197                 break;
198         case PT_EPT:
199                 if (pmap_emulate_ad_bits(pmap))
200                         mask = EPT_PG_EMUL_V;
201                 else
202                         mask = EPT_PG_READ;
203                 break;
204         default:
205                 panic("pmap_valid_bit: invalid pm_type %d", pmap->pm_type);
206         }
207
208         return (mask);
209 }
210
211 static __inline pt_entry_t
212 pmap_rw_bit(pmap_t pmap)
213 {
214         pt_entry_t mask;
215
216         switch (pmap->pm_type) {
217         case PT_X86:
218         case PT_RVI:
219                 mask = X86_PG_RW;
220                 break;
221         case PT_EPT:
222                 if (pmap_emulate_ad_bits(pmap))
223                         mask = EPT_PG_EMUL_RW;
224                 else
225                         mask = EPT_PG_WRITE;
226                 break;
227         default:
228                 panic("pmap_rw_bit: invalid pm_type %d", pmap->pm_type);
229         }
230
231         return (mask);
232 }
233
234 static pt_entry_t pg_g;
235
236 static __inline pt_entry_t
237 pmap_global_bit(pmap_t pmap)
238 {
239         pt_entry_t mask;
240
241         switch (pmap->pm_type) {
242         case PT_X86:
243                 mask = pg_g;
244                 break;
245         case PT_RVI:
246         case PT_EPT:
247                 mask = 0;
248                 break;
249         default:
250                 panic("pmap_global_bit: invalid pm_type %d", pmap->pm_type);
251         }
252
253         return (mask);
254 }
255
256 static __inline pt_entry_t
257 pmap_accessed_bit(pmap_t pmap)
258 {
259         pt_entry_t mask;
260
261         switch (pmap->pm_type) {
262         case PT_X86:
263         case PT_RVI:
264                 mask = X86_PG_A;
265                 break;
266         case PT_EPT:
267                 if (pmap_emulate_ad_bits(pmap))
268                         mask = EPT_PG_READ;
269                 else
270                         mask = EPT_PG_A;
271                 break;
272         default:
273                 panic("pmap_accessed_bit: invalid pm_type %d", pmap->pm_type);
274         }
275
276         return (mask);
277 }
278
279 static __inline pt_entry_t
280 pmap_modified_bit(pmap_t pmap)
281 {
282         pt_entry_t mask;
283
284         switch (pmap->pm_type) {
285         case PT_X86:
286         case PT_RVI:
287                 mask = X86_PG_M;
288                 break;
289         case PT_EPT:
290                 if (pmap_emulate_ad_bits(pmap))
291                         mask = EPT_PG_WRITE;
292                 else
293                         mask = EPT_PG_M;
294                 break;
295         default:
296                 panic("pmap_modified_bit: invalid pm_type %d", pmap->pm_type);
297         }
298
299         return (mask);
300 }
301
302 static __inline pt_entry_t
303 pmap_pku_mask_bit(pmap_t pmap)
304 {
305
306         return (pmap->pm_type == PT_X86 ? X86_PG_PKU_MASK : 0);
307 }
308
309 #if !defined(DIAGNOSTIC)
310 #ifdef __GNUC_GNU_INLINE__
311 #define PMAP_INLINE     __attribute__((__gnu_inline__)) inline
312 #else
313 #define PMAP_INLINE     extern inline
314 #endif
315 #else
316 #define PMAP_INLINE
317 #endif
318
319 #ifdef PV_STATS
320 #define PV_STAT(x)      do { x ; } while (0)
321 #else
322 #define PV_STAT(x)      do { } while (0)
323 #endif
324
325 #undef pa_index
326 #ifdef NUMA
327 #define pa_index(pa)    ({                                      \
328         KASSERT((pa) <= vm_phys_segs[vm_phys_nsegs - 1].end,    \
329             ("address %lx beyond the last segment", (pa)));     \
330         (pa) >> PDRSHIFT;                                       \
331 })
332 #define pa_to_pmdp(pa)  (&pv_table[pa_index(pa)])
333 #define pa_to_pvh(pa)   (&(pa_to_pmdp(pa)->pv_page))
334 #define PHYS_TO_PV_LIST_LOCK(pa)        ({                      \
335         struct rwlock *_lock;                                   \
336         if (__predict_false((pa) > pmap_last_pa))               \
337                 _lock = &pv_dummy_large.pv_lock;                \
338         else                                                    \
339                 _lock = &(pa_to_pmdp(pa)->pv_lock);             \
340         _lock;                                                  \
341 })
342 #else
343 #define pa_index(pa)    ((pa) >> PDRSHIFT)
344 #define pa_to_pvh(pa)   (&pv_table[pa_index(pa)])
345
346 #define NPV_LIST_LOCKS  MAXCPU
347
348 #define PHYS_TO_PV_LIST_LOCK(pa)        \
349                         (&pv_list_locks[pa_index(pa) % NPV_LIST_LOCKS])
350 #endif
351
352 #define CHANGE_PV_LIST_LOCK_TO_PHYS(lockp, pa)  do {    \
353         struct rwlock **_lockp = (lockp);               \
354         struct rwlock *_new_lock;                       \
355                                                         \
356         _new_lock = PHYS_TO_PV_LIST_LOCK(pa);           \
357         if (_new_lock != *_lockp) {                     \
358                 if (*_lockp != NULL)                    \
359                         rw_wunlock(*_lockp);            \
360                 *_lockp = _new_lock;                    \
361                 rw_wlock(*_lockp);                      \
362         }                                               \
363 } while (0)
364
365 #define CHANGE_PV_LIST_LOCK_TO_VM_PAGE(lockp, m)        \
366                         CHANGE_PV_LIST_LOCK_TO_PHYS(lockp, VM_PAGE_TO_PHYS(m))
367
368 #define RELEASE_PV_LIST_LOCK(lockp)             do {    \
369         struct rwlock **_lockp = (lockp);               \
370                                                         \
371         if (*_lockp != NULL) {                          \
372                 rw_wunlock(*_lockp);                    \
373                 *_lockp = NULL;                         \
374         }                                               \
375 } while (0)
376
377 #define VM_PAGE_TO_PV_LIST_LOCK(m)      \
378                         PHYS_TO_PV_LIST_LOCK(VM_PAGE_TO_PHYS(m))
379
380 struct pmap kernel_pmap_store;
381
382 vm_offset_t virtual_avail;      /* VA of first avail page (after kernel bss) */
383 vm_offset_t virtual_end;        /* VA of last avail page (end of kernel AS) */
384
385 int nkpt;
386 SYSCTL_INT(_machdep, OID_AUTO, nkpt, CTLFLAG_RD, &nkpt, 0,
387     "Number of kernel page table pages allocated on bootup");
388
389 static int ndmpdp;
390 vm_paddr_t dmaplimit;
391 vm_offset_t kernel_vm_end = VM_MIN_KERNEL_ADDRESS;
392 pt_entry_t pg_nx;
393
394 static SYSCTL_NODE(_vm, OID_AUTO, pmap, CTLFLAG_RD | CTLFLAG_MPSAFE, 0,
395     "VM/pmap parameters");
396
397 static int pg_ps_enabled = 1;
398 SYSCTL_INT(_vm_pmap, OID_AUTO, pg_ps_enabled, CTLFLAG_RDTUN | CTLFLAG_NOFETCH,
399     &pg_ps_enabled, 0, "Are large page mappings enabled?");
400
401 #define PAT_INDEX_SIZE  8
402 static int pat_index[PAT_INDEX_SIZE];   /* cache mode to PAT index conversion */
403
404 static u_int64_t        KPTphys;        /* phys addr of kernel level 1 */
405 static u_int64_t        KPDphys;        /* phys addr of kernel level 2 */
406 u_int64_t               KPDPphys;       /* phys addr of kernel level 3 */
407 u_int64_t               KPML4phys;      /* phys addr of kernel level 4 */
408
409 static u_int64_t        DMPDphys;       /* phys addr of direct mapped level 2 */
410 static u_int64_t        DMPDPphys;      /* phys addr of direct mapped level 3 */
411 static int              ndmpdpphys;     /* number of DMPDPphys pages */
412
413 static vm_paddr_t       KERNend;        /* phys addr of end of bootstrap data */
414
415 /*
416  * pmap_mapdev support pre initialization (i.e. console)
417  */
418 #define PMAP_PREINIT_MAPPING_COUNT      8
419 static struct pmap_preinit_mapping {
420         vm_paddr_t      pa;
421         vm_offset_t     va;
422         vm_size_t       sz;
423         int             mode;
424 } pmap_preinit_mapping[PMAP_PREINIT_MAPPING_COUNT];
425 static int pmap_initialized;
426
427 /*
428  * Data for the pv entry allocation mechanism.
429  * Updates to pv_invl_gen are protected by the pv list lock but reads are not.
430  */
431 #ifdef NUMA
432 static __inline int
433 pc_to_domain(struct pv_chunk *pc)
434 {
435
436         return (_vm_phys_domain(DMAP_TO_PHYS((vm_offset_t)pc)));
437 }
438 #else
439 static __inline int
440 pc_to_domain(struct pv_chunk *pc __unused)
441 {
442
443         return (0);
444 }
445 #endif
446
447 struct pv_chunks_list {
448         struct mtx pvc_lock;
449         TAILQ_HEAD(pch, pv_chunk) pvc_list;
450         int active_reclaims;
451 } __aligned(CACHE_LINE_SIZE);
452
453 struct pv_chunks_list __exclusive_cache_line pv_chunks[PMAP_MEMDOM];
454
455 #ifdef  NUMA
456 struct pmap_large_md_page {
457         struct rwlock   pv_lock;
458         struct md_page  pv_page;
459         u_long pv_invl_gen;
460 };
461 __exclusive_cache_line static struct pmap_large_md_page pv_dummy_large;
462 #define pv_dummy pv_dummy_large.pv_page
463 __read_mostly static struct pmap_large_md_page *pv_table;
464 __read_mostly vm_paddr_t pmap_last_pa;
465 #else
466 static struct rwlock __exclusive_cache_line pv_list_locks[NPV_LIST_LOCKS];
467 static u_long pv_invl_gen[NPV_LIST_LOCKS];
468 static struct md_page *pv_table;
469 static struct md_page pv_dummy;
470 #endif
471
472 /*
473  * All those kernel PT submaps that BSD is so fond of
474  */
475 pt_entry_t *CMAP1 = NULL;
476 caddr_t CADDR1 = 0;
477 static vm_offset_t qframe = 0;
478 static struct mtx qframe_mtx;
479
480 static int pmap_flags = PMAP_PDE_SUPERPAGE;     /* flags for x86 pmaps */
481
482 static vmem_t *large_vmem;
483 static u_int lm_ents;
484 #define PMAP_ADDRESS_IN_LARGEMAP(va)    ((va) >= LARGEMAP_MIN_ADDRESS && \
485         (va) < LARGEMAP_MIN_ADDRESS + NBPML4 * (u_long)lm_ents)
486
487 int pmap_pcid_enabled = 1;
488 SYSCTL_INT(_vm_pmap, OID_AUTO, pcid_enabled, CTLFLAG_RDTUN | CTLFLAG_NOFETCH,
489     &pmap_pcid_enabled, 0, "Is TLB Context ID enabled ?");
490 int invpcid_works = 0;
491 SYSCTL_INT(_vm_pmap, OID_AUTO, invpcid_works, CTLFLAG_RD, &invpcid_works, 0,
492     "Is the invpcid instruction available ?");
493
494 int __read_frequently pti = 0;
495 SYSCTL_INT(_vm_pmap, OID_AUTO, pti, CTLFLAG_RDTUN | CTLFLAG_NOFETCH,
496     &pti, 0,
497     "Page Table Isolation enabled");
498 static vm_object_t pti_obj;
499 static pml4_entry_t *pti_pml4;
500 static vm_pindex_t pti_pg_idx;
501 static bool pti_finalized;
502
503 struct pmap_pkru_range {
504         struct rs_el    pkru_rs_el;
505         u_int           pkru_keyidx;
506         int             pkru_flags;
507 };
508
509 static uma_zone_t pmap_pkru_ranges_zone;
510 static bool pmap_pkru_same(pmap_t pmap, vm_offset_t sva, vm_offset_t eva);
511 static pt_entry_t pmap_pkru_get(pmap_t pmap, vm_offset_t va);
512 static void pmap_pkru_on_remove(pmap_t pmap, vm_offset_t sva, vm_offset_t eva);
513 static void *pkru_dup_range(void *ctx, void *data);
514 static void pkru_free_range(void *ctx, void *node);
515 static int pmap_pkru_copy(pmap_t dst_pmap, pmap_t src_pmap);
516 static int pmap_pkru_deassign(pmap_t pmap, vm_offset_t sva, vm_offset_t eva);
517 static void pmap_pkru_deassign_all(pmap_t pmap);
518
519 static int
520 pmap_pcid_save_cnt_proc(SYSCTL_HANDLER_ARGS)
521 {
522         int i;
523         uint64_t res;
524
525         res = 0;
526         CPU_FOREACH(i) {
527                 res += cpuid_to_pcpu[i]->pc_pm_save_cnt;
528         }
529         return (sysctl_handle_64(oidp, &res, 0, req));
530 }
531 SYSCTL_PROC(_vm_pmap, OID_AUTO, pcid_save_cnt, CTLTYPE_U64 | CTLFLAG_RD |
532     CTLFLAG_MPSAFE, NULL, 0, pmap_pcid_save_cnt_proc, "QU",
533     "Count of saved TLB context on switch");
534
535 static LIST_HEAD(, pmap_invl_gen) pmap_invl_gen_tracker =
536     LIST_HEAD_INITIALIZER(&pmap_invl_gen_tracker);
537 static struct mtx invl_gen_mtx;
538 /* Fake lock object to satisfy turnstiles interface. */
539 static struct lock_object invl_gen_ts = {
540         .lo_name = "invlts",
541 };
542 static struct pmap_invl_gen pmap_invl_gen_head = {
543         .gen = 1,
544         .next = NULL,
545 };
546 static u_long pmap_invl_gen = 1;
547 static int pmap_invl_waiters;
548 static struct callout pmap_invl_callout;
549 static bool pmap_invl_callout_inited;
550
551 #define PMAP_ASSERT_NOT_IN_DI() \
552     KASSERT(pmap_not_in_di(), ("DI already started"))
553
554 static bool
555 pmap_di_locked(void)
556 {
557         int tun;
558
559         if ((cpu_feature2 & CPUID2_CX16) == 0)
560                 return (true);
561         tun = 0;
562         TUNABLE_INT_FETCH("vm.pmap.di_locked", &tun);
563         return (tun != 0);
564 }
565
566 static int
567 sysctl_pmap_di_locked(SYSCTL_HANDLER_ARGS)
568 {
569         int locked;
570
571         locked = pmap_di_locked();
572         return (sysctl_handle_int(oidp, &locked, 0, req));
573 }
574 SYSCTL_PROC(_vm_pmap, OID_AUTO, di_locked, CTLTYPE_INT | CTLFLAG_RDTUN |
575     CTLFLAG_MPSAFE, 0, 0, sysctl_pmap_di_locked, "",
576     "Locked delayed invalidation");
577
578 static bool pmap_not_in_di_l(void);
579 static bool pmap_not_in_di_u(void);
580 DEFINE_IFUNC(, bool, pmap_not_in_di, (void))
581 {
582
583         return (pmap_di_locked() ? pmap_not_in_di_l : pmap_not_in_di_u);
584 }
585
586 static bool
587 pmap_not_in_di_l(void)
588 {
589         struct pmap_invl_gen *invl_gen;
590
591         invl_gen = &curthread->td_md.md_invl_gen;
592         return (invl_gen->gen == 0);
593 }
594
595 static void
596 pmap_thread_init_invl_gen_l(struct thread *td)
597 {
598         struct pmap_invl_gen *invl_gen;
599
600         invl_gen = &td->td_md.md_invl_gen;
601         invl_gen->gen = 0;
602 }
603
604 static void
605 pmap_delayed_invl_wait_block(u_long *m_gen, u_long *invl_gen)
606 {
607         struct turnstile *ts;
608
609         ts = turnstile_trywait(&invl_gen_ts);
610         if (*m_gen > atomic_load_long(invl_gen))
611                 turnstile_wait(ts, NULL, TS_SHARED_QUEUE);
612         else
613                 turnstile_cancel(ts);
614 }
615
616 static void
617 pmap_delayed_invl_finish_unblock(u_long new_gen)
618 {
619         struct turnstile *ts;
620
621         turnstile_chain_lock(&invl_gen_ts);
622         ts = turnstile_lookup(&invl_gen_ts);
623         if (new_gen != 0)
624                 pmap_invl_gen = new_gen;
625         if (ts != NULL) {
626                 turnstile_broadcast(ts, TS_SHARED_QUEUE);
627                 turnstile_unpend(ts);
628         }
629         turnstile_chain_unlock(&invl_gen_ts);
630 }
631
632 /*
633  * Start a new Delayed Invalidation (DI) block of code, executed by
634  * the current thread.  Within a DI block, the current thread may
635  * destroy both the page table and PV list entries for a mapping and
636  * then release the corresponding PV list lock before ensuring that
637  * the mapping is flushed from the TLBs of any processors with the
638  * pmap active.
639  */
640 static void
641 pmap_delayed_invl_start_l(void)
642 {
643         struct pmap_invl_gen *invl_gen;
644         u_long currgen;
645
646         invl_gen = &curthread->td_md.md_invl_gen;
647         PMAP_ASSERT_NOT_IN_DI();
648         mtx_lock(&invl_gen_mtx);
649         if (LIST_EMPTY(&pmap_invl_gen_tracker))
650                 currgen = pmap_invl_gen;
651         else
652                 currgen = LIST_FIRST(&pmap_invl_gen_tracker)->gen;
653         invl_gen->gen = currgen + 1;
654         LIST_INSERT_HEAD(&pmap_invl_gen_tracker, invl_gen, link);
655         mtx_unlock(&invl_gen_mtx);
656 }
657
658 /*
659  * Finish the DI block, previously started by the current thread.  All
660  * required TLB flushes for the pages marked by
661  * pmap_delayed_invl_page() must be finished before this function is
662  * called.
663  *
664  * This function works by bumping the global DI generation number to
665  * the generation number of the current thread's DI, unless there is a
666  * pending DI that started earlier.  In the latter case, bumping the
667  * global DI generation number would incorrectly signal that the
668  * earlier DI had finished.  Instead, this function bumps the earlier
669  * DI's generation number to match the generation number of the
670  * current thread's DI.
671  */
672 static void
673 pmap_delayed_invl_finish_l(void)
674 {
675         struct pmap_invl_gen *invl_gen, *next;
676
677         invl_gen = &curthread->td_md.md_invl_gen;
678         KASSERT(invl_gen->gen != 0, ("missed invl_start"));
679         mtx_lock(&invl_gen_mtx);
680         next = LIST_NEXT(invl_gen, link);
681         if (next == NULL)
682                 pmap_delayed_invl_finish_unblock(invl_gen->gen);
683         else
684                 next->gen = invl_gen->gen;
685         LIST_REMOVE(invl_gen, link);
686         mtx_unlock(&invl_gen_mtx);
687         invl_gen->gen = 0;
688 }
689
690 static bool
691 pmap_not_in_di_u(void)
692 {
693         struct pmap_invl_gen *invl_gen;
694
695         invl_gen = &curthread->td_md.md_invl_gen;
696         return (((uintptr_t)invl_gen->next & PMAP_INVL_GEN_NEXT_INVALID) != 0);
697 }
698
699 static void
700 pmap_thread_init_invl_gen_u(struct thread *td)
701 {
702         struct pmap_invl_gen *invl_gen;
703
704         invl_gen = &td->td_md.md_invl_gen;
705         invl_gen->gen = 0;
706         invl_gen->next = (void *)PMAP_INVL_GEN_NEXT_INVALID;
707 }
708
709 static bool
710 pmap_di_load_invl(struct pmap_invl_gen *ptr, struct pmap_invl_gen *out)
711 {
712         uint64_t new_high, new_low, old_high, old_low;
713         char res;
714
715         old_low = new_low = 0;
716         old_high = new_high = (uintptr_t)0;
717
718         __asm volatile("lock;cmpxchg16b\t%1"
719             : "=@cce" (res), "+m" (*ptr), "+a" (old_low), "+d" (old_high)
720             : "b"(new_low), "c" (new_high)
721             : "memory", "cc");
722         if (res == 0) {
723                 if ((old_high & PMAP_INVL_GEN_NEXT_INVALID) != 0)
724                         return (false);
725                 out->gen = old_low;
726                 out->next = (void *)old_high;
727         } else {
728                 out->gen = new_low;
729                 out->next = (void *)new_high;
730         }
731         return (true);
732 }
733
734 static bool
735 pmap_di_store_invl(struct pmap_invl_gen *ptr, struct pmap_invl_gen *old_val,
736     struct pmap_invl_gen *new_val)
737 {
738         uint64_t new_high, new_low, old_high, old_low;
739         char res;
740
741         new_low = new_val->gen;
742         new_high = (uintptr_t)new_val->next;
743         old_low = old_val->gen;
744         old_high = (uintptr_t)old_val->next;
745
746         __asm volatile("lock;cmpxchg16b\t%1"
747             : "=@cce" (res), "+m" (*ptr), "+a" (old_low), "+d" (old_high)
748             : "b"(new_low), "c" (new_high)
749             : "memory", "cc");
750         return (res);
751 }
752
753 #ifdef PV_STATS
754 static long invl_start_restart;
755 SYSCTL_LONG(_vm_pmap, OID_AUTO, invl_start_restart, CTLFLAG_RD,
756     &invl_start_restart, 0,
757     "");
758 static long invl_finish_restart;
759 SYSCTL_LONG(_vm_pmap, OID_AUTO, invl_finish_restart, CTLFLAG_RD,
760     &invl_finish_restart, 0,
761     "");
762 static int invl_max_qlen;
763 SYSCTL_INT(_vm_pmap, OID_AUTO, invl_max_qlen, CTLFLAG_RD,
764     &invl_max_qlen, 0,
765     "");
766 #endif
767
768 #define di_delay        locks_delay
769
770 static void
771 pmap_delayed_invl_start_u(void)
772 {
773         struct pmap_invl_gen *invl_gen, *p, prev, new_prev;
774         struct thread *td;
775         struct lock_delay_arg lda;
776         uintptr_t prevl;
777         u_char pri;
778 #ifdef PV_STATS
779         int i, ii;
780 #endif
781
782         td = curthread;
783         invl_gen = &td->td_md.md_invl_gen;
784         PMAP_ASSERT_NOT_IN_DI();
785         lock_delay_arg_init(&lda, &di_delay);
786         invl_gen->saved_pri = 0;
787         pri = td->td_base_pri;
788         if (pri > PVM) {
789                 thread_lock(td);
790                 pri = td->td_base_pri;
791                 if (pri > PVM) {
792                         invl_gen->saved_pri = pri;
793                         sched_prio(td, PVM);
794                 }
795                 thread_unlock(td);
796         }
797 again:
798         PV_STAT(i = 0);
799         for (p = &pmap_invl_gen_head;; p = prev.next) {
800                 PV_STAT(i++);
801                 prevl = (uintptr_t)atomic_load_ptr(&p->next);
802                 if ((prevl & PMAP_INVL_GEN_NEXT_INVALID) != 0) {
803                         PV_STAT(atomic_add_long(&invl_start_restart, 1));
804                         lock_delay(&lda);
805                         goto again;
806                 }
807                 if (prevl == 0)
808                         break;
809                 prev.next = (void *)prevl;
810         }
811 #ifdef PV_STATS
812         if ((ii = invl_max_qlen) < i)
813                 atomic_cmpset_int(&invl_max_qlen, ii, i);
814 #endif
815
816         if (!pmap_di_load_invl(p, &prev) || prev.next != NULL) {
817                 PV_STAT(atomic_add_long(&invl_start_restart, 1));
818                 lock_delay(&lda);
819                 goto again;
820         }
821
822         new_prev.gen = prev.gen;
823         new_prev.next = invl_gen;
824         invl_gen->gen = prev.gen + 1;
825
826         /* Formal fence between store to invl->gen and updating *p. */
827         atomic_thread_fence_rel();
828
829         /*
830          * After inserting an invl_gen element with invalid bit set,
831          * this thread blocks any other thread trying to enter the
832          * delayed invalidation block.  Do not allow to remove us from
833          * the CPU, because it causes starvation for other threads.
834          */
835         critical_enter();
836
837         /*
838          * ABA for *p is not possible there, since p->gen can only
839          * increase.  So if the *p thread finished its di, then
840          * started a new one and got inserted into the list at the
841          * same place, its gen will appear greater than the previously
842          * read gen.
843          */
844         if (!pmap_di_store_invl(p, &prev, &new_prev)) {
845                 critical_exit();
846                 PV_STAT(atomic_add_long(&invl_start_restart, 1));
847                 lock_delay(&lda);
848                 goto again;
849         }
850
851         /*
852          * There we clear PMAP_INVL_GEN_NEXT_INVALID in
853          * invl_gen->next, allowing other threads to iterate past us.
854          * pmap_di_store_invl() provides fence between the generation
855          * write and the update of next.
856          */
857         invl_gen->next = NULL;
858         critical_exit();
859 }
860
861 static bool
862 pmap_delayed_invl_finish_u_crit(struct pmap_invl_gen *invl_gen,
863     struct pmap_invl_gen *p)
864 {
865         struct pmap_invl_gen prev, new_prev;
866         u_long mygen;
867
868         /*
869          * Load invl_gen->gen after setting invl_gen->next
870          * PMAP_INVL_GEN_NEXT_INVALID.  This prevents larger
871          * generations to propagate to our invl_gen->gen.  Lock prefix
872          * in atomic_set_ptr() worked as seq_cst fence.
873          */
874         mygen = atomic_load_long(&invl_gen->gen);
875
876         if (!pmap_di_load_invl(p, &prev) || prev.next != invl_gen)
877                 return (false);
878
879         KASSERT(prev.gen < mygen,
880             ("invalid di gen sequence %lu %lu", prev.gen, mygen));
881         new_prev.gen = mygen;
882         new_prev.next = (void *)((uintptr_t)invl_gen->next &
883             ~PMAP_INVL_GEN_NEXT_INVALID);
884
885         /* Formal fence between load of prev and storing update to it. */
886         atomic_thread_fence_rel();
887
888         return (pmap_di_store_invl(p, &prev, &new_prev));
889 }
890
891 static void
892 pmap_delayed_invl_finish_u(void)
893 {
894         struct pmap_invl_gen *invl_gen, *p;
895         struct thread *td;
896         struct lock_delay_arg lda;
897         uintptr_t prevl;
898
899         td = curthread;
900         invl_gen = &td->td_md.md_invl_gen;
901         KASSERT(invl_gen->gen != 0, ("missed invl_start: gen 0"));
902         KASSERT(((uintptr_t)invl_gen->next & PMAP_INVL_GEN_NEXT_INVALID) == 0,
903             ("missed invl_start: INVALID"));
904         lock_delay_arg_init(&lda, &di_delay);
905
906 again:
907         for (p = &pmap_invl_gen_head; p != NULL; p = (void *)prevl) {
908                 prevl = (uintptr_t)atomic_load_ptr(&p->next);
909                 if ((prevl & PMAP_INVL_GEN_NEXT_INVALID) != 0) {
910                         PV_STAT(atomic_add_long(&invl_finish_restart, 1));
911                         lock_delay(&lda);
912                         goto again;
913                 }
914                 if ((void *)prevl == invl_gen)
915                         break;
916         }
917
918         /*
919          * It is legitimate to not find ourself on the list if a
920          * thread before us finished its DI and started it again.
921          */
922         if (__predict_false(p == NULL)) {
923                 PV_STAT(atomic_add_long(&invl_finish_restart, 1));
924                 lock_delay(&lda);
925                 goto again;
926         }
927
928         critical_enter();
929         atomic_set_ptr((uintptr_t *)&invl_gen->next,
930             PMAP_INVL_GEN_NEXT_INVALID);
931         if (!pmap_delayed_invl_finish_u_crit(invl_gen, p)) {
932                 atomic_clear_ptr((uintptr_t *)&invl_gen->next,
933                     PMAP_INVL_GEN_NEXT_INVALID);
934                 critical_exit();
935                 PV_STAT(atomic_add_long(&invl_finish_restart, 1));
936                 lock_delay(&lda);
937                 goto again;
938         }
939         critical_exit();
940         if (atomic_load_int(&pmap_invl_waiters) > 0)
941                 pmap_delayed_invl_finish_unblock(0);
942         if (invl_gen->saved_pri != 0) {
943                 thread_lock(td);
944                 sched_prio(td, invl_gen->saved_pri);
945                 thread_unlock(td);
946         }
947 }
948
949 #ifdef DDB
950 DB_SHOW_COMMAND(di_queue, pmap_di_queue)
951 {
952         struct pmap_invl_gen *p, *pn;
953         struct thread *td;
954         uintptr_t nextl;
955         bool first;
956
957         for (p = &pmap_invl_gen_head, first = true; p != NULL; p = pn,
958             first = false) {
959                 nextl = (uintptr_t)atomic_load_ptr(&p->next);
960                 pn = (void *)(nextl & ~PMAP_INVL_GEN_NEXT_INVALID);
961                 td = first ? NULL : __containerof(p, struct thread,
962                     td_md.md_invl_gen);
963                 db_printf("gen %lu inv %d td %p tid %d\n", p->gen,
964                     (nextl & PMAP_INVL_GEN_NEXT_INVALID) != 0, td,
965                     td != NULL ? td->td_tid : -1);
966         }
967 }
968 #endif
969
970 #ifdef PV_STATS
971 static long invl_wait;
972 SYSCTL_LONG(_vm_pmap, OID_AUTO, invl_wait, CTLFLAG_RD, &invl_wait, 0,
973     "Number of times DI invalidation blocked pmap_remove_all/write");
974 static long invl_wait_slow;
975 SYSCTL_LONG(_vm_pmap, OID_AUTO, invl_wait_slow, CTLFLAG_RD, &invl_wait_slow, 0,
976     "Number of slow invalidation waits for lockless DI");
977 #endif
978
979 #ifdef NUMA
980 static u_long *
981 pmap_delayed_invl_genp(vm_page_t m)
982 {
983         vm_paddr_t pa;
984         u_long *gen;
985
986         pa = VM_PAGE_TO_PHYS(m);
987         if (__predict_false((pa) > pmap_last_pa))
988                 gen = &pv_dummy_large.pv_invl_gen;
989         else
990                 gen = &(pa_to_pmdp(pa)->pv_invl_gen);
991
992         return (gen);
993 }
994 #else
995 static u_long *
996 pmap_delayed_invl_genp(vm_page_t m)
997 {
998
999         return (&pv_invl_gen[pa_index(VM_PAGE_TO_PHYS(m)) % NPV_LIST_LOCKS]);
1000 }
1001 #endif
1002
1003 static void
1004 pmap_delayed_invl_callout_func(void *arg __unused)
1005 {
1006
1007         if (atomic_load_int(&pmap_invl_waiters) == 0)
1008                 return;
1009         pmap_delayed_invl_finish_unblock(0);
1010 }
1011
1012 static void
1013 pmap_delayed_invl_callout_init(void *arg __unused)
1014 {
1015
1016         if (pmap_di_locked())
1017                 return;
1018         callout_init(&pmap_invl_callout, 1);
1019         pmap_invl_callout_inited = true;
1020 }
1021 SYSINIT(pmap_di_callout, SI_SUB_CPU + 1, SI_ORDER_ANY,
1022     pmap_delayed_invl_callout_init, NULL);
1023
1024 /*
1025  * Ensure that all currently executing DI blocks, that need to flush
1026  * TLB for the given page m, actually flushed the TLB at the time the
1027  * function returned.  If the page m has an empty PV list and we call
1028  * pmap_delayed_invl_wait(), upon its return we know that no CPU has a
1029  * valid mapping for the page m in either its page table or TLB.
1030  *
1031  * This function works by blocking until the global DI generation
1032  * number catches up with the generation number associated with the
1033  * given page m and its PV list.  Since this function's callers
1034  * typically own an object lock and sometimes own a page lock, it
1035  * cannot sleep.  Instead, it blocks on a turnstile to relinquish the
1036  * processor.
1037  */
1038 static void
1039 pmap_delayed_invl_wait_l(vm_page_t m)
1040 {
1041         u_long *m_gen;
1042 #ifdef PV_STATS
1043         bool accounted = false;
1044 #endif
1045
1046         m_gen = pmap_delayed_invl_genp(m);
1047         while (*m_gen > pmap_invl_gen) {
1048 #ifdef PV_STATS
1049                 if (!accounted) {
1050                         atomic_add_long(&invl_wait, 1);
1051                         accounted = true;
1052                 }
1053 #endif
1054                 pmap_delayed_invl_wait_block(m_gen, &pmap_invl_gen);
1055         }
1056 }
1057
1058 static void
1059 pmap_delayed_invl_wait_u(vm_page_t m)
1060 {
1061         u_long *m_gen;
1062         struct lock_delay_arg lda;
1063         bool fast;
1064
1065         fast = true;
1066         m_gen = pmap_delayed_invl_genp(m);
1067         lock_delay_arg_init(&lda, &di_delay);
1068         while (*m_gen > atomic_load_long(&pmap_invl_gen_head.gen)) {
1069                 if (fast || !pmap_invl_callout_inited) {
1070                         PV_STAT(atomic_add_long(&invl_wait, 1));
1071                         lock_delay(&lda);
1072                         fast = false;
1073                 } else {
1074                         /*
1075                          * The page's invalidation generation number
1076                          * is still below the current thread's number.
1077                          * Prepare to block so that we do not waste
1078                          * CPU cycles or worse, suffer livelock.
1079                          *
1080                          * Since it is impossible to block without
1081                          * racing with pmap_delayed_invl_finish_u(),
1082                          * prepare for the race by incrementing
1083                          * pmap_invl_waiters and arming a 1-tick
1084                          * callout which will unblock us if we lose
1085                          * the race.
1086                          */
1087                         atomic_add_int(&pmap_invl_waiters, 1);
1088
1089                         /*
1090                          * Re-check the current thread's invalidation
1091                          * generation after incrementing
1092                          * pmap_invl_waiters, so that there is no race
1093                          * with pmap_delayed_invl_finish_u() setting
1094                          * the page generation and checking
1095                          * pmap_invl_waiters.  The only race allowed
1096                          * is for a missed unblock, which is handled
1097                          * by the callout.
1098                          */
1099                         if (*m_gen >
1100                             atomic_load_long(&pmap_invl_gen_head.gen)) {
1101                                 callout_reset(&pmap_invl_callout, 1,
1102                                     pmap_delayed_invl_callout_func, NULL);
1103                                 PV_STAT(atomic_add_long(&invl_wait_slow, 1));
1104                                 pmap_delayed_invl_wait_block(m_gen,
1105                                     &pmap_invl_gen_head.gen);
1106                         }
1107                         atomic_add_int(&pmap_invl_waiters, -1);
1108                 }
1109         }
1110 }
1111
1112 DEFINE_IFUNC(, void, pmap_thread_init_invl_gen, (struct thread *))
1113 {
1114
1115         return (pmap_di_locked() ? pmap_thread_init_invl_gen_l :
1116             pmap_thread_init_invl_gen_u);
1117 }
1118
1119 DEFINE_IFUNC(static, void, pmap_delayed_invl_start, (void))
1120 {
1121
1122         return (pmap_di_locked() ? pmap_delayed_invl_start_l :
1123             pmap_delayed_invl_start_u);
1124 }
1125
1126 DEFINE_IFUNC(static, void, pmap_delayed_invl_finish, (void))
1127 {
1128
1129         return (pmap_di_locked() ? pmap_delayed_invl_finish_l :
1130             pmap_delayed_invl_finish_u);
1131 }
1132
1133 DEFINE_IFUNC(static, void, pmap_delayed_invl_wait, (vm_page_t))
1134 {
1135
1136         return (pmap_di_locked() ? pmap_delayed_invl_wait_l :
1137             pmap_delayed_invl_wait_u);
1138 }
1139
1140 /*
1141  * Mark the page m's PV list as participating in the current thread's
1142  * DI block.  Any threads concurrently using m's PV list to remove or
1143  * restrict all mappings to m will wait for the current thread's DI
1144  * block to complete before proceeding.
1145  *
1146  * The function works by setting the DI generation number for m's PV
1147  * list to at least the DI generation number of the current thread.
1148  * This forces a caller of pmap_delayed_invl_wait() to block until
1149  * current thread calls pmap_delayed_invl_finish().
1150  */
1151 static void
1152 pmap_delayed_invl_page(vm_page_t m)
1153 {
1154         u_long gen, *m_gen;
1155
1156         rw_assert(VM_PAGE_TO_PV_LIST_LOCK(m), RA_WLOCKED);
1157         gen = curthread->td_md.md_invl_gen.gen;
1158         if (gen == 0)
1159                 return;
1160         m_gen = pmap_delayed_invl_genp(m);
1161         if (*m_gen < gen)
1162                 *m_gen = gen;
1163 }
1164
1165 /*
1166  * Crashdump maps.
1167  */
1168 static caddr_t crashdumpmap;
1169
1170 /*
1171  * Internal flags for pmap_enter()'s helper functions.
1172  */
1173 #define PMAP_ENTER_NORECLAIM    0x1000000       /* Don't reclaim PV entries. */
1174 #define PMAP_ENTER_NOREPLACE    0x2000000       /* Don't replace mappings. */
1175
1176 /*
1177  * Internal flags for pmap_mapdev_internal() and
1178  * pmap_change_props_locked().
1179  */
1180 #define MAPDEV_FLUSHCACHE       0x00000001      /* Flush cache after mapping. */
1181 #define MAPDEV_SETATTR          0x00000002      /* Modify existing attrs. */
1182 #define MAPDEV_ASSERTVALID      0x00000004      /* Assert mapping validity. */
1183
1184 TAILQ_HEAD(pv_chunklist, pv_chunk);
1185
1186 static void     free_pv_chunk(struct pv_chunk *pc);
1187 static void     free_pv_chunk_batch(struct pv_chunklist *batch);
1188 static void     free_pv_entry(pmap_t pmap, pv_entry_t pv);
1189 static pv_entry_t get_pv_entry(pmap_t pmap, struct rwlock **lockp);
1190 static int      popcnt_pc_map_pq(uint64_t *map);
1191 static vm_page_t reclaim_pv_chunk(pmap_t locked_pmap, struct rwlock **lockp);
1192 static void     reserve_pv_entries(pmap_t pmap, int needed,
1193                     struct rwlock **lockp);
1194 static void     pmap_pv_demote_pde(pmap_t pmap, vm_offset_t va, vm_paddr_t pa,
1195                     struct rwlock **lockp);
1196 static bool     pmap_pv_insert_pde(pmap_t pmap, vm_offset_t va, pd_entry_t pde,
1197                     u_int flags, struct rwlock **lockp);
1198 #if VM_NRESERVLEVEL > 0
1199 static void     pmap_pv_promote_pde(pmap_t pmap, vm_offset_t va, vm_paddr_t pa,
1200                     struct rwlock **lockp);
1201 #endif
1202 static void     pmap_pvh_free(struct md_page *pvh, pmap_t pmap, vm_offset_t va);
1203 static pv_entry_t pmap_pvh_remove(struct md_page *pvh, pmap_t pmap,
1204                     vm_offset_t va);
1205
1206 static void     pmap_abort_ptp(pmap_t pmap, vm_offset_t va, vm_page_t mpte);
1207 static int pmap_change_props_locked(vm_offset_t va, vm_size_t size,
1208     vm_prot_t prot, int mode, int flags);
1209 static boolean_t pmap_demote_pde(pmap_t pmap, pd_entry_t *pde, vm_offset_t va);
1210 static boolean_t pmap_demote_pde_locked(pmap_t pmap, pd_entry_t *pde,
1211     vm_offset_t va, struct rwlock **lockp);
1212 static boolean_t pmap_demote_pdpe(pmap_t pmap, pdp_entry_t *pdpe,
1213     vm_offset_t va);
1214 static bool     pmap_enter_2mpage(pmap_t pmap, vm_offset_t va, vm_page_t m,
1215                     vm_prot_t prot, struct rwlock **lockp);
1216 static int      pmap_enter_pde(pmap_t pmap, vm_offset_t va, pd_entry_t newpde,
1217                     u_int flags, vm_page_t m, struct rwlock **lockp);
1218 static vm_page_t pmap_enter_quick_locked(pmap_t pmap, vm_offset_t va,
1219     vm_page_t m, vm_prot_t prot, vm_page_t mpte, struct rwlock **lockp);
1220 static void pmap_fill_ptp(pt_entry_t *firstpte, pt_entry_t newpte);
1221 static int pmap_insert_pt_page(pmap_t pmap, vm_page_t mpte, bool promoted);
1222 static void pmap_invalidate_cache_range_selfsnoop(vm_offset_t sva,
1223     vm_offset_t eva);
1224 static void pmap_invalidate_cache_range_all(vm_offset_t sva,
1225     vm_offset_t eva);
1226 static void pmap_invalidate_pde_page(pmap_t pmap, vm_offset_t va,
1227                     pd_entry_t pde);
1228 static void pmap_kenter_attr(vm_offset_t va, vm_paddr_t pa, int mode);
1229 static vm_page_t pmap_large_map_getptp_unlocked(void);
1230 static vm_paddr_t pmap_large_map_kextract(vm_offset_t va);
1231 #if VM_NRESERVLEVEL > 0
1232 static void pmap_promote_pde(pmap_t pmap, pd_entry_t *pde, vm_offset_t va,
1233     struct rwlock **lockp);
1234 #endif
1235 static boolean_t pmap_protect_pde(pmap_t pmap, pd_entry_t *pde, vm_offset_t sva,
1236     vm_prot_t prot);
1237 static void pmap_pte_props(pt_entry_t *pte, u_long bits, u_long mask);
1238 static void pmap_pti_add_kva_locked(vm_offset_t sva, vm_offset_t eva,
1239     bool exec);
1240 static pdp_entry_t *pmap_pti_pdpe(vm_offset_t va);
1241 static pd_entry_t *pmap_pti_pde(vm_offset_t va);
1242 static void pmap_pti_wire_pte(void *pte);
1243 static int pmap_remove_pde(pmap_t pmap, pd_entry_t *pdq, vm_offset_t sva,
1244     struct spglist *free, struct rwlock **lockp);
1245 static int pmap_remove_pte(pmap_t pmap, pt_entry_t *ptq, vm_offset_t sva,
1246     pd_entry_t ptepde, struct spglist *free, struct rwlock **lockp);
1247 static vm_page_t pmap_remove_pt_page(pmap_t pmap, vm_offset_t va);
1248 static void pmap_remove_page(pmap_t pmap, vm_offset_t va, pd_entry_t *pde,
1249     struct spglist *free);
1250 static bool     pmap_remove_ptes(pmap_t pmap, vm_offset_t sva, vm_offset_t eva,
1251                     pd_entry_t *pde, struct spglist *free,
1252                     struct rwlock **lockp);
1253 static boolean_t pmap_try_insert_pv_entry(pmap_t pmap, vm_offset_t va,
1254     vm_page_t m, struct rwlock **lockp);
1255 static void pmap_update_pde(pmap_t pmap, vm_offset_t va, pd_entry_t *pde,
1256     pd_entry_t newpde);
1257 static void pmap_update_pde_invalidate(pmap_t, vm_offset_t va, pd_entry_t pde);
1258
1259 static vm_page_t _pmap_allocpte(pmap_t pmap, vm_pindex_t ptepindex,
1260                 struct rwlock **lockp);
1261 static pd_entry_t *pmap_alloc_pde(pmap_t pmap, vm_offset_t va, vm_page_t *pdpgp,
1262                 struct rwlock **lockp);
1263 static vm_page_t pmap_allocpte(pmap_t pmap, vm_offset_t va,
1264                 struct rwlock **lockp);
1265
1266 static void _pmap_unwire_ptp(pmap_t pmap, vm_offset_t va, vm_page_t m,
1267     struct spglist *free);
1268 static int pmap_unuse_pt(pmap_t, vm_offset_t, pd_entry_t, struct spglist *);
1269
1270 /********************/
1271 /* Inline functions */
1272 /********************/
1273
1274 /* Return a non-clipped PD index for a given VA */
1275 static __inline vm_pindex_t
1276 pmap_pde_pindex(vm_offset_t va)
1277 {
1278         return (va >> PDRSHIFT);
1279 }
1280
1281
1282 /* Return a pointer to the PML4 slot that corresponds to a VA */
1283 static __inline pml4_entry_t *
1284 pmap_pml4e(pmap_t pmap, vm_offset_t va)
1285 {
1286
1287         return (&pmap->pm_pml4[pmap_pml4e_index(va)]);
1288 }
1289
1290 /* Return a pointer to the PDP slot that corresponds to a VA */
1291 static __inline pdp_entry_t *
1292 pmap_pml4e_to_pdpe(pml4_entry_t *pml4e, vm_offset_t va)
1293 {
1294         pdp_entry_t *pdpe;
1295
1296         pdpe = (pdp_entry_t *)PHYS_TO_DMAP(*pml4e & PG_FRAME);
1297         return (&pdpe[pmap_pdpe_index(va)]);
1298 }
1299
1300 /* Return a pointer to the PDP slot that corresponds to a VA */
1301 static __inline pdp_entry_t *
1302 pmap_pdpe(pmap_t pmap, vm_offset_t va)
1303 {
1304         pml4_entry_t *pml4e;
1305         pt_entry_t PG_V;
1306
1307         PG_V = pmap_valid_bit(pmap);
1308         pml4e = pmap_pml4e(pmap, va);
1309         if ((*pml4e & PG_V) == 0)
1310                 return (NULL);
1311         return (pmap_pml4e_to_pdpe(pml4e, va));
1312 }
1313
1314 /* Return a pointer to the PD slot that corresponds to a VA */
1315 static __inline pd_entry_t *
1316 pmap_pdpe_to_pde(pdp_entry_t *pdpe, vm_offset_t va)
1317 {
1318         pd_entry_t *pde;
1319
1320         KASSERT((*pdpe & PG_PS) == 0,
1321             ("%s: pdpe %#lx is a leaf", __func__, *pdpe));
1322         pde = (pd_entry_t *)PHYS_TO_DMAP(*pdpe & PG_FRAME);
1323         return (&pde[pmap_pde_index(va)]);
1324 }
1325
1326 /* Return a pointer to the PD slot that corresponds to a VA */
1327 static __inline pd_entry_t *
1328 pmap_pde(pmap_t pmap, vm_offset_t va)
1329 {
1330         pdp_entry_t *pdpe;
1331         pt_entry_t PG_V;
1332
1333         PG_V = pmap_valid_bit(pmap);
1334         pdpe = pmap_pdpe(pmap, va);
1335         if (pdpe == NULL || (*pdpe & PG_V) == 0)
1336                 return (NULL);
1337         return (pmap_pdpe_to_pde(pdpe, va));
1338 }
1339
1340 /* Return a pointer to the PT slot that corresponds to a VA */
1341 static __inline pt_entry_t *
1342 pmap_pde_to_pte(pd_entry_t *pde, vm_offset_t va)
1343 {
1344         pt_entry_t *pte;
1345
1346         KASSERT((*pde & PG_PS) == 0,
1347             ("%s: pde %#lx is a leaf", __func__, *pde));
1348         pte = (pt_entry_t *)PHYS_TO_DMAP(*pde & PG_FRAME);
1349         return (&pte[pmap_pte_index(va)]);
1350 }
1351
1352 /* Return a pointer to the PT slot that corresponds to a VA */
1353 static __inline pt_entry_t *
1354 pmap_pte(pmap_t pmap, vm_offset_t va)
1355 {
1356         pd_entry_t *pde;
1357         pt_entry_t PG_V;
1358
1359         PG_V = pmap_valid_bit(pmap);
1360         pde = pmap_pde(pmap, va);
1361         if (pde == NULL || (*pde & PG_V) == 0)
1362                 return (NULL);
1363         if ((*pde & PG_PS) != 0)        /* compat with i386 pmap_pte() */
1364                 return ((pt_entry_t *)pde);
1365         return (pmap_pde_to_pte(pde, va));
1366 }
1367
1368 static __inline void
1369 pmap_resident_count_inc(pmap_t pmap, int count)
1370 {
1371
1372         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
1373         pmap->pm_stats.resident_count += count;
1374 }
1375
1376 static __inline void
1377 pmap_resident_count_dec(pmap_t pmap, int count)
1378 {
1379
1380         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
1381         KASSERT(pmap->pm_stats.resident_count >= count,
1382             ("pmap %p resident count underflow %ld %d", pmap,
1383             pmap->pm_stats.resident_count, count));
1384         pmap->pm_stats.resident_count -= count;
1385 }
1386
1387 PMAP_INLINE pt_entry_t *
1388 vtopte(vm_offset_t va)
1389 {
1390         u_int64_t mask = ((1ul << (NPTEPGSHIFT + NPDEPGSHIFT + NPDPEPGSHIFT + NPML4EPGSHIFT)) - 1);
1391
1392         KASSERT(va >= VM_MAXUSER_ADDRESS, ("vtopte on a uva/gpa 0x%0lx", va));
1393
1394         return (PTmap + ((va >> PAGE_SHIFT) & mask));
1395 }
1396
1397 static __inline pd_entry_t *
1398 vtopde(vm_offset_t va)
1399 {
1400         u_int64_t mask = ((1ul << (NPDEPGSHIFT + NPDPEPGSHIFT + NPML4EPGSHIFT)) - 1);
1401
1402         KASSERT(va >= VM_MAXUSER_ADDRESS, ("vtopde on a uva/gpa 0x%0lx", va));
1403
1404         return (PDmap + ((va >> PDRSHIFT) & mask));
1405 }
1406
1407 static u_int64_t
1408 allocpages(vm_paddr_t *firstaddr, int n)
1409 {
1410         u_int64_t ret;
1411
1412         ret = *firstaddr;
1413         bzero((void *)ret, n * PAGE_SIZE);
1414         *firstaddr += n * PAGE_SIZE;
1415         return (ret);
1416 }
1417
1418 CTASSERT(powerof2(NDMPML4E));
1419
1420 /* number of kernel PDP slots */
1421 #define NKPDPE(ptpgs)           howmany(ptpgs, NPDEPG)
1422
1423 static void
1424 nkpt_init(vm_paddr_t addr)
1425 {
1426         int pt_pages;
1427         
1428 #ifdef NKPT
1429         pt_pages = NKPT;
1430 #else
1431         pt_pages = howmany(addr, 1 << PDRSHIFT);
1432         pt_pages += NKPDPE(pt_pages);
1433
1434         /*
1435          * Add some slop beyond the bare minimum required for bootstrapping
1436          * the kernel.
1437          *
1438          * This is quite important when allocating KVA for kernel modules.
1439          * The modules are required to be linked in the negative 2GB of
1440          * the address space.  If we run out of KVA in this region then
1441          * pmap_growkernel() will need to allocate page table pages to map
1442          * the entire 512GB of KVA space which is an unnecessary tax on
1443          * physical memory.
1444          *
1445          * Secondly, device memory mapped as part of setting up the low-
1446          * level console(s) is taken from KVA, starting at virtual_avail.
1447          * This is because cninit() is called after pmap_bootstrap() but
1448          * before vm_init() and pmap_init(). 20MB for a frame buffer is
1449          * not uncommon.
1450          */
1451         pt_pages += 32;         /* 64MB additional slop. */
1452 #endif
1453         nkpt = pt_pages;
1454 }
1455
1456 /*
1457  * Returns the proper write/execute permission for a physical page that is
1458  * part of the initial boot allocations.
1459  *
1460  * If the page has kernel text, it is marked as read-only. If the page has
1461  * kernel read-only data, it is marked as read-only/not-executable. If the
1462  * page has only read-write data, it is marked as read-write/not-executable.
1463  * If the page is below/above the kernel range, it is marked as read-write.
1464  *
1465  * This function operates on 2M pages, since we map the kernel space that
1466  * way.
1467  */
1468 static inline pt_entry_t
1469 bootaddr_rwx(vm_paddr_t pa)
1470 {
1471
1472         /*
1473          * The kernel is loaded at a 2MB-aligned address, and memory below that
1474          * need not be executable.  The .bss section is padded to a 2MB
1475          * boundary, so memory following the kernel need not be executable
1476          * either.  Preloaded kernel modules have their mapping permissions
1477          * fixed up by the linker.
1478          */
1479         if (pa < trunc_2mpage(btext - KERNBASE) ||
1480             pa >= trunc_2mpage(_end - KERNBASE))
1481                 return (X86_PG_RW | pg_nx);
1482
1483         /*
1484          * The linker should ensure that the read-only and read-write
1485          * portions don't share the same 2M page, so this shouldn't
1486          * impact read-only data. However, in any case, any page with
1487          * read-write data needs to be read-write.
1488          */
1489         if (pa >= trunc_2mpage(brwsection - KERNBASE))
1490                 return (X86_PG_RW | pg_nx);
1491
1492         /*
1493          * Mark any 2M page containing kernel text as read-only. Mark
1494          * other pages with read-only data as read-only and not executable.
1495          * (It is likely a small portion of the read-only data section will
1496          * be marked as read-only, but executable. This should be acceptable
1497          * since the read-only protection will keep the data from changing.)
1498          * Note that fixups to the .text section will still work until we
1499          * set CR0.WP.
1500          */
1501         if (pa < round_2mpage(etext - KERNBASE))
1502                 return (0);
1503         return (pg_nx);
1504 }
1505
1506 static void
1507 create_pagetables(vm_paddr_t *firstaddr)
1508 {
1509         int i, j, ndm1g, nkpdpe, nkdmpde;
1510         pd_entry_t *pd_p;
1511         pdp_entry_t *pdp_p;
1512         pml4_entry_t *p4_p;
1513         uint64_t DMPDkernphys;
1514
1515         /* Allocate page table pages for the direct map */
1516         ndmpdp = howmany(ptoa(Maxmem), NBPDP);
1517         if (ndmpdp < 4)         /* Minimum 4GB of dirmap */
1518                 ndmpdp = 4;
1519         ndmpdpphys = howmany(ndmpdp, NPDPEPG);
1520         if (ndmpdpphys > NDMPML4E) {
1521                 /*
1522                  * Each NDMPML4E allows 512 GB, so limit to that,
1523                  * and then readjust ndmpdp and ndmpdpphys.
1524                  */
1525                 printf("NDMPML4E limits system to %d GB\n", NDMPML4E * 512);
1526                 Maxmem = atop(NDMPML4E * NBPML4);
1527                 ndmpdpphys = NDMPML4E;
1528                 ndmpdp = NDMPML4E * NPDEPG;
1529         }
1530         DMPDPphys = allocpages(firstaddr, ndmpdpphys);
1531         ndm1g = 0;
1532         if ((amd_feature & AMDID_PAGE1GB) != 0) {
1533                 /*
1534                  * Calculate the number of 1G pages that will fully fit in
1535                  * Maxmem.
1536                  */
1537                 ndm1g = ptoa(Maxmem) >> PDPSHIFT;
1538
1539                 /*
1540                  * Allocate 2M pages for the kernel. These will be used in
1541                  * place of the first one or more 1G pages from ndm1g.
1542                  */
1543                 nkdmpde = howmany((vm_offset_t)(brwsection - KERNBASE), NBPDP);
1544                 DMPDkernphys = allocpages(firstaddr, nkdmpde);
1545         }
1546         if (ndm1g < ndmpdp)
1547                 DMPDphys = allocpages(firstaddr, ndmpdp - ndm1g);
1548         dmaplimit = (vm_paddr_t)ndmpdp << PDPSHIFT;
1549
1550         /* Allocate pages */
1551         KPML4phys = allocpages(firstaddr, 1);
1552         KPDPphys = allocpages(firstaddr, NKPML4E);
1553
1554         /*
1555          * Allocate the initial number of kernel page table pages required to
1556          * bootstrap.  We defer this until after all memory-size dependent
1557          * allocations are done (e.g. direct map), so that we don't have to
1558          * build in too much slop in our estimate.
1559          *
1560          * Note that when NKPML4E > 1, we have an empty page underneath
1561          * all but the KPML4I'th one, so we need NKPML4E-1 extra (zeroed)
1562          * pages.  (pmap_enter requires a PD page to exist for each KPML4E.)
1563          */
1564         nkpt_init(*firstaddr);
1565         nkpdpe = NKPDPE(nkpt);
1566
1567         KPTphys = allocpages(firstaddr, nkpt);
1568         KPDphys = allocpages(firstaddr, nkpdpe);
1569
1570         /*
1571          * Connect the zero-filled PT pages to their PD entries.  This
1572          * implicitly maps the PT pages at their correct locations within
1573          * the PTmap.
1574          */
1575         pd_p = (pd_entry_t *)KPDphys;
1576         for (i = 0; i < nkpt; i++)
1577                 pd_p[i] = (KPTphys + ptoa(i)) | X86_PG_RW | X86_PG_V;
1578
1579         /*
1580          * Map from physical address zero to the end of loader preallocated
1581          * memory using 2MB pages.  This replaces some of the PD entries
1582          * created above.
1583          */
1584         for (i = 0; (i << PDRSHIFT) < KERNend; i++)
1585                 /* Preset PG_M and PG_A because demotion expects it. */
1586                 pd_p[i] = (i << PDRSHIFT) | X86_PG_V | PG_PS | pg_g |
1587                     X86_PG_M | X86_PG_A | bootaddr_rwx(i << PDRSHIFT);
1588
1589         /*
1590          * Because we map the physical blocks in 2M pages, adjust firstaddr
1591          * to record the physical blocks we've actually mapped into kernel
1592          * virtual address space.
1593          */
1594         if (*firstaddr < round_2mpage(KERNend))
1595                 *firstaddr = round_2mpage(KERNend);
1596
1597         /* And connect up the PD to the PDP (leaving room for L4 pages) */
1598         pdp_p = (pdp_entry_t *)(KPDPphys + ptoa(KPML4I - KPML4BASE));
1599         for (i = 0; i < nkpdpe; i++)
1600                 pdp_p[i + KPDPI] = (KPDphys + ptoa(i)) | X86_PG_RW | X86_PG_V;
1601
1602         /*
1603          * Now, set up the direct map region using 2MB and/or 1GB pages.  If
1604          * the end of physical memory is not aligned to a 1GB page boundary,
1605          * then the residual physical memory is mapped with 2MB pages.  Later,
1606          * if pmap_mapdev{_attr}() uses the direct map for non-write-back
1607          * memory, pmap_change_attr() will demote any 2MB or 1GB page mappings
1608          * that are partially used. 
1609          */
1610         pd_p = (pd_entry_t *)DMPDphys;
1611         for (i = NPDEPG * ndm1g, j = 0; i < NPDEPG * ndmpdp; i++, j++) {
1612                 pd_p[j] = (vm_paddr_t)i << PDRSHIFT;
1613                 /* Preset PG_M and PG_A because demotion expects it. */
1614                 pd_p[j] |= X86_PG_RW | X86_PG_V | PG_PS | pg_g |
1615                     X86_PG_M | X86_PG_A | pg_nx;
1616         }
1617         pdp_p = (pdp_entry_t *)DMPDPphys;
1618         for (i = 0; i < ndm1g; i++) {
1619                 pdp_p[i] = (vm_paddr_t)i << PDPSHIFT;
1620                 /* Preset PG_M and PG_A because demotion expects it. */
1621                 pdp_p[i] |= X86_PG_RW | X86_PG_V | PG_PS | pg_g |
1622                     X86_PG_M | X86_PG_A | pg_nx;
1623         }
1624         for (j = 0; i < ndmpdp; i++, j++) {
1625                 pdp_p[i] = DMPDphys + ptoa(j);
1626                 pdp_p[i] |= X86_PG_RW | X86_PG_V | pg_nx;
1627         }
1628
1629         /*
1630          * Instead of using a 1G page for the memory containing the kernel,
1631          * use 2M pages with read-only and no-execute permissions.  (If using 1G
1632          * pages, this will partially overwrite the PDPEs above.)
1633          */
1634         if (ndm1g) {
1635                 pd_p = (pd_entry_t *)DMPDkernphys;
1636                 for (i = 0; i < (NPDEPG * nkdmpde); i++)
1637                         pd_p[i] = (i << PDRSHIFT) | X86_PG_V | PG_PS | pg_g |
1638                             X86_PG_M | X86_PG_A | pg_nx |
1639                             bootaddr_rwx(i << PDRSHIFT);
1640                 for (i = 0; i < nkdmpde; i++)
1641                         pdp_p[i] = (DMPDkernphys + ptoa(i)) | X86_PG_RW |
1642                             X86_PG_V | pg_nx;
1643         }
1644
1645         /* And recursively map PML4 to itself in order to get PTmap */
1646         p4_p = (pml4_entry_t *)KPML4phys;
1647         p4_p[PML4PML4I] = KPML4phys;
1648         p4_p[PML4PML4I] |= X86_PG_RW | X86_PG_V | pg_nx;
1649
1650         /* Connect the Direct Map slot(s) up to the PML4. */
1651         for (i = 0; i < ndmpdpphys; i++) {
1652                 p4_p[DMPML4I + i] = DMPDPphys + ptoa(i);
1653                 p4_p[DMPML4I + i] |= X86_PG_RW | X86_PG_V | pg_nx;
1654         }
1655
1656         /* Connect the KVA slots up to the PML4 */
1657         for (i = 0; i < NKPML4E; i++) {
1658                 p4_p[KPML4BASE + i] = KPDPphys + ptoa(i);
1659                 p4_p[KPML4BASE + i] |= X86_PG_RW | X86_PG_V;
1660         }
1661 }
1662
1663 /*
1664  *      Bootstrap the system enough to run with virtual memory.
1665  *
1666  *      On amd64 this is called after mapping has already been enabled
1667  *      and just syncs the pmap module with what has already been done.
1668  *      [We can't call it easily with mapping off since the kernel is not
1669  *      mapped with PA == VA, hence we would have to relocate every address
1670  *      from the linked base (virtual) address "KERNBASE" to the actual
1671  *      (physical) address starting relative to 0]
1672  */
1673 void
1674 pmap_bootstrap(vm_paddr_t *firstaddr)
1675 {
1676         vm_offset_t va;
1677         pt_entry_t *pte, *pcpu_pte;
1678         struct region_descriptor r_gdt;
1679         uint64_t cr4, pcpu_phys;
1680         u_long res;
1681         int i;
1682
1683         KERNend = *firstaddr;
1684         res = atop(KERNend - (vm_paddr_t)kernphys);
1685
1686         if (!pti)
1687                 pg_g = X86_PG_G;
1688
1689         /*
1690          * Create an initial set of page tables to run the kernel in.
1691          */
1692         create_pagetables(firstaddr);
1693
1694         pcpu_phys = allocpages(firstaddr, MAXCPU);
1695
1696         /*
1697          * Add a physical memory segment (vm_phys_seg) corresponding to the
1698          * preallocated kernel page table pages so that vm_page structures
1699          * representing these pages will be created.  The vm_page structures
1700          * are required for promotion of the corresponding kernel virtual
1701          * addresses to superpage mappings.
1702          */
1703         vm_phys_early_add_seg(KPTphys, KPTphys + ptoa(nkpt));
1704
1705         /*
1706          * Account for the virtual addresses mapped by create_pagetables().
1707          */
1708         virtual_avail = (vm_offset_t)KERNBASE + round_2mpage(KERNend);
1709         virtual_end = VM_MAX_KERNEL_ADDRESS;
1710
1711         /*
1712          * Enable PG_G global pages, then switch to the kernel page
1713          * table from the bootstrap page table.  After the switch, it
1714          * is possible to enable SMEP and SMAP since PG_U bits are
1715          * correct now.
1716          */
1717         cr4 = rcr4();
1718         cr4 |= CR4_PGE;
1719         load_cr4(cr4);
1720         load_cr3(KPML4phys);
1721         if (cpu_stdext_feature & CPUID_STDEXT_SMEP)
1722                 cr4 |= CR4_SMEP;
1723         if (cpu_stdext_feature & CPUID_STDEXT_SMAP)
1724                 cr4 |= CR4_SMAP;
1725         load_cr4(cr4);
1726
1727         /*
1728          * Initialize the kernel pmap (which is statically allocated).
1729          * Count bootstrap data as being resident in case any of this data is
1730          * later unmapped (using pmap_remove()) and freed.
1731          */
1732         PMAP_LOCK_INIT(kernel_pmap);
1733         kernel_pmap->pm_pml4 = (pdp_entry_t *)PHYS_TO_DMAP(KPML4phys);
1734         kernel_pmap->pm_cr3 = KPML4phys;
1735         kernel_pmap->pm_ucr3 = PMAP_NO_CR3;
1736         CPU_FILL(&kernel_pmap->pm_active);      /* don't allow deactivation */
1737         TAILQ_INIT(&kernel_pmap->pm_pvchunk);
1738         kernel_pmap->pm_stats.resident_count = res;
1739         kernel_pmap->pm_flags = pmap_flags;
1740
1741         /*
1742          * Initialize the TLB invalidations generation number lock.
1743          */
1744         mtx_init(&invl_gen_mtx, "invlgn", NULL, MTX_DEF);
1745
1746         /*
1747          * Reserve some special page table entries/VA space for temporary
1748          * mapping of pages.
1749          */
1750 #define SYSMAP(c, p, v, n)      \
1751         v = (c)va; va += ((n)*PAGE_SIZE); p = pte; pte += (n);
1752
1753         va = virtual_avail;
1754         pte = vtopte(va);
1755
1756         /*
1757          * Crashdump maps.  The first page is reused as CMAP1 for the
1758          * memory test.
1759          */
1760         SYSMAP(caddr_t, CMAP1, crashdumpmap, MAXDUMPPGS)
1761         CADDR1 = crashdumpmap;
1762
1763         SYSMAP(struct pcpu *, pcpu_pte, __pcpu, MAXCPU);
1764         virtual_avail = va;
1765
1766         for (i = 0; i < MAXCPU; i++) {
1767                 pcpu_pte[i] = (pcpu_phys + ptoa(i)) | X86_PG_V | X86_PG_RW |
1768                     pg_g | pg_nx | X86_PG_M | X86_PG_A;
1769         }
1770
1771         /*
1772          * Re-initialize PCPU area for BSP after switching.
1773          * Make hardware use gdt and common_tss from the new PCPU.
1774          */
1775         STAILQ_INIT(&cpuhead);
1776         wrmsr(MSR_GSBASE, (uint64_t)&__pcpu[0]);
1777         pcpu_init(&__pcpu[0], 0, sizeof(struct pcpu));
1778         amd64_bsp_pcpu_init1(&__pcpu[0]);
1779         amd64_bsp_ist_init(&__pcpu[0]);
1780         __pcpu[0].pc_common_tss.tss_iobase = sizeof(struct amd64tss) +
1781             IOPERM_BITMAP_SIZE;
1782         memcpy(__pcpu[0].pc_gdt, temp_bsp_pcpu.pc_gdt, NGDT *
1783             sizeof(struct user_segment_descriptor));
1784         gdt_segs[GPROC0_SEL].ssd_base = (uintptr_t)&__pcpu[0].pc_common_tss;
1785         ssdtosyssd(&gdt_segs[GPROC0_SEL],
1786             (struct system_segment_descriptor *)&__pcpu[0].pc_gdt[GPROC0_SEL]);
1787         r_gdt.rd_limit = NGDT * sizeof(struct user_segment_descriptor) - 1;
1788         r_gdt.rd_base = (long)__pcpu[0].pc_gdt;
1789         lgdt(&r_gdt);
1790         wrmsr(MSR_GSBASE, (uint64_t)&__pcpu[0]);
1791         ltr(GSEL(GPROC0_SEL, SEL_KPL));
1792         __pcpu[0].pc_dynamic = temp_bsp_pcpu.pc_dynamic;
1793         __pcpu[0].pc_acpi_id = temp_bsp_pcpu.pc_acpi_id;
1794
1795         /*
1796          * Initialize the PAT MSR.
1797          * pmap_init_pat() clears and sets CR4_PGE, which, as a
1798          * side-effect, invalidates stale PG_G TLB entries that might
1799          * have been created in our pre-boot environment.
1800          */
1801         pmap_init_pat();
1802
1803         /* Initialize TLB Context Id. */
1804         if (pmap_pcid_enabled) {
1805                 for (i = 0; i < MAXCPU; i++) {
1806                         kernel_pmap->pm_pcids[i].pm_pcid = PMAP_PCID_KERN;
1807                         kernel_pmap->pm_pcids[i].pm_gen = 1;
1808                 }
1809
1810                 /*
1811                  * PMAP_PCID_KERN + 1 is used for initialization of
1812                  * proc0 pmap.  The pmap' pcid state might be used by
1813                  * EFIRT entry before first context switch, so it
1814                  * needs to be valid.
1815                  */
1816                 PCPU_SET(pcid_next, PMAP_PCID_KERN + 2);
1817                 PCPU_SET(pcid_gen, 1);
1818
1819                 /*
1820                  * pcpu area for APs is zeroed during AP startup.
1821                  * pc_pcid_next and pc_pcid_gen are initialized by AP
1822                  * during pcpu setup.
1823                  */
1824                 load_cr4(rcr4() | CR4_PCIDE);
1825         }
1826 }
1827
1828 /*
1829  * Setup the PAT MSR.
1830  */
1831 void
1832 pmap_init_pat(void)
1833 {
1834         uint64_t pat_msr;
1835         u_long cr0, cr4;
1836         int i;
1837
1838         /* Bail if this CPU doesn't implement PAT. */
1839         if ((cpu_feature & CPUID_PAT) == 0)
1840                 panic("no PAT??");
1841
1842         /* Set default PAT index table. */
1843         for (i = 0; i < PAT_INDEX_SIZE; i++)
1844                 pat_index[i] = -1;
1845         pat_index[PAT_WRITE_BACK] = 0;
1846         pat_index[PAT_WRITE_THROUGH] = 1;
1847         pat_index[PAT_UNCACHEABLE] = 3;
1848         pat_index[PAT_WRITE_COMBINING] = 6;
1849         pat_index[PAT_WRITE_PROTECTED] = 5;
1850         pat_index[PAT_UNCACHED] = 2;
1851
1852         /*
1853          * Initialize default PAT entries.
1854          * Leave the indices 0-3 at the default of WB, WT, UC-, and UC.
1855          * Program 5 and 6 as WP and WC.
1856          *
1857          * Leave 4 and 7 as WB and UC.  Note that a recursive page table
1858          * mapping for a 2M page uses a PAT value with the bit 3 set due
1859          * to its overload with PG_PS.
1860          */
1861         pat_msr = PAT_VALUE(0, PAT_WRITE_BACK) |
1862             PAT_VALUE(1, PAT_WRITE_THROUGH) |
1863             PAT_VALUE(2, PAT_UNCACHED) |
1864             PAT_VALUE(3, PAT_UNCACHEABLE) |
1865             PAT_VALUE(4, PAT_WRITE_BACK) |
1866             PAT_VALUE(5, PAT_WRITE_PROTECTED) |
1867             PAT_VALUE(6, PAT_WRITE_COMBINING) |
1868             PAT_VALUE(7, PAT_UNCACHEABLE);
1869
1870         /* Disable PGE. */
1871         cr4 = rcr4();
1872         load_cr4(cr4 & ~CR4_PGE);
1873
1874         /* Disable caches (CD = 1, NW = 0). */
1875         cr0 = rcr0();
1876         load_cr0((cr0 & ~CR0_NW) | CR0_CD);
1877
1878         /* Flushes caches and TLBs. */
1879         wbinvd();
1880         invltlb();
1881
1882         /* Update PAT and index table. */
1883         wrmsr(MSR_PAT, pat_msr);
1884
1885         /* Flush caches and TLBs again. */
1886         wbinvd();
1887         invltlb();
1888
1889         /* Restore caches and PGE. */
1890         load_cr0(cr0);
1891         load_cr4(cr4);
1892 }
1893
1894 /*
1895  *      Initialize a vm_page's machine-dependent fields.
1896  */
1897 void
1898 pmap_page_init(vm_page_t m)
1899 {
1900
1901         TAILQ_INIT(&m->md.pv_list);
1902         m->md.pat_mode = PAT_WRITE_BACK;
1903 }
1904
1905 static int pmap_allow_2m_x_ept;
1906 SYSCTL_INT(_vm_pmap, OID_AUTO, allow_2m_x_ept, CTLFLAG_RWTUN | CTLFLAG_NOFETCH,
1907     &pmap_allow_2m_x_ept, 0,
1908     "Allow executable superpage mappings in EPT");
1909
1910 void
1911 pmap_allow_2m_x_ept_recalculate(void)
1912 {
1913         /*
1914          * SKL002, SKL012S.  Since the EPT format is only used by
1915          * Intel CPUs, the vendor check is merely a formality.
1916          */
1917         if (!(cpu_vendor_id != CPU_VENDOR_INTEL ||
1918             (cpu_ia32_arch_caps & IA32_ARCH_CAP_IF_PSCHANGE_MC_NO) != 0 ||
1919             (CPUID_TO_FAMILY(cpu_id) == 0x6 &&
1920             (CPUID_TO_MODEL(cpu_id) == 0x26 ||  /* Atoms */
1921             CPUID_TO_MODEL(cpu_id) == 0x27 ||
1922             CPUID_TO_MODEL(cpu_id) == 0x35 ||
1923             CPUID_TO_MODEL(cpu_id) == 0x36 ||
1924             CPUID_TO_MODEL(cpu_id) == 0x37 ||
1925             CPUID_TO_MODEL(cpu_id) == 0x86 ||
1926             CPUID_TO_MODEL(cpu_id) == 0x1c ||
1927             CPUID_TO_MODEL(cpu_id) == 0x4a ||
1928             CPUID_TO_MODEL(cpu_id) == 0x4c ||
1929             CPUID_TO_MODEL(cpu_id) == 0x4d ||
1930             CPUID_TO_MODEL(cpu_id) == 0x5a ||
1931             CPUID_TO_MODEL(cpu_id) == 0x5c ||
1932             CPUID_TO_MODEL(cpu_id) == 0x5d ||
1933             CPUID_TO_MODEL(cpu_id) == 0x5f ||
1934             CPUID_TO_MODEL(cpu_id) == 0x6e ||
1935             CPUID_TO_MODEL(cpu_id) == 0x7a ||
1936             CPUID_TO_MODEL(cpu_id) == 0x57 ||   /* Knights */
1937             CPUID_TO_MODEL(cpu_id) == 0x85))))
1938                 pmap_allow_2m_x_ept = 1;
1939         TUNABLE_INT_FETCH("hw.allow_2m_x_ept", &pmap_allow_2m_x_ept);
1940 }
1941
1942 static bool
1943 pmap_allow_2m_x_page(pmap_t pmap, bool executable)
1944 {
1945
1946         return (pmap->pm_type != PT_EPT || !executable ||
1947             !pmap_allow_2m_x_ept);
1948 }
1949
1950 #ifdef NUMA
1951 static void
1952 pmap_init_pv_table(void)
1953 {
1954         struct pmap_large_md_page *pvd;
1955         vm_size_t s;
1956         long start, end, highest, pv_npg;
1957         int domain, i, j, pages;
1958
1959         /*
1960          * We strongly depend on the size being a power of two, so the assert
1961          * is overzealous. However, should the struct be resized to a
1962          * different power of two, the code below needs to be revisited.
1963          */
1964         CTASSERT((sizeof(*pvd) == 64));
1965
1966         /*
1967          * Calculate the size of the array.
1968          */
1969         pmap_last_pa = vm_phys_segs[vm_phys_nsegs - 1].end;
1970         pv_npg = howmany(pmap_last_pa, NBPDR);
1971         s = (vm_size_t)pv_npg * sizeof(struct pmap_large_md_page);
1972         s = round_page(s);
1973         pv_table = (struct pmap_large_md_page *)kva_alloc(s);
1974         if (pv_table == NULL)
1975                 panic("%s: kva_alloc failed\n", __func__);
1976
1977         /*
1978          * Iterate physical segments to allocate space for respective pages.
1979          */
1980         highest = -1;
1981         s = 0;
1982         for (i = 0; i < vm_phys_nsegs; i++) {
1983                 end = vm_phys_segs[i].end / NBPDR;
1984                 domain = vm_phys_segs[i].domain;
1985
1986                 if (highest >= end)
1987                         continue;
1988
1989                 start = highest + 1;
1990                 pvd = &pv_table[start];
1991
1992                 pages = end - start + 1;
1993                 s = round_page(pages * sizeof(*pvd));
1994                 highest = start + (s / sizeof(*pvd)) - 1;
1995
1996                 for (j = 0; j < s; j += PAGE_SIZE) {
1997                         vm_page_t m = vm_page_alloc_domain(NULL, 0,
1998                             domain, VM_ALLOC_NORMAL | VM_ALLOC_NOOBJ);
1999                         if (m == NULL)
2000                                 panic("vm_page_alloc_domain failed for %lx\n", (vm_offset_t)pvd + j);
2001                         pmap_qenter((vm_offset_t)pvd + j, &m, 1);
2002                 }
2003
2004                 for (j = 0; j < s / sizeof(*pvd); j++) {
2005                         rw_init_flags(&pvd->pv_lock, "pmap pv list", RW_NEW);
2006                         TAILQ_INIT(&pvd->pv_page.pv_list);
2007                         pvd->pv_page.pv_gen = 0;
2008                         pvd->pv_page.pat_mode = 0;
2009                         pvd->pv_invl_gen = 0;
2010                         pvd++;
2011                 }
2012         }
2013         pvd = &pv_dummy_large;
2014         rw_init_flags(&pvd->pv_lock, "pmap pv list dummy", RW_NEW);
2015         TAILQ_INIT(&pvd->pv_page.pv_list);
2016         pvd->pv_page.pv_gen = 0;
2017         pvd->pv_page.pat_mode = 0;
2018         pvd->pv_invl_gen = 0;
2019 }
2020 #else
2021 static void
2022 pmap_init_pv_table(void)
2023 {
2024         vm_size_t s;
2025         long i, pv_npg;
2026
2027         /*
2028          * Initialize the pool of pv list locks.
2029          */
2030         for (i = 0; i < NPV_LIST_LOCKS; i++)
2031                 rw_init(&pv_list_locks[i], "pmap pv list");
2032
2033         /*
2034          * Calculate the size of the pv head table for superpages.
2035          */
2036         pv_npg = howmany(vm_phys_segs[vm_phys_nsegs - 1].end, NBPDR);
2037
2038         /*
2039          * Allocate memory for the pv head table for superpages.
2040          */
2041         s = (vm_size_t)pv_npg * sizeof(struct md_page);
2042         s = round_page(s);
2043         pv_table = (struct md_page *)kmem_malloc(s, M_WAITOK | M_ZERO);
2044         for (i = 0; i < pv_npg; i++)
2045                 TAILQ_INIT(&pv_table[i].pv_list);
2046         TAILQ_INIT(&pv_dummy.pv_list);
2047 }
2048 #endif
2049
2050 /*
2051  *      Initialize the pmap module.
2052  *      Called by vm_init, to initialize any structures that the pmap
2053  *      system needs to map virtual memory.
2054  */
2055 void
2056 pmap_init(void)
2057 {
2058         struct pmap_preinit_mapping *ppim;
2059         vm_page_t m, mpte;
2060         int error, i, ret, skz63;
2061
2062         /* L1TF, reserve page @0 unconditionally */
2063         vm_page_blacklist_add(0, bootverbose);
2064
2065         /* Detect bare-metal Skylake Server and Skylake-X. */
2066         if (vm_guest == VM_GUEST_NO && cpu_vendor_id == CPU_VENDOR_INTEL &&
2067             CPUID_TO_FAMILY(cpu_id) == 0x6 && CPUID_TO_MODEL(cpu_id) == 0x55) {
2068                 /*
2069                  * Skylake-X errata SKZ63. Processor May Hang When
2070                  * Executing Code In an HLE Transaction Region between
2071                  * 40000000H and 403FFFFFH.
2072                  *
2073                  * Mark the pages in the range as preallocated.  It
2074                  * seems to be impossible to distinguish between
2075                  * Skylake Server and Skylake X.
2076                  */
2077                 skz63 = 1;
2078                 TUNABLE_INT_FETCH("hw.skz63_enable", &skz63);
2079                 if (skz63 != 0) {
2080                         if (bootverbose)
2081                                 printf("SKZ63: skipping 4M RAM starting "
2082                                     "at physical 1G\n");
2083                         for (i = 0; i < atop(0x400000); i++) {
2084                                 ret = vm_page_blacklist_add(0x40000000 +
2085                                     ptoa(i), FALSE);
2086                                 if (!ret && bootverbose)
2087                                         printf("page at %#lx already used\n",
2088                                             0x40000000 + ptoa(i));
2089                         }
2090                 }
2091         }
2092
2093         /* IFU */
2094         pmap_allow_2m_x_ept_recalculate();
2095
2096         /*
2097          * Initialize the vm page array entries for the kernel pmap's
2098          * page table pages.
2099          */ 
2100         PMAP_LOCK(kernel_pmap);
2101         for (i = 0; i < nkpt; i++) {
2102                 mpte = PHYS_TO_VM_PAGE(KPTphys + (i << PAGE_SHIFT));
2103                 KASSERT(mpte >= vm_page_array &&
2104                     mpte < &vm_page_array[vm_page_array_size],
2105                     ("pmap_init: page table page is out of range"));
2106                 mpte->pindex = pmap_pde_pindex(KERNBASE) + i;
2107                 mpte->phys_addr = KPTphys + (i << PAGE_SHIFT);
2108                 mpte->ref_count = 1;
2109
2110                 /*
2111                  * Collect the page table pages that were replaced by a 2MB
2112                  * page in create_pagetables().  They are zero filled.
2113                  */
2114                 if (i << PDRSHIFT < KERNend &&
2115                     pmap_insert_pt_page(kernel_pmap, mpte, false))
2116                         panic("pmap_init: pmap_insert_pt_page failed");
2117         }
2118         PMAP_UNLOCK(kernel_pmap);
2119         vm_wire_add(nkpt);
2120
2121         /*
2122          * If the kernel is running on a virtual machine, then it must assume
2123          * that MCA is enabled by the hypervisor.  Moreover, the kernel must
2124          * be prepared for the hypervisor changing the vendor and family that
2125          * are reported by CPUID.  Consequently, the workaround for AMD Family
2126          * 10h Erratum 383 is enabled if the processor's feature set does not
2127          * include at least one feature that is only supported by older Intel
2128          * or newer AMD processors.
2129          */
2130         if (vm_guest != VM_GUEST_NO && (cpu_feature & CPUID_SS) == 0 &&
2131             (cpu_feature2 & (CPUID2_SSSE3 | CPUID2_SSE41 | CPUID2_AESNI |
2132             CPUID2_AVX | CPUID2_XSAVE)) == 0 && (amd_feature2 & (AMDID2_XOP |
2133             AMDID2_FMA4)) == 0)
2134                 workaround_erratum383 = 1;
2135
2136         /*
2137          * Are large page mappings enabled?
2138          */
2139         TUNABLE_INT_FETCH("vm.pmap.pg_ps_enabled", &pg_ps_enabled);
2140         if (pg_ps_enabled) {
2141                 KASSERT(MAXPAGESIZES > 1 && pagesizes[1] == 0,
2142                     ("pmap_init: can't assign to pagesizes[1]"));
2143                 pagesizes[1] = NBPDR;
2144         }
2145
2146         /*
2147          * Initialize pv chunk lists.
2148          */
2149         for (i = 0; i < PMAP_MEMDOM; i++) {
2150                 mtx_init(&pv_chunks[i].pvc_lock, "pmap pv chunk list", NULL, MTX_DEF);
2151                 TAILQ_INIT(&pv_chunks[i].pvc_list);
2152         }
2153         pmap_init_pv_table();
2154
2155         pmap_initialized = 1;
2156         for (i = 0; i < PMAP_PREINIT_MAPPING_COUNT; i++) {
2157                 ppim = pmap_preinit_mapping + i;
2158                 if (ppim->va == 0)
2159                         continue;
2160                 /* Make the direct map consistent */
2161                 if (ppim->pa < dmaplimit && ppim->pa + ppim->sz <= dmaplimit) {
2162                         (void)pmap_change_attr(PHYS_TO_DMAP(ppim->pa),
2163                             ppim->sz, ppim->mode);
2164                 }
2165                 if (!bootverbose)
2166                         continue;
2167                 printf("PPIM %u: PA=%#lx, VA=%#lx, size=%#lx, mode=%#x\n", i,
2168                     ppim->pa, ppim->va, ppim->sz, ppim->mode);
2169         }
2170
2171         mtx_init(&qframe_mtx, "qfrmlk", NULL, MTX_SPIN);
2172         error = vmem_alloc(kernel_arena, PAGE_SIZE, M_BESTFIT | M_WAITOK,
2173             (vmem_addr_t *)&qframe);
2174         if (error != 0)
2175                 panic("qframe allocation failed");
2176
2177         lm_ents = 8;
2178         TUNABLE_INT_FETCH("vm.pmap.large_map_pml4_entries", &lm_ents);
2179         if (lm_ents > LMEPML4I - LMSPML4I + 1)
2180                 lm_ents = LMEPML4I - LMSPML4I + 1;
2181         if (bootverbose)
2182                 printf("pmap: large map %u PML4 slots (%lu GB)\n",
2183                     lm_ents, (u_long)lm_ents * (NBPML4 / 1024 / 1024 / 1024));
2184         if (lm_ents != 0) {
2185                 large_vmem = vmem_create("large", LARGEMAP_MIN_ADDRESS,
2186                     (vmem_size_t)lm_ents * NBPML4, PAGE_SIZE, 0, M_WAITOK);
2187                 if (large_vmem == NULL) {
2188                         printf("pmap: cannot create large map\n");
2189                         lm_ents = 0;
2190                 }
2191                 for (i = 0; i < lm_ents; i++) {
2192                         m = pmap_large_map_getptp_unlocked();
2193                         kernel_pmap->pm_pml4[LMSPML4I + i] = X86_PG_V |
2194                             X86_PG_RW | X86_PG_A | X86_PG_M | pg_nx |
2195                             VM_PAGE_TO_PHYS(m);
2196                 }
2197         }
2198 }
2199
2200 SYSCTL_UINT(_vm_pmap, OID_AUTO, large_map_pml4_entries,
2201     CTLFLAG_RDTUN | CTLFLAG_NOFETCH, &lm_ents, 0,
2202     "Maximum number of PML4 entries for use by large map (tunable).  "
2203     "Each entry corresponds to 512GB of address space.");
2204
2205 static SYSCTL_NODE(_vm_pmap, OID_AUTO, pde, CTLFLAG_RD | CTLFLAG_MPSAFE, 0,
2206     "2MB page mapping counters");
2207
2208 static u_long pmap_pde_demotions;
2209 SYSCTL_ULONG(_vm_pmap_pde, OID_AUTO, demotions, CTLFLAG_RD,
2210     &pmap_pde_demotions, 0, "2MB page demotions");
2211
2212 static u_long pmap_pde_mappings;
2213 SYSCTL_ULONG(_vm_pmap_pde, OID_AUTO, mappings, CTLFLAG_RD,
2214     &pmap_pde_mappings, 0, "2MB page mappings");
2215
2216 static u_long pmap_pde_p_failures;
2217 SYSCTL_ULONG(_vm_pmap_pde, OID_AUTO, p_failures, CTLFLAG_RD,
2218     &pmap_pde_p_failures, 0, "2MB page promotion failures");
2219
2220 static u_long pmap_pde_promotions;
2221 SYSCTL_ULONG(_vm_pmap_pde, OID_AUTO, promotions, CTLFLAG_RD,
2222     &pmap_pde_promotions, 0, "2MB page promotions");
2223
2224 static SYSCTL_NODE(_vm_pmap, OID_AUTO, pdpe, CTLFLAG_RD | CTLFLAG_MPSAFE, 0,
2225     "1GB page mapping counters");
2226
2227 static u_long pmap_pdpe_demotions;
2228 SYSCTL_ULONG(_vm_pmap_pdpe, OID_AUTO, demotions, CTLFLAG_RD,
2229     &pmap_pdpe_demotions, 0, "1GB page demotions");
2230
2231 /***************************************************
2232  * Low level helper routines.....
2233  ***************************************************/
2234
2235 static pt_entry_t
2236 pmap_swap_pat(pmap_t pmap, pt_entry_t entry)
2237 {
2238         int x86_pat_bits = X86_PG_PTE_PAT | X86_PG_PDE_PAT;
2239
2240         switch (pmap->pm_type) {
2241         case PT_X86:
2242         case PT_RVI:
2243                 /* Verify that both PAT bits are not set at the same time */
2244                 KASSERT((entry & x86_pat_bits) != x86_pat_bits,
2245                     ("Invalid PAT bits in entry %#lx", entry));
2246
2247                 /* Swap the PAT bits if one of them is set */
2248                 if ((entry & x86_pat_bits) != 0)
2249                         entry ^= x86_pat_bits;
2250                 break;
2251         case PT_EPT:
2252                 /*
2253                  * Nothing to do - the memory attributes are represented
2254                  * the same way for regular pages and superpages.
2255                  */
2256                 break;
2257         default:
2258                 panic("pmap_switch_pat_bits: bad pm_type %d", pmap->pm_type);
2259         }
2260
2261         return (entry);
2262 }
2263
2264 boolean_t
2265 pmap_is_valid_memattr(pmap_t pmap __unused, vm_memattr_t mode)
2266 {
2267
2268         return (mode >= 0 && mode < PAT_INDEX_SIZE &&
2269             pat_index[(int)mode] >= 0);
2270 }
2271
2272 /*
2273  * Determine the appropriate bits to set in a PTE or PDE for a specified
2274  * caching mode.
2275  */
2276 int
2277 pmap_cache_bits(pmap_t pmap, int mode, boolean_t is_pde)
2278 {
2279         int cache_bits, pat_flag, pat_idx;
2280
2281         if (!pmap_is_valid_memattr(pmap, mode))
2282                 panic("Unknown caching mode %d\n", mode);
2283
2284         switch (pmap->pm_type) {
2285         case PT_X86:
2286         case PT_RVI:
2287                 /* The PAT bit is different for PTE's and PDE's. */
2288                 pat_flag = is_pde ? X86_PG_PDE_PAT : X86_PG_PTE_PAT;
2289
2290                 /* Map the caching mode to a PAT index. */
2291                 pat_idx = pat_index[mode];
2292
2293                 /* Map the 3-bit index value into the PAT, PCD, and PWT bits. */
2294                 cache_bits = 0;
2295                 if (pat_idx & 0x4)
2296                         cache_bits |= pat_flag;
2297                 if (pat_idx & 0x2)
2298                         cache_bits |= PG_NC_PCD;
2299                 if (pat_idx & 0x1)
2300                         cache_bits |= PG_NC_PWT;
2301                 break;
2302
2303         case PT_EPT:
2304                 cache_bits = EPT_PG_IGNORE_PAT | EPT_PG_MEMORY_TYPE(mode);
2305                 break;
2306
2307         default:
2308                 panic("unsupported pmap type %d", pmap->pm_type);
2309         }
2310
2311         return (cache_bits);
2312 }
2313
2314 static int
2315 pmap_cache_mask(pmap_t pmap, boolean_t is_pde)
2316 {
2317         int mask;
2318
2319         switch (pmap->pm_type) {
2320         case PT_X86:
2321         case PT_RVI:
2322                 mask = is_pde ? X86_PG_PDE_CACHE : X86_PG_PTE_CACHE;
2323                 break;
2324         case PT_EPT:
2325                 mask = EPT_PG_IGNORE_PAT | EPT_PG_MEMORY_TYPE(0x7);
2326                 break;
2327         default:
2328                 panic("pmap_cache_mask: invalid pm_type %d", pmap->pm_type);
2329         }
2330
2331         return (mask);
2332 }
2333
2334 static int
2335 pmap_pat_index(pmap_t pmap, pt_entry_t pte, bool is_pde)
2336 {
2337         int pat_flag, pat_idx;
2338
2339         pat_idx = 0;
2340         switch (pmap->pm_type) {
2341         case PT_X86:
2342         case PT_RVI:
2343                 /* The PAT bit is different for PTE's and PDE's. */
2344                 pat_flag = is_pde ? X86_PG_PDE_PAT : X86_PG_PTE_PAT;
2345
2346                 if ((pte & pat_flag) != 0)
2347                         pat_idx |= 0x4;
2348                 if ((pte & PG_NC_PCD) != 0)
2349                         pat_idx |= 0x2;
2350                 if ((pte & PG_NC_PWT) != 0)
2351                         pat_idx |= 0x1;
2352                 break;
2353         case PT_EPT:
2354                 if ((pte & EPT_PG_IGNORE_PAT) != 0)
2355                         panic("EPT PTE %#lx has no PAT memory type", pte);
2356                 pat_idx = (pte & EPT_PG_MEMORY_TYPE(0x7)) >> 3;
2357                 break;
2358         }
2359
2360         /* See pmap_init_pat(). */
2361         if (pat_idx == 4)
2362                 pat_idx = 0;
2363         if (pat_idx == 7)
2364                 pat_idx = 3;
2365
2366         return (pat_idx);
2367 }
2368
2369 bool
2370 pmap_ps_enabled(pmap_t pmap)
2371 {
2372
2373         return (pg_ps_enabled && (pmap->pm_flags & PMAP_PDE_SUPERPAGE) != 0);
2374 }
2375
2376 static void
2377 pmap_update_pde_store(pmap_t pmap, pd_entry_t *pde, pd_entry_t newpde)
2378 {
2379
2380         switch (pmap->pm_type) {
2381         case PT_X86:
2382                 break;
2383         case PT_RVI:
2384         case PT_EPT:
2385                 /*
2386                  * XXX
2387                  * This is a little bogus since the generation number is
2388                  * supposed to be bumped up when a region of the address
2389                  * space is invalidated in the page tables.
2390                  *
2391                  * In this case the old PDE entry is valid but yet we want
2392                  * to make sure that any mappings using the old entry are
2393                  * invalidated in the TLB.
2394                  *
2395                  * The reason this works as expected is because we rendezvous
2396                  * "all" host cpus and force any vcpu context to exit as a
2397                  * side-effect.
2398                  */
2399                 atomic_add_acq_long(&pmap->pm_eptgen, 1);
2400                 break;
2401         default:
2402                 panic("pmap_update_pde_store: bad pm_type %d", pmap->pm_type);
2403         }
2404         pde_store(pde, newpde);
2405 }
2406
2407 /*
2408  * After changing the page size for the specified virtual address in the page
2409  * table, flush the corresponding entries from the processor's TLB.  Only the
2410  * calling processor's TLB is affected.
2411  *
2412  * The calling thread must be pinned to a processor.
2413  */
2414 static void
2415 pmap_update_pde_invalidate(pmap_t pmap, vm_offset_t va, pd_entry_t newpde)
2416 {
2417         pt_entry_t PG_G;
2418
2419         if (pmap_type_guest(pmap))
2420                 return;
2421
2422         KASSERT(pmap->pm_type == PT_X86,
2423             ("pmap_update_pde_invalidate: invalid type %d", pmap->pm_type));
2424
2425         PG_G = pmap_global_bit(pmap);
2426
2427         if ((newpde & PG_PS) == 0)
2428                 /* Demotion: flush a specific 2MB page mapping. */
2429                 invlpg(va);
2430         else if ((newpde & PG_G) == 0)
2431                 /*
2432                  * Promotion: flush every 4KB page mapping from the TLB
2433                  * because there are too many to flush individually.
2434                  */
2435                 invltlb();
2436         else {
2437                 /*
2438                  * Promotion: flush every 4KB page mapping from the TLB,
2439                  * including any global (PG_G) mappings.
2440                  */
2441                 invltlb_glob();
2442         }
2443 }
2444 #ifdef SMP
2445
2446 /*
2447  * For SMP, these functions have to use the IPI mechanism for coherence.
2448  *
2449  * N.B.: Before calling any of the following TLB invalidation functions,
2450  * the calling processor must ensure that all stores updating a non-
2451  * kernel page table are globally performed.  Otherwise, another
2452  * processor could cache an old, pre-update entry without being
2453  * invalidated.  This can happen one of two ways: (1) The pmap becomes
2454  * active on another processor after its pm_active field is checked by
2455  * one of the following functions but before a store updating the page
2456  * table is globally performed. (2) The pmap becomes active on another
2457  * processor before its pm_active field is checked but due to
2458  * speculative loads one of the following functions stills reads the
2459  * pmap as inactive on the other processor.
2460  * 
2461  * The kernel page table is exempt because its pm_active field is
2462  * immutable.  The kernel page table is always active on every
2463  * processor.
2464  */
2465
2466 /*
2467  * Interrupt the cpus that are executing in the guest context.
2468  * This will force the vcpu to exit and the cached EPT mappings
2469  * will be invalidated by the host before the next vmresume.
2470  */
2471 static __inline void
2472 pmap_invalidate_ept(pmap_t pmap)
2473 {
2474         int ipinum;
2475
2476         sched_pin();
2477         KASSERT(!CPU_ISSET(curcpu, &pmap->pm_active),
2478             ("pmap_invalidate_ept: absurd pm_active"));
2479
2480         /*
2481          * The TLB mappings associated with a vcpu context are not
2482          * flushed each time a different vcpu is chosen to execute.
2483          *
2484          * This is in contrast with a process's vtop mappings that
2485          * are flushed from the TLB on each context switch.
2486          *
2487          * Therefore we need to do more than just a TLB shootdown on
2488          * the active cpus in 'pmap->pm_active'. To do this we keep
2489          * track of the number of invalidations performed on this pmap.
2490          *
2491          * Each vcpu keeps a cache of this counter and compares it
2492          * just before a vmresume. If the counter is out-of-date an
2493          * invept will be done to flush stale mappings from the TLB.
2494          */
2495         atomic_add_acq_long(&pmap->pm_eptgen, 1);
2496
2497         /*
2498          * Force the vcpu to exit and trap back into the hypervisor.
2499          */
2500         ipinum = pmap->pm_flags & PMAP_NESTED_IPIMASK;
2501         ipi_selected(pmap->pm_active, ipinum);
2502         sched_unpin();
2503 }
2504
2505 static cpuset_t
2506 pmap_invalidate_cpu_mask(pmap_t pmap)
2507 {
2508
2509         return (pmap == kernel_pmap ? all_cpus : pmap->pm_active);
2510 }
2511
2512 static inline void
2513 pmap_invalidate_page_pcid(pmap_t pmap, vm_offset_t va,
2514     const bool invpcid_works1)
2515 {
2516         struct invpcid_descr d;
2517         uint64_t kcr3, ucr3;
2518         uint32_t pcid;
2519         u_int cpuid, i;
2520
2521         cpuid = PCPU_GET(cpuid);
2522         if (pmap == PCPU_GET(curpmap)) {
2523                 if (pmap->pm_ucr3 != PMAP_NO_CR3) {
2524                         /*
2525                          * Because pm_pcid is recalculated on a
2526                          * context switch, we must disable switching.
2527                          * Otherwise, we might use a stale value
2528                          * below.
2529                          */
2530                         critical_enter();
2531                         pcid = pmap->pm_pcids[cpuid].pm_pcid;
2532                         if (invpcid_works1) {
2533                                 d.pcid = pcid | PMAP_PCID_USER_PT;
2534                                 d.pad = 0;
2535                                 d.addr = va;
2536                                 invpcid(&d, INVPCID_ADDR);
2537                         } else {
2538                                 kcr3 = pmap->pm_cr3 | pcid | CR3_PCID_SAVE;
2539                                 ucr3 = pmap->pm_ucr3 | pcid |
2540                                     PMAP_PCID_USER_PT | CR3_PCID_SAVE;
2541                                 pmap_pti_pcid_invlpg(ucr3, kcr3, va);
2542                         }
2543                         critical_exit();
2544                 }
2545         } else
2546                 pmap->pm_pcids[cpuid].pm_gen = 0;
2547
2548         CPU_FOREACH(i) {
2549                 if (cpuid != i)
2550                         pmap->pm_pcids[i].pm_gen = 0;
2551         }
2552
2553         /*
2554          * The fence is between stores to pm_gen and the read of the
2555          * pm_active mask.  We need to ensure that it is impossible
2556          * for us to miss the bit update in pm_active and
2557          * simultaneously observe a non-zero pm_gen in
2558          * pmap_activate_sw(), otherwise TLB update is missed.
2559          * Without the fence, IA32 allows such an outcome.  Note that
2560          * pm_active is updated by a locked operation, which provides
2561          * the reciprocal fence.
2562          */
2563         atomic_thread_fence_seq_cst();
2564 }
2565
2566 static void
2567 pmap_invalidate_page_pcid_invpcid(pmap_t pmap, vm_offset_t va)
2568 {
2569
2570         pmap_invalidate_page_pcid(pmap, va, true);
2571 }
2572
2573 static void
2574 pmap_invalidate_page_pcid_noinvpcid(pmap_t pmap, vm_offset_t va)
2575 {
2576
2577         pmap_invalidate_page_pcid(pmap, va, false);
2578 }
2579
2580 static void
2581 pmap_invalidate_page_nopcid(pmap_t pmap, vm_offset_t va)
2582 {
2583 }
2584
2585 DEFINE_IFUNC(static, void, pmap_invalidate_page_mode, (pmap_t, vm_offset_t))
2586 {
2587
2588         if (pmap_pcid_enabled)
2589                 return (invpcid_works ? pmap_invalidate_page_pcid_invpcid :
2590                     pmap_invalidate_page_pcid_noinvpcid);
2591         return (pmap_invalidate_page_nopcid);
2592 }
2593
2594 static void
2595 pmap_invalidate_page_curcpu_cb(pmap_t pmap, vm_offset_t va,
2596     vm_offset_t addr2 __unused)
2597 {
2598
2599         if (pmap == kernel_pmap) {
2600                 invlpg(va);
2601         } else {
2602                 if (pmap == PCPU_GET(curpmap))
2603                         invlpg(va);
2604                 pmap_invalidate_page_mode(pmap, va);
2605         }
2606 }
2607
2608 void
2609 pmap_invalidate_page(pmap_t pmap, vm_offset_t va)
2610 {
2611
2612         if (pmap_type_guest(pmap)) {
2613                 pmap_invalidate_ept(pmap);
2614                 return;
2615         }
2616
2617         KASSERT(pmap->pm_type == PT_X86,
2618             ("pmap_invalidate_page: invalid type %d", pmap->pm_type));
2619
2620         smp_masked_invlpg(pmap_invalidate_cpu_mask(pmap), va, pmap,
2621             pmap_invalidate_page_curcpu_cb);
2622 }
2623
2624 /* 4k PTEs -- Chosen to exceed the total size of Broadwell L2 TLB */
2625 #define PMAP_INVLPG_THRESHOLD   (4 * 1024 * PAGE_SIZE)
2626
2627 static void
2628 pmap_invalidate_range_pcid(pmap_t pmap, vm_offset_t sva, vm_offset_t eva,
2629     const bool invpcid_works1)
2630 {
2631         struct invpcid_descr d;
2632         uint64_t kcr3, ucr3;
2633         uint32_t pcid;
2634         u_int cpuid, i;
2635
2636         cpuid = PCPU_GET(cpuid);
2637         if (pmap == PCPU_GET(curpmap)) {
2638                 if (pmap->pm_ucr3 != PMAP_NO_CR3) {
2639                         critical_enter();
2640                         pcid = pmap->pm_pcids[cpuid].pm_pcid;
2641                         if (invpcid_works1) {
2642                                 d.pcid = pcid | PMAP_PCID_USER_PT;
2643                                 d.pad = 0;
2644                                 d.addr = sva;
2645                                 for (; d.addr < eva; d.addr += PAGE_SIZE)
2646                                         invpcid(&d, INVPCID_ADDR);
2647                         } else {
2648                                 kcr3 = pmap->pm_cr3 | pcid | CR3_PCID_SAVE;
2649                                 ucr3 = pmap->pm_ucr3 | pcid |
2650                                     PMAP_PCID_USER_PT | CR3_PCID_SAVE;
2651                                 pmap_pti_pcid_invlrng(ucr3, kcr3, sva, eva);
2652                         }
2653                         critical_exit();
2654                 }
2655         } else
2656                 pmap->pm_pcids[cpuid].pm_gen = 0;
2657
2658         CPU_FOREACH(i) {
2659                 if (cpuid != i)
2660                         pmap->pm_pcids[i].pm_gen = 0;
2661         }
2662         /* See the comment in pmap_invalidate_page_pcid(). */
2663         atomic_thread_fence_seq_cst();
2664 }
2665
2666 static void
2667 pmap_invalidate_range_pcid_invpcid(pmap_t pmap, vm_offset_t sva,
2668     vm_offset_t eva)
2669 {
2670
2671         pmap_invalidate_range_pcid(pmap, sva, eva, true);
2672 }
2673
2674 static void
2675 pmap_invalidate_range_pcid_noinvpcid(pmap_t pmap, vm_offset_t sva,
2676     vm_offset_t eva)
2677 {
2678
2679         pmap_invalidate_range_pcid(pmap, sva, eva, false);
2680 }
2681
2682 static void
2683 pmap_invalidate_range_nopcid(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
2684 {
2685 }
2686
2687 DEFINE_IFUNC(static, void, pmap_invalidate_range_mode, (pmap_t, vm_offset_t,
2688     vm_offset_t))
2689 {
2690
2691         if (pmap_pcid_enabled)
2692                 return (invpcid_works ? pmap_invalidate_range_pcid_invpcid :
2693                     pmap_invalidate_range_pcid_noinvpcid);
2694         return (pmap_invalidate_range_nopcid);
2695 }
2696
2697 static void
2698 pmap_invalidate_range_curcpu_cb(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
2699 {
2700         vm_offset_t addr;
2701
2702         if (pmap == kernel_pmap) {
2703                 for (addr = sva; addr < eva; addr += PAGE_SIZE)
2704                         invlpg(addr);
2705         } else {
2706                 if (pmap == PCPU_GET(curpmap)) {
2707                         for (addr = sva; addr < eva; addr += PAGE_SIZE)
2708                                 invlpg(addr);
2709                 }
2710                 pmap_invalidate_range_mode(pmap, sva, eva);
2711         }
2712 }
2713
2714 void
2715 pmap_invalidate_range(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
2716 {
2717
2718         if (eva - sva >= PMAP_INVLPG_THRESHOLD) {
2719                 pmap_invalidate_all(pmap);
2720                 return;
2721         }
2722
2723         if (pmap_type_guest(pmap)) {
2724                 pmap_invalidate_ept(pmap);
2725                 return;
2726         }
2727
2728         KASSERT(pmap->pm_type == PT_X86,
2729             ("pmap_invalidate_range: invalid type %d", pmap->pm_type));
2730
2731         smp_masked_invlpg_range(pmap_invalidate_cpu_mask(pmap), sva, eva, pmap,
2732             pmap_invalidate_range_curcpu_cb);
2733 }
2734
2735 static inline void
2736 pmap_invalidate_all_pcid(pmap_t pmap, bool invpcid_works1)
2737 {
2738         struct invpcid_descr d;
2739         uint64_t kcr3, ucr3;
2740         uint32_t pcid;
2741         u_int cpuid, i;
2742
2743         if (pmap == kernel_pmap) {
2744                 if (invpcid_works1) {
2745                         bzero(&d, sizeof(d));
2746                         invpcid(&d, INVPCID_CTXGLOB);
2747                 } else {
2748                         invltlb_glob();
2749                 }
2750         } else {
2751                 cpuid = PCPU_GET(cpuid);
2752                 if (pmap == PCPU_GET(curpmap)) {
2753                         critical_enter();
2754                         pcid = pmap->pm_pcids[cpuid].pm_pcid;
2755                         if (invpcid_works1) {
2756                                 d.pcid = pcid;
2757                                 d.pad = 0;
2758                                 d.addr = 0;
2759                                 invpcid(&d, INVPCID_CTX);
2760                                 if (pmap->pm_ucr3 != PMAP_NO_CR3) {
2761                                         d.pcid |= PMAP_PCID_USER_PT;
2762                                         invpcid(&d, INVPCID_CTX);
2763                                 }
2764                         } else {
2765                                 kcr3 = pmap->pm_cr3 | pcid;
2766                                 ucr3 = pmap->pm_ucr3;
2767                                 if (ucr3 != PMAP_NO_CR3) {
2768                                         ucr3 |= pcid | PMAP_PCID_USER_PT;
2769                                         pmap_pti_pcid_invalidate(ucr3, kcr3);
2770                                 } else {
2771                                         load_cr3(kcr3);
2772                                 }
2773                         }
2774                         critical_exit();
2775                 } else
2776                         pmap->pm_pcids[cpuid].pm_gen = 0;
2777                 CPU_FOREACH(i) {
2778                         if (cpuid != i)
2779                                 pmap->pm_pcids[i].pm_gen = 0;
2780                 }
2781         }
2782         /* See the comment in pmap_invalidate_page_pcid(). */
2783         atomic_thread_fence_seq_cst();
2784 }
2785
2786 static void
2787 pmap_invalidate_all_pcid_invpcid(pmap_t pmap)
2788 {
2789
2790         pmap_invalidate_all_pcid(pmap, true);
2791 }
2792
2793 static void
2794 pmap_invalidate_all_pcid_noinvpcid(pmap_t pmap)
2795 {
2796
2797         pmap_invalidate_all_pcid(pmap, false);
2798 }
2799
2800 static void
2801 pmap_invalidate_all_nopcid(pmap_t pmap)
2802 {
2803
2804         if (pmap == kernel_pmap)
2805                 invltlb_glob();
2806         else if (pmap == PCPU_GET(curpmap))
2807                 invltlb();
2808 }
2809
2810 DEFINE_IFUNC(static, void, pmap_invalidate_all_mode, (pmap_t))
2811 {
2812
2813         if (pmap_pcid_enabled)
2814                 return (invpcid_works ? pmap_invalidate_all_pcid_invpcid :
2815                     pmap_invalidate_all_pcid_noinvpcid);
2816         return (pmap_invalidate_all_nopcid);
2817 }
2818
2819 static void
2820 pmap_invalidate_all_curcpu_cb(pmap_t pmap, vm_offset_t addr1 __unused,
2821     vm_offset_t addr2 __unused)
2822 {
2823
2824         pmap_invalidate_all_mode(pmap);
2825 }
2826
2827 void
2828 pmap_invalidate_all(pmap_t pmap)
2829 {
2830
2831         if (pmap_type_guest(pmap)) {
2832                 pmap_invalidate_ept(pmap);
2833                 return;
2834         }
2835
2836         KASSERT(pmap->pm_type == PT_X86,
2837             ("pmap_invalidate_all: invalid type %d", pmap->pm_type));
2838
2839         smp_masked_invltlb(pmap_invalidate_cpu_mask(pmap), pmap,
2840             pmap_invalidate_all_curcpu_cb);
2841 }
2842
2843 static void
2844 pmap_invalidate_cache_curcpu_cb(pmap_t pmap __unused, vm_offset_t va __unused,
2845     vm_offset_t addr2 __unused)
2846 {
2847
2848         wbinvd();
2849 }
2850
2851 void
2852 pmap_invalidate_cache(void)
2853 {
2854
2855         smp_cache_flush(pmap_invalidate_cache_curcpu_cb);
2856 }
2857
2858 struct pde_action {
2859         cpuset_t invalidate;    /* processors that invalidate their TLB */
2860         pmap_t pmap;
2861         vm_offset_t va;
2862         pd_entry_t *pde;
2863         pd_entry_t newpde;
2864         u_int store;            /* processor that updates the PDE */
2865 };
2866
2867 static void
2868 pmap_update_pde_action(void *arg)
2869 {
2870         struct pde_action *act = arg;
2871
2872         if (act->store == PCPU_GET(cpuid))
2873                 pmap_update_pde_store(act->pmap, act->pde, act->newpde);
2874 }
2875
2876 static void
2877 pmap_update_pde_teardown(void *arg)
2878 {
2879         struct pde_action *act = arg;
2880
2881         if (CPU_ISSET(PCPU_GET(cpuid), &act->invalidate))
2882                 pmap_update_pde_invalidate(act->pmap, act->va, act->newpde);
2883 }
2884
2885 /*
2886  * Change the page size for the specified virtual address in a way that
2887  * prevents any possibility of the TLB ever having two entries that map the
2888  * same virtual address using different page sizes.  This is the recommended
2889  * workaround for Erratum 383 on AMD Family 10h processors.  It prevents a
2890  * machine check exception for a TLB state that is improperly diagnosed as a
2891  * hardware error.
2892  */
2893 static void
2894 pmap_update_pde(pmap_t pmap, vm_offset_t va, pd_entry_t *pde, pd_entry_t newpde)
2895 {
2896         struct pde_action act;
2897         cpuset_t active, other_cpus;
2898         u_int cpuid;
2899
2900         sched_pin();
2901         cpuid = PCPU_GET(cpuid);
2902         other_cpus = all_cpus;
2903         CPU_CLR(cpuid, &other_cpus);
2904         if (pmap == kernel_pmap || pmap_type_guest(pmap)) 
2905                 active = all_cpus;
2906         else {
2907                 active = pmap->pm_active;
2908         }
2909         if (CPU_OVERLAP(&active, &other_cpus)) { 
2910                 act.store = cpuid;
2911                 act.invalidate = active;
2912                 act.va = va;
2913                 act.pmap = pmap;
2914                 act.pde = pde;
2915                 act.newpde = newpde;
2916                 CPU_SET(cpuid, &active);
2917                 smp_rendezvous_cpus(active,
2918                     smp_no_rendezvous_barrier, pmap_update_pde_action,
2919                     pmap_update_pde_teardown, &act);
2920         } else {
2921                 pmap_update_pde_store(pmap, pde, newpde);
2922                 if (CPU_ISSET(cpuid, &active))
2923                         pmap_update_pde_invalidate(pmap, va, newpde);
2924         }
2925         sched_unpin();
2926 }
2927 #else /* !SMP */
2928 /*
2929  * Normal, non-SMP, invalidation functions.
2930  */
2931 void
2932 pmap_invalidate_page(pmap_t pmap, vm_offset_t va)
2933 {
2934         struct invpcid_descr d;
2935         uint64_t kcr3, ucr3;
2936         uint32_t pcid;
2937
2938         if (pmap->pm_type == PT_RVI || pmap->pm_type == PT_EPT) {
2939                 pmap->pm_eptgen++;
2940                 return;
2941         }
2942         KASSERT(pmap->pm_type == PT_X86,
2943             ("pmap_invalidate_range: unknown type %d", pmap->pm_type));
2944
2945         if (pmap == kernel_pmap || pmap == PCPU_GET(curpmap)) {
2946                 invlpg(va);
2947                 if (pmap == PCPU_GET(curpmap) && pmap_pcid_enabled &&
2948                     pmap->pm_ucr3 != PMAP_NO_CR3) {
2949                         critical_enter();
2950                         pcid = pmap->pm_pcids[0].pm_pcid;
2951                         if (invpcid_works) {
2952                                 d.pcid = pcid | PMAP_PCID_USER_PT;
2953                                 d.pad = 0;
2954                                 d.addr = va;
2955                                 invpcid(&d, INVPCID_ADDR);
2956                         } else {
2957                                 kcr3 = pmap->pm_cr3 | pcid | CR3_PCID_SAVE;
2958                                 ucr3 = pmap->pm_ucr3 | pcid |
2959                                     PMAP_PCID_USER_PT | CR3_PCID_SAVE;
2960                                 pmap_pti_pcid_invlpg(ucr3, kcr3, va);
2961                         }
2962                         critical_exit();
2963                 }
2964         } else if (pmap_pcid_enabled)
2965                 pmap->pm_pcids[0].pm_gen = 0;
2966 }
2967
2968 void
2969 pmap_invalidate_range(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
2970 {
2971         struct invpcid_descr d;
2972         vm_offset_t addr;
2973         uint64_t kcr3, ucr3;
2974
2975         if (pmap->pm_type == PT_RVI || pmap->pm_type == PT_EPT) {
2976                 pmap->pm_eptgen++;
2977                 return;
2978         }
2979         KASSERT(pmap->pm_type == PT_X86,
2980             ("pmap_invalidate_range: unknown type %d", pmap->pm_type));
2981
2982         if (pmap == kernel_pmap || pmap == PCPU_GET(curpmap)) {
2983                 for (addr = sva; addr < eva; addr += PAGE_SIZE)
2984                         invlpg(addr);
2985                 if (pmap == PCPU_GET(curpmap) && pmap_pcid_enabled &&
2986                     pmap->pm_ucr3 != PMAP_NO_CR3) {
2987                         critical_enter();
2988                         if (invpcid_works) {
2989                                 d.pcid = pmap->pm_pcids[0].pm_pcid |
2990                                     PMAP_PCID_USER_PT;
2991                                 d.pad = 0;
2992                                 d.addr = sva;
2993                                 for (; d.addr < eva; d.addr += PAGE_SIZE)
2994                                         invpcid(&d, INVPCID_ADDR);
2995                         } else {
2996                                 kcr3 = pmap->pm_cr3 | pmap->pm_pcids[0].
2997                                     pm_pcid | CR3_PCID_SAVE;
2998                                 ucr3 = pmap->pm_ucr3 | pmap->pm_pcids[0].
2999                                     pm_pcid | PMAP_PCID_USER_PT | CR3_PCID_SAVE;
3000                                 pmap_pti_pcid_invlrng(ucr3, kcr3, sva, eva);
3001                         }
3002                         critical_exit();
3003                 }
3004         } else if (pmap_pcid_enabled) {
3005                 pmap->pm_pcids[0].pm_gen = 0;
3006         }
3007 }
3008
3009 void
3010 pmap_invalidate_all(pmap_t pmap)
3011 {
3012         struct invpcid_descr d;
3013         uint64_t kcr3, ucr3;
3014
3015         if (pmap->pm_type == PT_RVI || pmap->pm_type == PT_EPT) {
3016                 pmap->pm_eptgen++;
3017                 return;
3018         }
3019         KASSERT(pmap->pm_type == PT_X86,
3020             ("pmap_invalidate_all: unknown type %d", pmap->pm_type));
3021
3022         if (pmap == kernel_pmap) {
3023                 if (pmap_pcid_enabled && invpcid_works) {
3024                         bzero(&d, sizeof(d));
3025                         invpcid(&d, INVPCID_CTXGLOB);
3026                 } else {
3027                         invltlb_glob();
3028                 }
3029         } else if (pmap == PCPU_GET(curpmap)) {
3030                 if (pmap_pcid_enabled) {
3031                         critical_enter();
3032                         if (invpcid_works) {
3033                                 d.pcid = pmap->pm_pcids[0].pm_pcid;
3034                                 d.pad = 0;
3035                                 d.addr = 0;
3036                                 invpcid(&d, INVPCID_CTX);
3037                                 if (pmap->pm_ucr3 != PMAP_NO_CR3) {
3038                                         d.pcid |= PMAP_PCID_USER_PT;
3039                                         invpcid(&d, INVPCID_CTX);
3040                                 }
3041                         } else {
3042                                 kcr3 = pmap->pm_cr3 | pmap->pm_pcids[0].pm_pcid;
3043                                 if (pmap->pm_ucr3 != PMAP_NO_CR3) {
3044                                         ucr3 = pmap->pm_ucr3 | pmap->pm_pcids[
3045                                             0].pm_pcid | PMAP_PCID_USER_PT;
3046                                         pmap_pti_pcid_invalidate(ucr3, kcr3);
3047                                 } else
3048                                         load_cr3(kcr3);
3049                         }
3050                         critical_exit();
3051                 } else {
3052                         invltlb();
3053                 }
3054         } else if (pmap_pcid_enabled) {
3055                 pmap->pm_pcids[0].pm_gen = 0;
3056         }
3057 }
3058
3059 PMAP_INLINE void
3060 pmap_invalidate_cache(void)
3061 {
3062
3063         wbinvd();
3064 }
3065
3066 static void
3067 pmap_update_pde(pmap_t pmap, vm_offset_t va, pd_entry_t *pde, pd_entry_t newpde)
3068 {
3069
3070         pmap_update_pde_store(pmap, pde, newpde);
3071         if (pmap == kernel_pmap || pmap == PCPU_GET(curpmap))
3072                 pmap_update_pde_invalidate(pmap, va, newpde);
3073         else
3074                 pmap->pm_pcids[0].pm_gen = 0;
3075 }
3076 #endif /* !SMP */
3077
3078 static void
3079 pmap_invalidate_pde_page(pmap_t pmap, vm_offset_t va, pd_entry_t pde)
3080 {
3081
3082         /*
3083          * When the PDE has PG_PROMOTED set, the 2MB page mapping was created
3084          * by a promotion that did not invalidate the 512 4KB page mappings
3085          * that might exist in the TLB.  Consequently, at this point, the TLB
3086          * may hold both 4KB and 2MB page mappings for the address range [va,
3087          * va + NBPDR).  Therefore, the entire range must be invalidated here.
3088          * In contrast, when PG_PROMOTED is clear, the TLB will not hold any
3089          * 4KB page mappings for the address range [va, va + NBPDR), and so a
3090          * single INVLPG suffices to invalidate the 2MB page mapping from the
3091          * TLB.
3092          */
3093         if ((pde & PG_PROMOTED) != 0)
3094                 pmap_invalidate_range(pmap, va, va + NBPDR - 1);
3095         else
3096                 pmap_invalidate_page(pmap, va);
3097 }
3098
3099 DEFINE_IFUNC(, void, pmap_invalidate_cache_range,
3100     (vm_offset_t sva, vm_offset_t eva))
3101 {
3102
3103         if ((cpu_feature & CPUID_SS) != 0)
3104                 return (pmap_invalidate_cache_range_selfsnoop);
3105         if ((cpu_feature & CPUID_CLFSH) != 0)
3106                 return (pmap_force_invalidate_cache_range);
3107         return (pmap_invalidate_cache_range_all);
3108 }
3109
3110 #define PMAP_CLFLUSH_THRESHOLD   (2 * 1024 * 1024)
3111
3112 static void
3113 pmap_invalidate_cache_range_check_align(vm_offset_t sva, vm_offset_t eva)
3114 {
3115
3116         KASSERT((sva & PAGE_MASK) == 0,
3117             ("pmap_invalidate_cache_range: sva not page-aligned"));
3118         KASSERT((eva & PAGE_MASK) == 0,
3119             ("pmap_invalidate_cache_range: eva not page-aligned"));
3120 }
3121
3122 static void
3123 pmap_invalidate_cache_range_selfsnoop(vm_offset_t sva, vm_offset_t eva)
3124 {
3125
3126         pmap_invalidate_cache_range_check_align(sva, eva);
3127 }
3128
3129 void
3130 pmap_force_invalidate_cache_range(vm_offset_t sva, vm_offset_t eva)
3131 {
3132
3133         sva &= ~(vm_offset_t)(cpu_clflush_line_size - 1);
3134
3135         /*
3136          * XXX: Some CPUs fault, hang, or trash the local APIC
3137          * registers if we use CLFLUSH on the local APIC range.  The
3138          * local APIC is always uncached, so we don't need to flush
3139          * for that range anyway.
3140          */
3141         if (pmap_kextract(sva) == lapic_paddr)
3142                 return;
3143
3144         if ((cpu_stdext_feature & CPUID_STDEXT_CLFLUSHOPT) != 0) {
3145                 /*
3146                  * Do per-cache line flush.  Use a locked
3147                  * instruction to insure that previous stores are
3148                  * included in the write-back.  The processor
3149                  * propagates flush to other processors in the cache
3150                  * coherence domain.
3151                  */
3152                 atomic_thread_fence_seq_cst();
3153                 for (; sva < eva; sva += cpu_clflush_line_size)
3154                         clflushopt(sva);
3155                 atomic_thread_fence_seq_cst();
3156         } else {
3157                 /*
3158                  * Writes are ordered by CLFLUSH on Intel CPUs.
3159                  */
3160                 if (cpu_vendor_id != CPU_VENDOR_INTEL)
3161                         mfence();
3162                 for (; sva < eva; sva += cpu_clflush_line_size)
3163                         clflush(sva);
3164                 if (cpu_vendor_id != CPU_VENDOR_INTEL)
3165                         mfence();
3166         }
3167 }
3168
3169 static void
3170 pmap_invalidate_cache_range_all(vm_offset_t sva, vm_offset_t eva)
3171 {
3172
3173         pmap_invalidate_cache_range_check_align(sva, eva);
3174         pmap_invalidate_cache();
3175 }
3176
3177 /*
3178  * Remove the specified set of pages from the data and instruction caches.
3179  *
3180  * In contrast to pmap_invalidate_cache_range(), this function does not
3181  * rely on the CPU's self-snoop feature, because it is intended for use
3182  * when moving pages into a different cache domain.
3183  */
3184 void
3185 pmap_invalidate_cache_pages(vm_page_t *pages, int count)
3186 {
3187         vm_offset_t daddr, eva;
3188         int i;
3189         bool useclflushopt;
3190
3191         useclflushopt = (cpu_stdext_feature & CPUID_STDEXT_CLFLUSHOPT) != 0;
3192         if (count >= PMAP_CLFLUSH_THRESHOLD / PAGE_SIZE ||
3193             ((cpu_feature & CPUID_CLFSH) == 0 && !useclflushopt))
3194                 pmap_invalidate_cache();
3195         else {
3196                 if (useclflushopt)
3197                         atomic_thread_fence_seq_cst();
3198                 else if (cpu_vendor_id != CPU_VENDOR_INTEL)
3199                         mfence();
3200                 for (i = 0; i < count; i++) {
3201                         daddr = PHYS_TO_DMAP(VM_PAGE_TO_PHYS(pages[i]));
3202                         eva = daddr + PAGE_SIZE;
3203                         for (; daddr < eva; daddr += cpu_clflush_line_size) {
3204                                 if (useclflushopt)
3205                                         clflushopt(daddr);
3206                                 else
3207                                         clflush(daddr);
3208                         }
3209                 }
3210                 if (useclflushopt)
3211                         atomic_thread_fence_seq_cst();
3212                 else if (cpu_vendor_id != CPU_VENDOR_INTEL)
3213                         mfence();
3214         }
3215 }
3216
3217 void
3218 pmap_flush_cache_range(vm_offset_t sva, vm_offset_t eva)
3219 {
3220
3221         pmap_invalidate_cache_range_check_align(sva, eva);
3222
3223         if ((cpu_stdext_feature & CPUID_STDEXT_CLWB) == 0) {
3224                 pmap_force_invalidate_cache_range(sva, eva);
3225                 return;
3226         }
3227
3228         /* See comment in pmap_force_invalidate_cache_range(). */
3229         if (pmap_kextract(sva) == lapic_paddr)
3230                 return;
3231
3232         atomic_thread_fence_seq_cst();
3233         for (; sva < eva; sva += cpu_clflush_line_size)
3234                 clwb(sva);
3235         atomic_thread_fence_seq_cst();
3236 }
3237
3238 void
3239 pmap_flush_cache_phys_range(vm_paddr_t spa, vm_paddr_t epa, vm_memattr_t mattr)
3240 {
3241         pt_entry_t *pte;
3242         vm_offset_t vaddr;
3243         int error, pte_bits;
3244
3245         KASSERT((spa & PAGE_MASK) == 0,
3246             ("pmap_flush_cache_phys_range: spa not page-aligned"));
3247         KASSERT((epa & PAGE_MASK) == 0,
3248             ("pmap_flush_cache_phys_range: epa not page-aligned"));
3249
3250         if (spa < dmaplimit) {
3251                 pmap_flush_cache_range(PHYS_TO_DMAP(spa), PHYS_TO_DMAP(MIN(
3252                     dmaplimit, epa)));
3253                 if (dmaplimit >= epa)
3254                         return;
3255                 spa = dmaplimit;
3256         }
3257
3258         pte_bits = pmap_cache_bits(kernel_pmap, mattr, 0) | X86_PG_RW |
3259             X86_PG_V;
3260         error = vmem_alloc(kernel_arena, PAGE_SIZE, M_BESTFIT | M_WAITOK,
3261             &vaddr);
3262         KASSERT(error == 0, ("vmem_alloc failed: %d", error));
3263         pte = vtopte(vaddr);
3264         for (; spa < epa; spa += PAGE_SIZE) {
3265                 sched_pin();
3266                 pte_store(pte, spa | pte_bits);
3267                 invlpg(vaddr);
3268                 /* XXXKIB atomic inside flush_cache_range are excessive */
3269                 pmap_flush_cache_range(vaddr, vaddr + PAGE_SIZE);
3270                 sched_unpin();
3271         }
3272         vmem_free(kernel_arena, vaddr, PAGE_SIZE);
3273 }
3274
3275 /*
3276  *      Routine:        pmap_extract
3277  *      Function:
3278  *              Extract the physical page address associated
3279  *              with the given map/virtual_address pair.
3280  */
3281 vm_paddr_t 
3282 pmap_extract(pmap_t pmap, vm_offset_t va)
3283 {
3284         pdp_entry_t *pdpe;
3285         pd_entry_t *pde;
3286         pt_entry_t *pte, PG_V;
3287         vm_paddr_t pa;
3288
3289         pa = 0;
3290         PG_V = pmap_valid_bit(pmap);
3291         PMAP_LOCK(pmap);
3292         pdpe = pmap_pdpe(pmap, va);
3293         if (pdpe != NULL && (*pdpe & PG_V) != 0) {
3294                 if ((*pdpe & PG_PS) != 0)
3295                         pa = (*pdpe & PG_PS_FRAME) | (va & PDPMASK);
3296                 else {
3297                         pde = pmap_pdpe_to_pde(pdpe, va);
3298                         if ((*pde & PG_V) != 0) {
3299                                 if ((*pde & PG_PS) != 0) {
3300                                         pa = (*pde & PG_PS_FRAME) |
3301                                             (va & PDRMASK);
3302                                 } else {
3303                                         pte = pmap_pde_to_pte(pde, va);
3304                                         pa = (*pte & PG_FRAME) |
3305                                             (va & PAGE_MASK);
3306                                 }
3307                         }
3308                 }
3309         }
3310         PMAP_UNLOCK(pmap);
3311         return (pa);
3312 }
3313
3314 /*
3315  *      Routine:        pmap_extract_and_hold
3316  *      Function:
3317  *              Atomically extract and hold the physical page
3318  *              with the given pmap and virtual address pair
3319  *              if that mapping permits the given protection.
3320  */
3321 vm_page_t
3322 pmap_extract_and_hold(pmap_t pmap, vm_offset_t va, vm_prot_t prot)
3323 {
3324         pd_entry_t pde, *pdep;
3325         pt_entry_t pte, PG_RW, PG_V;
3326         vm_page_t m;
3327
3328         m = NULL;
3329         PG_RW = pmap_rw_bit(pmap);
3330         PG_V = pmap_valid_bit(pmap);
3331
3332         PMAP_LOCK(pmap);
3333         pdep = pmap_pde(pmap, va);
3334         if (pdep != NULL && (pde = *pdep)) {
3335                 if (pde & PG_PS) {
3336                         if ((pde & PG_RW) != 0 || (prot & VM_PROT_WRITE) == 0)
3337                                 m = PHYS_TO_VM_PAGE((pde & PG_PS_FRAME) |
3338                                     (va & PDRMASK));
3339                 } else {
3340                         pte = *pmap_pde_to_pte(pdep, va);
3341                         if ((pte & PG_V) != 0 &&
3342                             ((pte & PG_RW) != 0 || (prot & VM_PROT_WRITE) == 0))
3343                                 m = PHYS_TO_VM_PAGE(pte & PG_FRAME);
3344                 }
3345                 if (m != NULL && !vm_page_wire_mapped(m))
3346                         m = NULL;
3347         }
3348         PMAP_UNLOCK(pmap);
3349         return (m);
3350 }
3351
3352 vm_paddr_t
3353 pmap_kextract(vm_offset_t va)
3354 {
3355         pd_entry_t pde;
3356         vm_paddr_t pa;
3357
3358         if (va >= DMAP_MIN_ADDRESS && va < DMAP_MAX_ADDRESS) {
3359                 pa = DMAP_TO_PHYS(va);
3360         } else if (PMAP_ADDRESS_IN_LARGEMAP(va)) {
3361                 pa = pmap_large_map_kextract(va);
3362         } else {
3363                 pde = *vtopde(va);
3364                 if (pde & PG_PS) {
3365                         pa = (pde & PG_PS_FRAME) | (va & PDRMASK);
3366                 } else {
3367                         /*
3368                          * Beware of a concurrent promotion that changes the
3369                          * PDE at this point!  For example, vtopte() must not
3370                          * be used to access the PTE because it would use the
3371                          * new PDE.  It is, however, safe to use the old PDE
3372                          * because the page table page is preserved by the
3373                          * promotion.
3374                          */
3375                         pa = *pmap_pde_to_pte(&pde, va);
3376                         pa = (pa & PG_FRAME) | (va & PAGE_MASK);
3377                 }
3378         }
3379         return (pa);
3380 }
3381
3382 /***************************************************
3383  * Low level mapping routines.....
3384  ***************************************************/
3385
3386 /*
3387  * Add a wired page to the kva.
3388  * Note: not SMP coherent.
3389  */
3390 PMAP_INLINE void 
3391 pmap_kenter(vm_offset_t va, vm_paddr_t pa)
3392 {
3393         pt_entry_t *pte;
3394
3395         pte = vtopte(va);
3396         pte_store(pte, pa | X86_PG_RW | X86_PG_V | pg_g | pg_nx);
3397 }
3398
3399 static __inline void
3400 pmap_kenter_attr(vm_offset_t va, vm_paddr_t pa, int mode)
3401 {
3402         pt_entry_t *pte;
3403         int cache_bits;
3404
3405         pte = vtopte(va);
3406         cache_bits = pmap_cache_bits(kernel_pmap, mode, 0);
3407         pte_store(pte, pa | X86_PG_RW | X86_PG_V | pg_g | pg_nx | cache_bits);
3408 }
3409
3410 /*
3411  * Remove a page from the kernel pagetables.
3412  * Note: not SMP coherent.
3413  */
3414 PMAP_INLINE void
3415 pmap_kremove(vm_offset_t va)
3416 {
3417         pt_entry_t *pte;
3418
3419         pte = vtopte(va);
3420         pte_clear(pte);
3421 }
3422
3423 /*
3424  *      Used to map a range of physical addresses into kernel
3425  *      virtual address space.
3426  *
3427  *      The value passed in '*virt' is a suggested virtual address for
3428  *      the mapping. Architectures which can support a direct-mapped
3429  *      physical to virtual region can return the appropriate address
3430  *      within that region, leaving '*virt' unchanged. Other
3431  *      architectures should map the pages starting at '*virt' and
3432  *      update '*virt' with the first usable address after the mapped
3433  *      region.
3434  */
3435 vm_offset_t
3436 pmap_map(vm_offset_t *virt, vm_paddr_t start, vm_paddr_t end, int prot)
3437 {
3438         return PHYS_TO_DMAP(start);
3439 }
3440
3441
3442 /*
3443  * Add a list of wired pages to the kva
3444  * this routine is only used for temporary
3445  * kernel mappings that do not need to have
3446  * page modification or references recorded.
3447  * Note that old mappings are simply written
3448  * over.  The page *must* be wired.
3449  * Note: SMP coherent.  Uses a ranged shootdown IPI.
3450  */
3451 void
3452 pmap_qenter(vm_offset_t sva, vm_page_t *ma, int count)
3453 {
3454         pt_entry_t *endpte, oldpte, pa, *pte;
3455         vm_page_t m;
3456         int cache_bits;
3457
3458         oldpte = 0;
3459         pte = vtopte(sva);
3460         endpte = pte + count;
3461         while (pte < endpte) {
3462                 m = *ma++;
3463                 cache_bits = pmap_cache_bits(kernel_pmap, m->md.pat_mode, 0);
3464                 pa = VM_PAGE_TO_PHYS(m) | cache_bits;
3465                 if ((*pte & (PG_FRAME | X86_PG_PTE_CACHE)) != pa) {
3466                         oldpte |= *pte;
3467                         pte_store(pte, pa | pg_g | pg_nx | X86_PG_RW | X86_PG_V);
3468                 }
3469                 pte++;
3470         }
3471         if (__predict_false((oldpte & X86_PG_V) != 0))
3472                 pmap_invalidate_range(kernel_pmap, sva, sva + count *
3473                     PAGE_SIZE);
3474 }
3475
3476 /*
3477  * This routine tears out page mappings from the
3478  * kernel -- it is meant only for temporary mappings.
3479  * Note: SMP coherent.  Uses a ranged shootdown IPI.
3480  */
3481 void
3482 pmap_qremove(vm_offset_t sva, int count)
3483 {
3484         vm_offset_t va;
3485
3486         va = sva;
3487         while (count-- > 0) {
3488                 KASSERT(va >= VM_MIN_KERNEL_ADDRESS, ("usermode va %lx", va));
3489                 pmap_kremove(va);
3490                 va += PAGE_SIZE;
3491         }
3492         pmap_invalidate_range(kernel_pmap, sva, va);
3493 }
3494
3495 /***************************************************
3496  * Page table page management routines.....
3497  ***************************************************/
3498 /*
3499  * Schedule the specified unused page table page to be freed.  Specifically,
3500  * add the page to the specified list of pages that will be released to the
3501  * physical memory manager after the TLB has been updated.
3502  */
3503 static __inline void
3504 pmap_add_delayed_free_list(vm_page_t m, struct spglist *free,
3505     boolean_t set_PG_ZERO)
3506 {
3507
3508         if (set_PG_ZERO)
3509                 m->flags |= PG_ZERO;
3510         else
3511                 m->flags &= ~PG_ZERO;
3512         SLIST_INSERT_HEAD(free, m, plinks.s.ss);
3513 }
3514         
3515 /*
3516  * Inserts the specified page table page into the specified pmap's collection
3517  * of idle page table pages.  Each of a pmap's page table pages is responsible
3518  * for mapping a distinct range of virtual addresses.  The pmap's collection is
3519  * ordered by this virtual address range.
3520  *
3521  * If "promoted" is false, then the page table page "mpte" must be zero filled.
3522  */
3523 static __inline int
3524 pmap_insert_pt_page(pmap_t pmap, vm_page_t mpte, bool promoted)
3525 {
3526
3527         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
3528         mpte->valid = promoted ? VM_PAGE_BITS_ALL : 0;
3529         return (vm_radix_insert(&pmap->pm_root, mpte));
3530 }
3531
3532 /*
3533  * Removes the page table page mapping the specified virtual address from the
3534  * specified pmap's collection of idle page table pages, and returns it.
3535  * Otherwise, returns NULL if there is no page table page corresponding to the
3536  * specified virtual address.
3537  */
3538 static __inline vm_page_t
3539 pmap_remove_pt_page(pmap_t pmap, vm_offset_t va)
3540 {
3541
3542         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
3543         return (vm_radix_remove(&pmap->pm_root, pmap_pde_pindex(va)));
3544 }
3545
3546 /*
3547  * Decrements a page table page's reference count, which is used to record the
3548  * number of valid page table entries within the page.  If the reference count
3549  * drops to zero, then the page table page is unmapped.  Returns TRUE if the
3550  * page table page was unmapped and FALSE otherwise.
3551  */
3552 static inline boolean_t
3553 pmap_unwire_ptp(pmap_t pmap, vm_offset_t va, vm_page_t m, struct spglist *free)
3554 {
3555
3556         --m->ref_count;
3557         if (m->ref_count == 0) {
3558                 _pmap_unwire_ptp(pmap, va, m, free);
3559                 return (TRUE);
3560         } else
3561                 return (FALSE);
3562 }
3563
3564 static void
3565 _pmap_unwire_ptp(pmap_t pmap, vm_offset_t va, vm_page_t m, struct spglist *free)
3566 {
3567
3568         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
3569         /*
3570          * unmap the page table page
3571          */
3572         if (m->pindex >= NUPDE + NUPDPE) {
3573                 /* PDP page */
3574                 pml4_entry_t *pml4;
3575                 pml4 = pmap_pml4e(pmap, va);
3576                 *pml4 = 0;
3577                 if (pmap->pm_pml4u != NULL && va <= VM_MAXUSER_ADDRESS) {
3578                         pml4 = &pmap->pm_pml4u[pmap_pml4e_index(va)];
3579                         *pml4 = 0;
3580                 }
3581         } else if (m->pindex >= NUPDE) {
3582                 /* PD page */
3583                 pdp_entry_t *pdp;
3584                 pdp = pmap_pdpe(pmap, va);
3585                 *pdp = 0;
3586         } else {
3587                 /* PTE page */
3588                 pd_entry_t *pd;
3589                 pd = pmap_pde(pmap, va);
3590                 *pd = 0;
3591         }
3592         pmap_resident_count_dec(pmap, 1);
3593         if (m->pindex < NUPDE) {
3594                 /* We just released a PT, unhold the matching PD */
3595                 vm_page_t pdpg;
3596
3597                 pdpg = PHYS_TO_VM_PAGE(*pmap_pdpe(pmap, va) & PG_FRAME);
3598                 pmap_unwire_ptp(pmap, va, pdpg, free);
3599         } else if (m->pindex < NUPDE + NUPDPE) {
3600                 /* We just released a PD, unhold the matching PDP */
3601                 vm_page_t pdppg;
3602
3603                 pdppg = PHYS_TO_VM_PAGE(*pmap_pml4e(pmap, va) & PG_FRAME);
3604                 pmap_unwire_ptp(pmap, va, pdppg, free);
3605         }
3606
3607         /* 
3608          * Put page on a list so that it is released after
3609          * *ALL* TLB shootdown is done
3610          */
3611         pmap_add_delayed_free_list(m, free, TRUE);
3612 }
3613
3614 /*
3615  * After removing a page table entry, this routine is used to
3616  * conditionally free the page, and manage the reference count.
3617  */
3618 static int
3619 pmap_unuse_pt(pmap_t pmap, vm_offset_t va, pd_entry_t ptepde,
3620     struct spglist *free)
3621 {
3622         vm_page_t mpte;
3623
3624         if (va >= VM_MAXUSER_ADDRESS)
3625                 return (0);
3626         KASSERT(ptepde != 0, ("pmap_unuse_pt: ptepde != 0"));
3627         mpte = PHYS_TO_VM_PAGE(ptepde & PG_FRAME);
3628         return (pmap_unwire_ptp(pmap, va, mpte, free));
3629 }
3630
3631 /*
3632  * Release a page table page reference after a failed attempt to create a
3633  * mapping.
3634  */
3635 static void
3636 pmap_abort_ptp(pmap_t pmap, vm_offset_t va, vm_page_t mpte)
3637 {
3638         struct spglist free;
3639
3640         SLIST_INIT(&free);
3641         if (pmap_unwire_ptp(pmap, va, mpte, &free)) {
3642                 /*
3643                  * Although "va" was never mapped, paging-structure caches
3644                  * could nonetheless have entries that refer to the freed
3645                  * page table pages.  Invalidate those entries.
3646                  */
3647                 pmap_invalidate_page(pmap, va);
3648                 vm_page_free_pages_toq(&free, true);
3649         }
3650 }
3651
3652 void
3653 pmap_pinit0(pmap_t pmap)
3654 {
3655         struct proc *p;
3656         struct thread *td;
3657         int i;
3658
3659         PMAP_LOCK_INIT(pmap);
3660         pmap->pm_pml4 = (pml4_entry_t *)PHYS_TO_DMAP(KPML4phys);
3661         pmap->pm_pml4u = NULL;
3662         pmap->pm_cr3 = KPML4phys;
3663         /* hack to keep pmap_pti_pcid_invalidate() alive */
3664         pmap->pm_ucr3 = PMAP_NO_CR3;
3665         pmap->pm_root.rt_root = 0;
3666         CPU_ZERO(&pmap->pm_active);
3667         TAILQ_INIT(&pmap->pm_pvchunk);
3668         bzero(&pmap->pm_stats, sizeof pmap->pm_stats);
3669         pmap->pm_flags = pmap_flags;
3670         CPU_FOREACH(i) {
3671                 pmap->pm_pcids[i].pm_pcid = PMAP_PCID_KERN + 1;
3672                 pmap->pm_pcids[i].pm_gen = 1;
3673         }
3674         pmap_activate_boot(pmap);
3675         td = curthread;
3676         if (pti) {
3677                 p = td->td_proc;
3678                 PROC_LOCK(p);
3679                 p->p_md.md_flags |= P_MD_KPTI;
3680                 PROC_UNLOCK(p);
3681         }
3682         pmap_thread_init_invl_gen(td);
3683
3684         if ((cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0) {
3685                 pmap_pkru_ranges_zone = uma_zcreate("pkru ranges",
3686                     sizeof(struct pmap_pkru_range), NULL, NULL, NULL, NULL,
3687                     UMA_ALIGN_PTR, 0);
3688         }
3689 }
3690
3691 void
3692 pmap_pinit_pml4(vm_page_t pml4pg)
3693 {
3694         pml4_entry_t *pm_pml4;
3695         int i;
3696
3697         pm_pml4 = (pml4_entry_t *)PHYS_TO_DMAP(VM_PAGE_TO_PHYS(pml4pg));
3698
3699         /* Wire in kernel global address entries. */
3700         for (i = 0; i < NKPML4E; i++) {
3701                 pm_pml4[KPML4BASE + i] = (KPDPphys + ptoa(i)) | X86_PG_RW |
3702                     X86_PG_V;
3703         }
3704         for (i = 0; i < ndmpdpphys; i++) {
3705                 pm_pml4[DMPML4I + i] = (DMPDPphys + ptoa(i)) | X86_PG_RW |
3706                     X86_PG_V;
3707         }
3708
3709         /* install self-referential address mapping entry(s) */
3710         pm_pml4[PML4PML4I] = VM_PAGE_TO_PHYS(pml4pg) | X86_PG_V | X86_PG_RW |
3711             X86_PG_A | X86_PG_M;
3712
3713         /* install large map entries if configured */
3714         for (i = 0; i < lm_ents; i++)
3715                 pm_pml4[LMSPML4I + i] = kernel_pmap->pm_pml4[LMSPML4I + i];
3716 }
3717
3718 static void
3719 pmap_pinit_pml4_pti(vm_page_t pml4pg)
3720 {
3721         pml4_entry_t *pm_pml4;
3722         int i;
3723
3724         pm_pml4 = (pml4_entry_t *)PHYS_TO_DMAP(VM_PAGE_TO_PHYS(pml4pg));
3725         for (i = 0; i < NPML4EPG; i++)
3726                 pm_pml4[i] = pti_pml4[i];
3727 }
3728
3729 /*
3730  * Initialize a preallocated and zeroed pmap structure,
3731  * such as one in a vmspace structure.
3732  */
3733 int
3734 pmap_pinit_type(pmap_t pmap, enum pmap_type pm_type, int flags)
3735 {
3736         vm_page_t pml4pg, pml4pgu;
3737         vm_paddr_t pml4phys;
3738         int i;
3739
3740         /*
3741          * allocate the page directory page
3742          */
3743         pml4pg = vm_page_alloc(NULL, 0, VM_ALLOC_NORMAL | VM_ALLOC_NOOBJ |
3744             VM_ALLOC_WIRED | VM_ALLOC_ZERO | VM_ALLOC_WAITOK);
3745
3746         pml4phys = VM_PAGE_TO_PHYS(pml4pg);
3747         pmap->pm_pml4 = (pml4_entry_t *)PHYS_TO_DMAP(pml4phys);
3748         CPU_FOREACH(i) {
3749                 pmap->pm_pcids[i].pm_pcid = PMAP_PCID_NONE;
3750                 pmap->pm_pcids[i].pm_gen = 0;
3751         }
3752         pmap->pm_cr3 = PMAP_NO_CR3;     /* initialize to an invalid value */
3753         pmap->pm_ucr3 = PMAP_NO_CR3;
3754         pmap->pm_pml4u = NULL;
3755
3756         pmap->pm_type = pm_type;
3757         if ((pml4pg->flags & PG_ZERO) == 0)
3758                 pagezero(pmap->pm_pml4);
3759
3760         /*
3761          * Do not install the host kernel mappings in the nested page
3762          * tables. These mappings are meaningless in the guest physical
3763          * address space.
3764          * Install minimal kernel mappings in PTI case.
3765          */
3766         if (pm_type == PT_X86) {
3767                 pmap->pm_cr3 = pml4phys;
3768                 pmap_pinit_pml4(pml4pg);
3769                 if ((curproc->p_md.md_flags & P_MD_KPTI) != 0) {
3770                         pml4pgu = vm_page_alloc(NULL, 0, VM_ALLOC_NORMAL |
3771                             VM_ALLOC_NOOBJ | VM_ALLOC_WIRED | VM_ALLOC_WAITOK);
3772                         pmap->pm_pml4u = (pml4_entry_t *)PHYS_TO_DMAP(
3773                             VM_PAGE_TO_PHYS(pml4pgu));
3774                         pmap_pinit_pml4_pti(pml4pgu);
3775                         pmap->pm_ucr3 = VM_PAGE_TO_PHYS(pml4pgu);
3776                 }
3777                 if ((cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0) {
3778                         rangeset_init(&pmap->pm_pkru, pkru_dup_range,
3779                             pkru_free_range, pmap, M_NOWAIT);
3780                 }
3781         }
3782
3783         pmap->pm_root.rt_root = 0;
3784         CPU_ZERO(&pmap->pm_active);
3785         TAILQ_INIT(&pmap->pm_pvchunk);
3786         bzero(&pmap->pm_stats, sizeof pmap->pm_stats);
3787         pmap->pm_flags = flags;
3788         pmap->pm_eptgen = 0;
3789
3790         return (1);
3791 }
3792
3793 int
3794 pmap_pinit(pmap_t pmap)
3795 {
3796
3797         return (pmap_pinit_type(pmap, PT_X86, pmap_flags));
3798 }
3799
3800 /*
3801  * This routine is called if the desired page table page does not exist.
3802  *
3803  * If page table page allocation fails, this routine may sleep before
3804  * returning NULL.  It sleeps only if a lock pointer was given.
3805  *
3806  * Note: If a page allocation fails at page table level two or three,
3807  * one or two pages may be held during the wait, only to be released
3808  * afterwards.  This conservative approach is easily argued to avoid
3809  * race conditions.
3810  *
3811  * The ptepindexes, i.e. page indices, of the page table pages encountered
3812  * while translating virtual address va are defined as follows:
3813  * - for the page table page (last level),
3814  *      ptepindex = pmap_pde_pindex(va) = va >> PDRSHIFT,
3815  *   in other words, it is just the index of the PDE that maps the page
3816  *   table page.
3817  * - for the page directory page,
3818  *      ptepindex = NUPDE (number of userland PD entries) +
3819  *          (pmap_pde_index(va) >> NPDEPGSHIFT)
3820  *   i.e. index of PDPE is put after the last index of PDE,
3821  * - for the page directory pointer page,
3822  *      ptepindex = NUPDE + NUPDPE + (pmap_pde_index(va) >> (NPDEPGSHIFT +
3823  *          NPML4EPGSHIFT),
3824  *   i.e. index of pml4e is put after the last index of PDPE.
3825  *
3826  * Define an order on the paging entries, where all entries of the
3827  * same height are put together, then heights are put from deepest to
3828  * root.  Then ptexpindex is the sequential number of the
3829  * corresponding paging entry in this order.
3830  *
3831  * The root page at PML4 does not participate in this indexing scheme, since
3832  * it is statically allocated by pmap_pinit() and not by _pmap_allocpte().
3833  */
3834 static vm_page_t
3835 _pmap_allocpte(pmap_t pmap, vm_pindex_t ptepindex, struct rwlock **lockp)
3836 {
3837         vm_page_t m, pdppg, pdpg;
3838         pt_entry_t PG_A, PG_M, PG_RW, PG_V;
3839
3840         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
3841
3842         PG_A = pmap_accessed_bit(pmap);
3843         PG_M = pmap_modified_bit(pmap);
3844         PG_V = pmap_valid_bit(pmap);
3845         PG_RW = pmap_rw_bit(pmap);
3846
3847         /*
3848          * Allocate a page table page.
3849          */
3850         if ((m = vm_page_alloc(NULL, ptepindex, VM_ALLOC_NOOBJ |
3851             VM_ALLOC_WIRED | VM_ALLOC_ZERO)) == NULL) {
3852                 if (lockp != NULL) {
3853                         RELEASE_PV_LIST_LOCK(lockp);
3854                         PMAP_UNLOCK(pmap);
3855                         PMAP_ASSERT_NOT_IN_DI();
3856                         vm_wait(NULL);
3857                         PMAP_LOCK(pmap);
3858                 }
3859
3860                 /*
3861                  * Indicate the need to retry.  While waiting, the page table
3862                  * page may have been allocated.
3863                  */
3864                 return (NULL);
3865         }
3866         if ((m->flags & PG_ZERO) == 0)
3867                 pmap_zero_page(m);
3868
3869         /*
3870          * Map the pagetable page into the process address space, if
3871          * it isn't already there.
3872          */
3873
3874         if (ptepindex >= (NUPDE + NUPDPE)) {
3875                 pml4_entry_t *pml4, *pml4u;
3876                 vm_pindex_t pml4index;
3877
3878                 /* Wire up a new PDPE page */
3879                 pml4index = ptepindex - (NUPDE + NUPDPE);
3880                 pml4 = &pmap->pm_pml4[pml4index];
3881                 *pml4 = VM_PAGE_TO_PHYS(m) | PG_U | PG_RW | PG_V | PG_A | PG_M;
3882                 if (pmap->pm_pml4u != NULL && pml4index < NUPML4E) {
3883                         /*
3884                          * PTI: Make all user-space mappings in the
3885                          * kernel-mode page table no-execute so that
3886                          * we detect any programming errors that leave
3887                          * the kernel-mode page table active on return
3888                          * to user space.
3889                          */
3890                         if (pmap->pm_ucr3 != PMAP_NO_CR3)
3891                                 *pml4 |= pg_nx;
3892
3893                         pml4u = &pmap->pm_pml4u[pml4index];
3894                         *pml4u = VM_PAGE_TO_PHYS(m) | PG_U | PG_RW | PG_V |
3895                             PG_A | PG_M;
3896                 }
3897
3898         } else if (ptepindex >= NUPDE) {
3899                 vm_pindex_t pml4index;
3900                 vm_pindex_t pdpindex;
3901                 pml4_entry_t *pml4;
3902                 pdp_entry_t *pdp;
3903
3904                 /* Wire up a new PDE page */
3905                 pdpindex = ptepindex - NUPDE;
3906                 pml4index = pdpindex >> NPML4EPGSHIFT;
3907
3908                 pml4 = &pmap->pm_pml4[pml4index];
3909                 if ((*pml4 & PG_V) == 0) {
3910                         /* Have to allocate a new pdp, recurse */
3911                         if (_pmap_allocpte(pmap, NUPDE + NUPDPE + pml4index,
3912                             lockp) == NULL) {
3913                                 vm_page_unwire_noq(m);
3914                                 vm_page_free_zero(m);
3915                                 return (NULL);
3916                         }
3917                 } else {
3918                         /* Add reference to pdp page */
3919                         pdppg = PHYS_TO_VM_PAGE(*pml4 & PG_FRAME);
3920                         pdppg->ref_count++;
3921                 }
3922                 pdp = (pdp_entry_t *)PHYS_TO_DMAP(*pml4 & PG_FRAME);
3923
3924                 /* Now find the pdp page */
3925                 pdp = &pdp[pdpindex & ((1ul << NPDPEPGSHIFT) - 1)];
3926                 *pdp = VM_PAGE_TO_PHYS(m) | PG_U | PG_RW | PG_V | PG_A | PG_M;
3927
3928         } else {
3929                 vm_pindex_t pml4index;
3930                 vm_pindex_t pdpindex;
3931                 pml4_entry_t *pml4;
3932                 pdp_entry_t *pdp;
3933                 pd_entry_t *pd;
3934
3935                 /* Wire up a new PTE page */
3936                 pdpindex = ptepindex >> NPDPEPGSHIFT;
3937                 pml4index = pdpindex >> NPML4EPGSHIFT;
3938
3939                 /* First, find the pdp and check that its valid. */
3940                 pml4 = &pmap->pm_pml4[pml4index];
3941                 if ((*pml4 & PG_V) == 0) {
3942                         /* Have to allocate a new pd, recurse */
3943                         if (_pmap_allocpte(pmap, NUPDE + pdpindex,
3944                             lockp) == NULL) {
3945                                 vm_page_unwire_noq(m);
3946                                 vm_page_free_zero(m);
3947                                 return (NULL);
3948                         }
3949                         pdp = (pdp_entry_t *)PHYS_TO_DMAP(*pml4 & PG_FRAME);
3950                         pdp = &pdp[pdpindex & ((1ul << NPDPEPGSHIFT) - 1)];
3951                 } else {
3952                         pdp = (pdp_entry_t *)PHYS_TO_DMAP(*pml4 & PG_FRAME);
3953                         pdp = &pdp[pdpindex & ((1ul << NPDPEPGSHIFT) - 1)];
3954                         if ((*pdp & PG_V) == 0) {
3955                                 /* Have to allocate a new pd, recurse */
3956                                 if (_pmap_allocpte(pmap, NUPDE + pdpindex,
3957                                     lockp) == NULL) {
3958                                         vm_page_unwire_noq(m);
3959                                         vm_page_free_zero(m);
3960                                         return (NULL);
3961                                 }
3962                         } else {
3963                                 /* Add reference to the pd page */
3964                                 pdpg = PHYS_TO_VM_PAGE(*pdp & PG_FRAME);
3965                                 pdpg->ref_count++;
3966                         }
3967                 }
3968                 pd = (pd_entry_t *)PHYS_TO_DMAP(*pdp & PG_FRAME);
3969
3970                 /* Now we know where the page directory page is */
3971                 pd = &pd[ptepindex & ((1ul << NPDEPGSHIFT) - 1)];
3972                 *pd = VM_PAGE_TO_PHYS(m) | PG_U | PG_RW | PG_V | PG_A | PG_M;
3973         }
3974
3975         pmap_resident_count_inc(pmap, 1);
3976
3977         return (m);
3978 }
3979
3980 static pd_entry_t *
3981 pmap_alloc_pde(pmap_t pmap, vm_offset_t va, vm_page_t *pdpgp,
3982     struct rwlock **lockp)
3983 {
3984         pdp_entry_t *pdpe, PG_V;
3985         pd_entry_t *pde;
3986         vm_page_t pdpg;
3987         vm_pindex_t pdpindex;
3988
3989         PG_V = pmap_valid_bit(pmap);
3990
3991 retry:
3992         pdpe = pmap_pdpe(pmap, va);
3993         if (pdpe != NULL && (*pdpe & PG_V) != 0) {
3994                 pde = pmap_pdpe_to_pde(pdpe, va);
3995                 if (va < VM_MAXUSER_ADDRESS) {
3996                         /* Add a reference to the pd page. */
3997                         pdpg = PHYS_TO_VM_PAGE(*pdpe & PG_FRAME);
3998                         pdpg->ref_count++;
3999                 } else
4000                         pdpg = NULL;
4001         } else if (va < VM_MAXUSER_ADDRESS) {
4002                 /* Allocate a pd page. */
4003                 pdpindex = pmap_pde_pindex(va) >> NPDPEPGSHIFT;
4004                 pdpg = _pmap_allocpte(pmap, NUPDE + pdpindex, lockp);
4005                 if (pdpg == NULL) {
4006                         if (lockp != NULL)
4007                                 goto retry;
4008                         else
4009                                 return (NULL);
4010                 }
4011                 pde = (pd_entry_t *)PHYS_TO_DMAP(VM_PAGE_TO_PHYS(pdpg));
4012                 pde = &pde[pmap_pde_index(va)];
4013         } else
4014                 panic("pmap_alloc_pde: missing page table page for va %#lx",
4015                     va);
4016         *pdpgp = pdpg;
4017         return (pde);
4018 }
4019
4020 static vm_page_t
4021 pmap_allocpte(pmap_t pmap, vm_offset_t va, struct rwlock **lockp)
4022 {
4023         vm_pindex_t ptepindex;
4024         pd_entry_t *pd, PG_V;
4025         vm_page_t m;
4026
4027         PG_V = pmap_valid_bit(pmap);
4028
4029         /*
4030          * Calculate pagetable page index
4031          */
4032         ptepindex = pmap_pde_pindex(va);
4033 retry:
4034         /*
4035          * Get the page directory entry
4036          */
4037         pd = pmap_pde(pmap, va);
4038
4039         /*
4040          * This supports switching from a 2MB page to a
4041          * normal 4K page.
4042          */
4043         if (pd != NULL && (*pd & (PG_PS | PG_V)) == (PG_PS | PG_V)) {
4044                 if (!pmap_demote_pde_locked(pmap, pd, va, lockp)) {
4045                         /*
4046                          * Invalidation of the 2MB page mapping may have caused
4047                          * the deallocation of the underlying PD page.
4048                          */
4049                         pd = NULL;
4050                 }
4051         }
4052
4053         /*
4054          * If the page table page is mapped, we just increment the
4055          * hold count, and activate it.
4056          */
4057         if (pd != NULL && (*pd & PG_V) != 0) {
4058                 m = PHYS_TO_VM_PAGE(*pd & PG_FRAME);
4059                 m->ref_count++;
4060         } else {
4061                 /*
4062                  * Here if the pte page isn't mapped, or if it has been
4063                  * deallocated.
4064                  */
4065                 m = _pmap_allocpte(pmap, ptepindex, lockp);
4066                 if (m == NULL && lockp != NULL)
4067                         goto retry;
4068         }
4069         return (m);
4070 }
4071
4072
4073 /***************************************************
4074  * Pmap allocation/deallocation routines.
4075  ***************************************************/
4076
4077 /*
4078  * Release any resources held by the given physical map.
4079  * Called when a pmap initialized by pmap_pinit is being released.
4080  * Should only be called if the map contains no valid mappings.
4081  */
4082 void
4083 pmap_release(pmap_t pmap)
4084 {
4085         vm_page_t m;
4086         int i;
4087
4088         KASSERT(pmap->pm_stats.resident_count == 0,
4089             ("pmap_release: pmap resident count %ld != 0",
4090             pmap->pm_stats.resident_count));
4091         KASSERT(vm_radix_is_empty(&pmap->pm_root),
4092             ("pmap_release: pmap has reserved page table page(s)"));
4093         KASSERT(CPU_EMPTY(&pmap->pm_active),
4094             ("releasing active pmap %p", pmap));
4095
4096         m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((vm_offset_t)pmap->pm_pml4));
4097
4098         for (i = 0; i < NKPML4E; i++)   /* KVA */
4099                 pmap->pm_pml4[KPML4BASE + i] = 0;
4100         for (i = 0; i < ndmpdpphys; i++)/* Direct Map */
4101                 pmap->pm_pml4[DMPML4I + i] = 0;
4102         pmap->pm_pml4[PML4PML4I] = 0;   /* Recursive Mapping */
4103         for (i = 0; i < lm_ents; i++)   /* Large Map */
4104                 pmap->pm_pml4[LMSPML4I + i] = 0;
4105
4106         vm_page_unwire_noq(m);
4107         vm_page_free_zero(m);
4108
4109         if (pmap->pm_pml4u != NULL) {
4110                 m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((vm_offset_t)pmap->pm_pml4u));
4111                 vm_page_unwire_noq(m);
4112                 vm_page_free(m);
4113         }
4114         if (pmap->pm_type == PT_X86 &&
4115             (cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0)
4116                 rangeset_fini(&pmap->pm_pkru);
4117 }
4118
4119 static int
4120 kvm_size(SYSCTL_HANDLER_ARGS)
4121 {
4122         unsigned long ksize = VM_MAX_KERNEL_ADDRESS - VM_MIN_KERNEL_ADDRESS;
4123
4124         return sysctl_handle_long(oidp, &ksize, 0, req);
4125 }
4126 SYSCTL_PROC(_vm, OID_AUTO, kvm_size, CTLTYPE_LONG | CTLFLAG_RD | CTLFLAG_MPSAFE,
4127     0, 0, kvm_size, "LU",
4128     "Size of KVM");
4129
4130 static int
4131 kvm_free(SYSCTL_HANDLER_ARGS)
4132 {
4133         unsigned long kfree = VM_MAX_KERNEL_ADDRESS - kernel_vm_end;
4134
4135         return sysctl_handle_long(oidp, &kfree, 0, req);
4136 }
4137 SYSCTL_PROC(_vm, OID_AUTO, kvm_free, CTLTYPE_LONG | CTLFLAG_RD | CTLFLAG_MPSAFE,
4138     0, 0, kvm_free, "LU",
4139     "Amount of KVM free");
4140
4141 /*
4142  * Allocate physical memory for the vm_page array and map it into KVA,
4143  * attempting to back the vm_pages with domain-local memory.
4144  */
4145 void
4146 pmap_page_array_startup(long pages)
4147 {
4148         pdp_entry_t *pdpe;
4149         pd_entry_t *pde, newpdir;
4150         vm_offset_t va, start, end;
4151         vm_paddr_t pa;
4152         long pfn;
4153         int domain, i;
4154
4155         vm_page_array_size = pages;
4156
4157         start = VM_MIN_KERNEL_ADDRESS;
4158         end = start + pages * sizeof(struct vm_page);
4159         for (va = start; va < end; va += NBPDR) {
4160                 pfn = first_page + (va - start) / sizeof(struct vm_page);
4161                 domain = _vm_phys_domain(ptoa(pfn));
4162                 pdpe = pmap_pdpe(kernel_pmap, va);
4163                 if ((*pdpe & X86_PG_V) == 0) {
4164                         pa = vm_phys_early_alloc(domain, PAGE_SIZE);
4165                         dump_add_page(pa);
4166                         pagezero((void *)PHYS_TO_DMAP(pa));
4167                         *pdpe = (pdp_entry_t)(pa | X86_PG_V | X86_PG_RW |
4168                             X86_PG_A | X86_PG_M);
4169                 }
4170                 pde = pmap_pdpe_to_pde(pdpe, va);
4171                 if ((*pde & X86_PG_V) != 0)
4172                         panic("Unexpected pde");
4173                 pa = vm_phys_early_alloc(domain, NBPDR);
4174                 for (i = 0; i < NPDEPG; i++)
4175                         dump_add_page(pa + i * PAGE_SIZE);
4176                 newpdir = (pd_entry_t)(pa | X86_PG_V | X86_PG_RW | X86_PG_A |
4177                     X86_PG_M | PG_PS | pg_g | pg_nx);
4178                 pde_store(pde, newpdir);
4179         }
4180         vm_page_array = (vm_page_t)start;
4181 }
4182
4183 /*
4184  * grow the number of kernel page table entries, if needed
4185  */
4186 void
4187 pmap_growkernel(vm_offset_t addr)
4188 {
4189         vm_paddr_t paddr;
4190         vm_page_t nkpg;
4191         pd_entry_t *pde, newpdir;
4192         pdp_entry_t *pdpe;
4193
4194         mtx_assert(&kernel_map->system_mtx, MA_OWNED);
4195
4196         /*
4197          * Return if "addr" is within the range of kernel page table pages
4198          * that were preallocated during pmap bootstrap.  Moreover, leave
4199          * "kernel_vm_end" and the kernel page table as they were.
4200          *
4201          * The correctness of this action is based on the following
4202          * argument: vm_map_insert() allocates contiguous ranges of the
4203          * kernel virtual address space.  It calls this function if a range
4204          * ends after "kernel_vm_end".  If the kernel is mapped between
4205          * "kernel_vm_end" and "addr", then the range cannot begin at
4206          * "kernel_vm_end".  In fact, its beginning address cannot be less
4207          * than the kernel.  Thus, there is no immediate need to allocate
4208          * any new kernel page table pages between "kernel_vm_end" and
4209          * "KERNBASE".
4210          */
4211         if (KERNBASE < addr && addr <= KERNBASE + nkpt * NBPDR)
4212                 return;
4213
4214         addr = roundup2(addr, NBPDR);
4215         if (addr - 1 >= vm_map_max(kernel_map))
4216                 addr = vm_map_max(kernel_map);
4217         while (kernel_vm_end < addr) {
4218                 pdpe = pmap_pdpe(kernel_pmap, kernel_vm_end);
4219                 if ((*pdpe & X86_PG_V) == 0) {
4220                         /* We need a new PDP entry */
4221                         nkpg = vm_page_alloc(NULL, kernel_vm_end >> PDPSHIFT,
4222                             VM_ALLOC_INTERRUPT | VM_ALLOC_NOOBJ |
4223                             VM_ALLOC_WIRED | VM_ALLOC_ZERO);
4224                         if (nkpg == NULL)
4225                                 panic("pmap_growkernel: no memory to grow kernel");
4226                         if ((nkpg->flags & PG_ZERO) == 0)
4227                                 pmap_zero_page(nkpg);
4228                         paddr = VM_PAGE_TO_PHYS(nkpg);
4229                         *pdpe = (pdp_entry_t)(paddr | X86_PG_V | X86_PG_RW |
4230                             X86_PG_A | X86_PG_M);
4231                         continue; /* try again */
4232                 }
4233                 pde = pmap_pdpe_to_pde(pdpe, kernel_vm_end);
4234                 if ((*pde & X86_PG_V) != 0) {
4235                         kernel_vm_end = (kernel_vm_end + NBPDR) & ~PDRMASK;
4236                         if (kernel_vm_end - 1 >= vm_map_max(kernel_map)) {
4237                                 kernel_vm_end = vm_map_max(kernel_map);
4238                                 break;                       
4239                         }
4240                         continue;
4241                 }
4242
4243                 nkpg = vm_page_alloc(NULL, pmap_pde_pindex(kernel_vm_end),
4244                     VM_ALLOC_INTERRUPT | VM_ALLOC_NOOBJ | VM_ALLOC_WIRED |
4245                     VM_ALLOC_ZERO);
4246                 if (nkpg == NULL)
4247                         panic("pmap_growkernel: no memory to grow kernel");
4248                 if ((nkpg->flags & PG_ZERO) == 0)
4249                         pmap_zero_page(nkpg);
4250                 paddr = VM_PAGE_TO_PHYS(nkpg);
4251                 newpdir = paddr | X86_PG_V | X86_PG_RW | X86_PG_A | X86_PG_M;
4252                 pde_store(pde, newpdir);
4253
4254                 kernel_vm_end = (kernel_vm_end + NBPDR) & ~PDRMASK;
4255                 if (kernel_vm_end - 1 >= vm_map_max(kernel_map)) {
4256                         kernel_vm_end = vm_map_max(kernel_map);
4257                         break;                       
4258                 }
4259         }
4260 }
4261
4262
4263 /***************************************************
4264  * page management routines.
4265  ***************************************************/
4266
4267 CTASSERT(sizeof(struct pv_chunk) == PAGE_SIZE);
4268 CTASSERT(_NPCM == 3);
4269 CTASSERT(_NPCPV == 168);
4270
4271 static __inline struct pv_chunk *
4272 pv_to_chunk(pv_entry_t pv)
4273 {
4274
4275         return ((struct pv_chunk *)((uintptr_t)pv & ~(uintptr_t)PAGE_MASK));
4276 }
4277
4278 #define PV_PMAP(pv) (pv_to_chunk(pv)->pc_pmap)
4279
4280 #define PC_FREE0        0xfffffffffffffffful
4281 #define PC_FREE1        0xfffffffffffffffful
4282 #define PC_FREE2        0x000000fffffffffful
4283
4284 static const uint64_t pc_freemask[_NPCM] = { PC_FREE0, PC_FREE1, PC_FREE2 };
4285
4286 #ifdef PV_STATS
4287 static int pc_chunk_count, pc_chunk_allocs, pc_chunk_frees, pc_chunk_tryfail;
4288
4289 SYSCTL_INT(_vm_pmap, OID_AUTO, pc_chunk_count, CTLFLAG_RD, &pc_chunk_count, 0,
4290         "Current number of pv entry chunks");
4291 SYSCTL_INT(_vm_pmap, OID_AUTO, pc_chunk_allocs, CTLFLAG_RD, &pc_chunk_allocs, 0,
4292         "Current number of pv entry chunks allocated");
4293 SYSCTL_INT(_vm_pmap, OID_AUTO, pc_chunk_frees, CTLFLAG_RD, &pc_chunk_frees, 0,
4294         "Current number of pv entry chunks frees");
4295 SYSCTL_INT(_vm_pmap, OID_AUTO, pc_chunk_tryfail, CTLFLAG_RD, &pc_chunk_tryfail, 0,
4296         "Number of times tried to get a chunk page but failed.");
4297
4298 static long pv_entry_frees, pv_entry_allocs, pv_entry_count;
4299 static int pv_entry_spare;
4300
4301 SYSCTL_LONG(_vm_pmap, OID_AUTO, pv_entry_frees, CTLFLAG_RD, &pv_entry_frees, 0,
4302         "Current number of pv entry frees");
4303 SYSCTL_LONG(_vm_pmap, OID_AUTO, pv_entry_allocs, CTLFLAG_RD, &pv_entry_allocs, 0,
4304         "Current number of pv entry allocs");
4305 SYSCTL_LONG(_vm_pmap, OID_AUTO, pv_entry_count, CTLFLAG_RD, &pv_entry_count, 0,
4306         "Current number of pv entries");
4307 SYSCTL_INT(_vm_pmap, OID_AUTO, pv_entry_spare, CTLFLAG_RD, &pv_entry_spare, 0,
4308         "Current number of spare pv entries");
4309 #endif
4310
4311 static void
4312 reclaim_pv_chunk_leave_pmap(pmap_t pmap, pmap_t locked_pmap, bool start_di)
4313 {
4314
4315         if (pmap == NULL)
4316                 return;
4317         pmap_invalidate_all(pmap);
4318         if (pmap != locked_pmap)
4319                 PMAP_UNLOCK(pmap);
4320         if (start_di)
4321                 pmap_delayed_invl_finish();
4322 }
4323
4324 /*
4325  * We are in a serious low memory condition.  Resort to
4326  * drastic measures to free some pages so we can allocate
4327  * another pv entry chunk.
4328  *
4329  * Returns NULL if PV entries were reclaimed from the specified pmap.
4330  *
4331  * We do not, however, unmap 2mpages because subsequent accesses will
4332  * allocate per-page pv entries until repromotion occurs, thereby
4333  * exacerbating the shortage of free pv entries.
4334  */
4335 static vm_page_t
4336 reclaim_pv_chunk_domain(pmap_t locked_pmap, struct rwlock **lockp, int domain)
4337 {
4338         struct pv_chunks_list *pvc;
4339         struct pv_chunk *pc, *pc_marker, *pc_marker_end;
4340         struct pv_chunk_header pc_marker_b, pc_marker_end_b;
4341         struct md_page *pvh;
4342         pd_entry_t *pde;
4343         pmap_t next_pmap, pmap;
4344         pt_entry_t *pte, tpte;
4345         pt_entry_t PG_G, PG_A, PG_M, PG_RW;
4346         pv_entry_t pv;
4347         vm_offset_t va;
4348         vm_page_t m, m_pc;
4349         struct spglist free;
4350         uint64_t inuse;
4351         int bit, field, freed;
4352         bool start_di, restart;
4353
4354         PMAP_LOCK_ASSERT(locked_pmap, MA_OWNED);
4355         KASSERT(lockp != NULL, ("reclaim_pv_chunk: lockp is NULL"));
4356         pmap = NULL;
4357         m_pc = NULL;
4358         PG_G = PG_A = PG_M = PG_RW = 0;
4359         SLIST_INIT(&free);
4360         bzero(&pc_marker_b, sizeof(pc_marker_b));
4361         bzero(&pc_marker_end_b, sizeof(pc_marker_end_b));
4362         pc_marker = (struct pv_chunk *)&pc_marker_b;
4363         pc_marker_end = (struct pv_chunk *)&pc_marker_end_b;
4364
4365         /*
4366          * A delayed invalidation block should already be active if
4367          * pmap_advise() or pmap_remove() called this function by way
4368          * of pmap_demote_pde_locked().
4369          */
4370         start_di = pmap_not_in_di();
4371
4372         pvc = &pv_chunks[domain];
4373         mtx_lock(&pvc->pvc_lock);
4374         pvc->active_reclaims++;
4375         TAILQ_INSERT_HEAD(&pvc->pvc_list, pc_marker, pc_lru);
4376         TAILQ_INSERT_TAIL(&pvc->pvc_list, pc_marker_end, pc_lru);
4377         while ((pc = TAILQ_NEXT(pc_marker, pc_lru)) != pc_marker_end &&
4378             SLIST_EMPTY(&free)) {
4379                 next_pmap = pc->pc_pmap;
4380                 if (next_pmap == NULL) {
4381                         /*
4382                          * The next chunk is a marker.  However, it is
4383                          * not our marker, so active_reclaims must be
4384                          * > 1.  Consequently, the next_chunk code
4385                          * will not rotate the pv_chunks list.
4386                          */
4387                         goto next_chunk;
4388                 }
4389                 mtx_unlock(&pvc->pvc_lock);
4390
4391                 /*
4392                  * A pv_chunk can only be removed from the pc_lru list
4393                  * when both pc_chunks_mutex is owned and the
4394                  * corresponding pmap is locked.
4395                  */
4396                 if (pmap != next_pmap) {
4397                         restart = false;
4398                         reclaim_pv_chunk_leave_pmap(pmap, locked_pmap,
4399                             start_di);
4400                         pmap = next_pmap;
4401                         /* Avoid deadlock and lock recursion. */
4402                         if (pmap > locked_pmap) {
4403                                 RELEASE_PV_LIST_LOCK(lockp);
4404                                 PMAP_LOCK(pmap);
4405                                 if (start_di)
4406                                         pmap_delayed_invl_start();
4407                                 mtx_lock(&pvc->pvc_lock);
4408                                 restart = true;
4409                         } else if (pmap != locked_pmap) {
4410                                 if (PMAP_TRYLOCK(pmap)) {
4411                                         if (start_di)
4412                                                 pmap_delayed_invl_start();
4413                                         mtx_lock(&pvc->pvc_lock);
4414                                         restart = true;
4415                                 } else {
4416                                         pmap = NULL; /* pmap is not locked */
4417                                         mtx_lock(&pvc->pvc_lock);
4418                                         pc = TAILQ_NEXT(pc_marker, pc_lru);
4419                                         if (pc == NULL ||
4420                                             pc->pc_pmap != next_pmap)
4421                                                 continue;
4422                                         goto next_chunk;
4423                                 }
4424                         } else if (start_di)
4425                                 pmap_delayed_invl_start();
4426                         PG_G = pmap_global_bit(pmap);
4427                         PG_A = pmap_accessed_bit(pmap);
4428                         PG_M = pmap_modified_bit(pmap);
4429                         PG_RW = pmap_rw_bit(pmap);
4430                         if (restart)
4431                                 continue;
4432                 }
4433
4434                 /*
4435                  * Destroy every non-wired, 4 KB page mapping in the chunk.
4436                  */
4437                 freed = 0;
4438                 for (field = 0; field < _NPCM; field++) {
4439                         for (inuse = ~pc->pc_map[field] & pc_freemask[field];
4440                             inuse != 0; inuse &= ~(1UL << bit)) {
4441                                 bit = bsfq(inuse);
4442                                 pv = &pc->pc_pventry[field * 64 + bit];
4443                                 va = pv->pv_va;
4444                                 pde = pmap_pde(pmap, va);
4445                                 if ((*pde & PG_PS) != 0)
4446                                         continue;
4447                                 pte = pmap_pde_to_pte(pde, va);
4448                                 if ((*pte & PG_W) != 0)
4449                                         continue;
4450                                 tpte = pte_load_clear(pte);
4451                                 if ((tpte & PG_G) != 0)
4452                                         pmap_invalidate_page(pmap, va);
4453                                 m = PHYS_TO_VM_PAGE(tpte & PG_FRAME);
4454                                 if ((tpte & (PG_M | PG_RW)) == (PG_M | PG_RW))
4455                                         vm_page_dirty(m);
4456                                 if ((tpte & PG_A) != 0)
4457                                         vm_page_aflag_set(m, PGA_REFERENCED);
4458                                 CHANGE_PV_LIST_LOCK_TO_VM_PAGE(lockp, m);
4459                                 TAILQ_REMOVE(&m->md.pv_list, pv, pv_next);
4460                                 m->md.pv_gen++;
4461                                 if (TAILQ_EMPTY(&m->md.pv_list) &&
4462                                     (m->flags & PG_FICTITIOUS) == 0) {
4463                                         pvh = pa_to_pvh(VM_PAGE_TO_PHYS(m));
4464                                         if (TAILQ_EMPTY(&pvh->pv_list)) {
4465                                                 vm_page_aflag_clear(m,
4466                                                     PGA_WRITEABLE);
4467                                         }
4468                                 }
4469                                 pmap_delayed_invl_page(m);
4470                                 pc->pc_map[field] |= 1UL << bit;
4471                                 pmap_unuse_pt(pmap, va, *pde, &free);
4472                                 freed++;
4473                         }
4474                 }
4475                 if (freed == 0) {
4476                         mtx_lock(&pvc->pvc_lock);
4477                         goto next_chunk;
4478                 }
4479                 /* Every freed mapping is for a 4 KB page. */
4480                 pmap_resident_count_dec(pmap, freed);
4481                 PV_STAT(atomic_add_long(&pv_entry_frees, freed));
4482                 PV_STAT(atomic_add_int(&pv_entry_spare, freed));
4483                 PV_STAT(atomic_subtract_long(&pv_entry_count, freed));
4484                 TAILQ_REMOVE(&pmap->pm_pvchunk, pc, pc_list);
4485                 if (pc->pc_map[0] == PC_FREE0 && pc->pc_map[1] == PC_FREE1 &&
4486                     pc->pc_map[2] == PC_FREE2) {
4487                         PV_STAT(atomic_subtract_int(&pv_entry_spare, _NPCPV));
4488                         PV_STAT(atomic_subtract_int(&pc_chunk_count, 1));
4489                         PV_STAT(atomic_add_int(&pc_chunk_frees, 1));
4490                         /* Entire chunk is free; return it. */
4491                         m_pc = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((vm_offset_t)pc));
4492                         dump_drop_page(m_pc->phys_addr);
4493                         mtx_lock(&pvc->pvc_lock);
4494                         TAILQ_REMOVE(&pvc->pvc_list, pc, pc_lru);
4495                         break;
4496                 }
4497                 TAILQ_INSERT_HEAD(&pmap->pm_pvchunk, pc, pc_list);
4498                 mtx_lock(&pvc->pvc_lock);
4499                 /* One freed pv entry in locked_pmap is sufficient. */
4500                 if (pmap == locked_pmap)
4501                         break;
4502 next_chunk:
4503                 TAILQ_REMOVE(&pvc->pvc_list, pc_marker, pc_lru);
4504                 TAILQ_INSERT_AFTER(&pvc->pvc_list, pc, pc_marker, pc_lru);
4505                 if (pvc->active_reclaims == 1 && pmap != NULL) {
4506                         /*
4507                          * Rotate the pv chunks list so that we do not
4508                          * scan the same pv chunks that could not be
4509                          * freed (because they contained a wired
4510                          * and/or superpage mapping) on every
4511                          * invocation of reclaim_pv_chunk().
4512                          */
4513                         while ((pc = TAILQ_FIRST(&pvc->pvc_list)) != pc_marker) {
4514                                 MPASS(pc->pc_pmap != NULL);
4515                                 TAILQ_REMOVE(&pvc->pvc_list, pc, pc_lru);
4516                                 TAILQ_INSERT_TAIL(&pvc->pvc_list, pc, pc_lru);
4517                         }
4518                 }
4519         }
4520         TAILQ_REMOVE(&pvc->pvc_list, pc_marker, pc_lru);
4521         TAILQ_REMOVE(&pvc->pvc_list, pc_marker_end, pc_lru);
4522         pvc->active_reclaims--;
4523         mtx_unlock(&pvc->pvc_lock);
4524         reclaim_pv_chunk_leave_pmap(pmap, locked_pmap, start_di);
4525         if (m_pc == NULL && !SLIST_EMPTY(&free)) {
4526                 m_pc = SLIST_FIRST(&free);
4527                 SLIST_REMOVE_HEAD(&free, plinks.s.ss);
4528                 /* Recycle a freed page table page. */
4529                 m_pc->ref_count = 1;
4530         }
4531         vm_page_free_pages_toq(&free, true);
4532         return (m_pc);
4533 }
4534
4535 static vm_page_t
4536 reclaim_pv_chunk(pmap_t locked_pmap, struct rwlock **lockp)
4537 {
4538         vm_page_t m;
4539         int i, domain;
4540
4541         domain = PCPU_GET(domain);
4542         for (i = 0; i < vm_ndomains; i++) {
4543                 m = reclaim_pv_chunk_domain(locked_pmap, lockp, domain);
4544                 if (m != NULL)
4545                         break;
4546                 domain = (domain + 1) % vm_ndomains;
4547         }
4548
4549         return (m);
4550 }
4551
4552 /*
4553  * free the pv_entry back to the free list
4554  */
4555 static void
4556 free_pv_entry(pmap_t pmap, pv_entry_t pv)
4557 {
4558         struct pv_chunk *pc;
4559         int idx, field, bit;
4560
4561         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
4562         PV_STAT(atomic_add_long(&pv_entry_frees, 1));
4563         PV_STAT(atomic_add_int(&pv_entry_spare, 1));
4564         PV_STAT(atomic_subtract_long(&pv_entry_count, 1));
4565         pc = pv_to_chunk(pv);
4566         idx = pv - &pc->pc_pventry[0];
4567         field = idx / 64;
4568         bit = idx % 64;
4569         pc->pc_map[field] |= 1ul << bit;
4570         if (pc->pc_map[0] != PC_FREE0 || pc->pc_map[1] != PC_FREE1 ||
4571             pc->pc_map[2] != PC_FREE2) {
4572                 /* 98% of the time, pc is already at the head of the list. */
4573                 if (__predict_false(pc != TAILQ_FIRST(&pmap->pm_pvchunk))) {
4574                         TAILQ_REMOVE(&pmap->pm_pvchunk, pc, pc_list);
4575                         TAILQ_INSERT_HEAD(&pmap->pm_pvchunk, pc, pc_list);
4576                 }
4577                 return;
4578         }
4579         TAILQ_REMOVE(&pmap->pm_pvchunk, pc, pc_list);
4580         free_pv_chunk(pc);
4581 }
4582
4583 static void
4584 free_pv_chunk_dequeued(struct pv_chunk *pc)
4585 {
4586         vm_page_t m;
4587
4588         PV_STAT(atomic_subtract_int(&pv_entry_spare, _NPCPV));
4589         PV_STAT(atomic_subtract_int(&pc_chunk_count, 1));
4590         PV_STAT(atomic_add_int(&pc_chunk_frees, 1));
4591         /* entire chunk is free, return it */
4592         m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((vm_offset_t)pc));
4593         dump_drop_page(m->phys_addr);
4594         vm_page_unwire_noq(m);
4595         vm_page_free(m);
4596 }
4597
4598 static void
4599 free_pv_chunk(struct pv_chunk *pc)
4600 {
4601         struct pv_chunks_list *pvc;
4602
4603         pvc = &pv_chunks[pc_to_domain(pc)];
4604         mtx_lock(&pvc->pvc_lock);
4605         TAILQ_REMOVE(&pvc->pvc_list, pc, pc_lru);
4606         mtx_unlock(&pvc->pvc_lock);
4607         free_pv_chunk_dequeued(pc);
4608 }
4609
4610 static void
4611 free_pv_chunk_batch(struct pv_chunklist *batch)
4612 {
4613         struct pv_chunks_list *pvc;
4614         struct pv_chunk *pc, *npc;
4615         int i;
4616
4617         for (i = 0; i < vm_ndomains; i++) {
4618                 if (TAILQ_EMPTY(&batch[i]))
4619                         continue;
4620                 pvc = &pv_chunks[i];
4621                 mtx_lock(&pvc->pvc_lock);
4622                 TAILQ_FOREACH(pc, &batch[i], pc_list) {
4623                         TAILQ_REMOVE(&pvc->pvc_list, pc, pc_lru);
4624                 }
4625                 mtx_unlock(&pvc->pvc_lock);
4626         }
4627
4628         for (i = 0; i < vm_ndomains; i++) {
4629                 TAILQ_FOREACH_SAFE(pc, &batch[i], pc_list, npc) {
4630                         free_pv_chunk_dequeued(pc);
4631                 }
4632         }
4633 }
4634
4635 /*
4636  * Returns a new PV entry, allocating a new PV chunk from the system when
4637  * needed.  If this PV chunk allocation fails and a PV list lock pointer was
4638  * given, a PV chunk is reclaimed from an arbitrary pmap.  Otherwise, NULL is
4639  * returned.
4640  *
4641  * The given PV list lock may be released.
4642  */
4643 static pv_entry_t
4644 get_pv_entry(pmap_t pmap, struct rwlock **lockp)
4645 {
4646         struct pv_chunks_list *pvc;
4647         int bit, field;
4648         pv_entry_t pv;
4649         struct pv_chunk *pc;
4650         vm_page_t m;
4651
4652         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
4653         PV_STAT(atomic_add_long(&pv_entry_allocs, 1));
4654 retry:
4655         pc = TAILQ_FIRST(&pmap->pm_pvchunk);
4656         if (pc != NULL) {
4657                 for (field = 0; field < _NPCM; field++) {
4658                         if (pc->pc_map[field]) {
4659                                 bit = bsfq(pc->pc_map[field]);
4660                                 break;
4661                         }
4662                 }
4663                 if (field < _NPCM) {
4664                         pv = &pc->pc_pventry[field * 64 + bit];
4665                         pc->pc_map[field] &= ~(1ul << bit);
4666                         /* If this was the last item, move it to tail */
4667                         if (pc->pc_map[0] == 0 && pc->pc_map[1] == 0 &&
4668                             pc->pc_map[2] == 0) {
4669                                 TAILQ_REMOVE(&pmap->pm_pvchunk, pc, pc_list);
4670                                 TAILQ_INSERT_TAIL(&pmap->pm_pvchunk, pc,
4671                                     pc_list);
4672                         }
4673                         PV_STAT(atomic_add_long(&pv_entry_count, 1));
4674                         PV_STAT(atomic_subtract_int(&pv_entry_spare, 1));
4675                         return (pv);
4676                 }
4677         }
4678         /* No free items, allocate another chunk */
4679         m = vm_page_alloc(NULL, 0, VM_ALLOC_NORMAL | VM_ALLOC_NOOBJ |
4680             VM_ALLOC_WIRED);
4681         if (m == NULL) {
4682                 if (lockp == NULL) {
4683                         PV_STAT(pc_chunk_tryfail++);
4684                         return (NULL);
4685                 }
4686                 m = reclaim_pv_chunk(pmap, lockp);
4687                 if (m == NULL)
4688                         goto retry;
4689         }
4690         PV_STAT(atomic_add_int(&pc_chunk_count, 1));
4691         PV_STAT(atomic_add_int(&pc_chunk_allocs, 1));
4692         dump_add_page(m->phys_addr);
4693         pc = (void *)PHYS_TO_DMAP(m->phys_addr);
4694         pc->pc_pmap = pmap;
4695         pc->pc_map[0] = PC_FREE0 & ~1ul;        /* preallocated bit 0 */
4696         pc->pc_map[1] = PC_FREE1;
4697         pc->pc_map[2] = PC_FREE2;
4698         pvc = &pv_chunks[_vm_phys_domain(m->phys_addr)];
4699         mtx_lock(&pvc->pvc_lock);
4700         TAILQ_INSERT_TAIL(&pvc->pvc_list, pc, pc_lru);
4701         mtx_unlock(&pvc->pvc_lock);
4702         pv = &pc->pc_pventry[0];
4703         TAILQ_INSERT_HEAD(&pmap->pm_pvchunk, pc, pc_list);
4704         PV_STAT(atomic_add_long(&pv_entry_count, 1));
4705         PV_STAT(atomic_add_int(&pv_entry_spare, _NPCPV - 1));
4706         return (pv);
4707 }
4708
4709 /*
4710  * Returns the number of one bits within the given PV chunk map.
4711  *
4712  * The erratas for Intel processors state that "POPCNT Instruction May
4713  * Take Longer to Execute Than Expected".  It is believed that the
4714  * issue is the spurious dependency on the destination register.
4715  * Provide a hint to the register rename logic that the destination
4716  * value is overwritten, by clearing it, as suggested in the
4717  * optimization manual.  It should be cheap for unaffected processors
4718  * as well.
4719  *
4720  * Reference numbers for erratas are
4721  * 4th Gen Core: HSD146
4722  * 5th Gen Core: BDM85
4723  * 6th Gen Core: SKL029
4724  */
4725 static int
4726 popcnt_pc_map_pq(uint64_t *map)
4727 {
4728         u_long result, tmp;
4729
4730         __asm __volatile("xorl %k0,%k0;popcntq %2,%0;"
4731             "xorl %k1,%k1;popcntq %3,%1;addl %k1,%k0;"
4732             "xorl %k1,%k1;popcntq %4,%1;addl %k1,%k0"
4733             : "=&r" (result), "=&r" (tmp)
4734             : "m" (map[0]), "m" (map[1]), "m" (map[2]));
4735         return (result);
4736 }
4737
4738 /*
4739  * Ensure that the number of spare PV entries in the specified pmap meets or
4740  * exceeds the given count, "needed".
4741  *
4742  * The given PV list lock may be released.
4743  */
4744 static void
4745 reserve_pv_entries(pmap_t pmap, int needed, struct rwlock **lockp)
4746 {
4747         struct pv_chunks_list *pvc;
4748         struct pch new_tail[PMAP_MEMDOM];
4749         struct pv_chunk *pc;
4750         vm_page_t m;
4751         int avail, free, i;
4752         bool reclaimed;
4753
4754         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
4755         KASSERT(lockp != NULL, ("reserve_pv_entries: lockp is NULL"));
4756
4757         /*
4758          * Newly allocated PV chunks must be stored in a private list until
4759          * the required number of PV chunks have been allocated.  Otherwise,
4760          * reclaim_pv_chunk() could recycle one of these chunks.  In
4761          * contrast, these chunks must be added to the pmap upon allocation.
4762          */
4763         for (i = 0; i < PMAP_MEMDOM; i++)
4764                 TAILQ_INIT(&new_tail[i]);
4765 retry:
4766         avail = 0;
4767         TAILQ_FOREACH(pc, &pmap->pm_pvchunk, pc_list) {
4768 #ifndef __POPCNT__
4769                 if ((cpu_feature2 & CPUID2_POPCNT) == 0)
4770                         bit_count((bitstr_t *)pc->pc_map, 0,
4771                             sizeof(pc->pc_map) * NBBY, &free);
4772                 else
4773 #endif
4774                 free = popcnt_pc_map_pq(pc->pc_map);
4775                 if (free == 0)
4776                         break;
4777                 avail += free;
4778                 if (avail >= needed)
4779                         break;
4780         }
4781         for (reclaimed = false; avail < needed; avail += _NPCPV) {
4782                 m = vm_page_alloc(NULL, 0, VM_ALLOC_NORMAL | VM_ALLOC_NOOBJ |
4783                     VM_ALLOC_WIRED);
4784                 if (m == NULL) {
4785                         m = reclaim_pv_chunk(pmap, lockp);
4786                         if (m == NULL)
4787                                 goto retry;
4788                         reclaimed = true;
4789                 }
4790                 PV_STAT(atomic_add_int(&pc_chunk_count, 1));
4791                 PV_STAT(atomic_add_int(&pc_chunk_allocs, 1));
4792                 dump_add_page(m->phys_addr);
4793                 pc = (void *)PHYS_TO_DMAP(m->phys_addr);
4794                 pc->pc_pmap = pmap;
4795                 pc->pc_map[0] = PC_FREE0;
4796                 pc->pc_map[1] = PC_FREE1;
4797                 pc->pc_map[2] = PC_FREE2;
4798                 TAILQ_INSERT_HEAD(&pmap->pm_pvchunk, pc, pc_list);
4799                 TAILQ_INSERT_TAIL(&new_tail[pc_to_domain(pc)], pc, pc_lru);
4800                 PV_STAT(atomic_add_int(&pv_entry_spare, _NPCPV));
4801
4802                 /*
4803                  * The reclaim might have freed a chunk from the current pmap.
4804                  * If that chunk contained available entries, we need to
4805                  * re-count the number of available entries.
4806                  */
4807                 if (reclaimed)
4808                         goto retry;
4809         }
4810         for (i = 0; i < vm_ndomains; i++) {
4811                 if (TAILQ_EMPTY(&new_tail[i]))
4812                         continue;
4813                 pvc = &pv_chunks[i];
4814                 mtx_lock(&pvc->pvc_lock);
4815                 TAILQ_CONCAT(&pvc->pvc_list, &new_tail[i], pc_lru);
4816                 mtx_unlock(&pvc->pvc_lock);
4817         }
4818 }
4819
4820 /*
4821  * First find and then remove the pv entry for the specified pmap and virtual
4822  * address from the specified pv list.  Returns the pv entry if found and NULL
4823  * otherwise.  This operation can be performed on pv lists for either 4KB or
4824  * 2MB page mappings.
4825  */
4826 static __inline pv_entry_t
4827 pmap_pvh_remove(struct md_page *pvh, pmap_t pmap, vm_offset_t va)
4828 {
4829         pv_entry_t pv;
4830
4831         TAILQ_FOREACH(pv, &pvh->pv_list, pv_next) {
4832                 if (pmap == PV_PMAP(pv) && va == pv->pv_va) {
4833                         TAILQ_REMOVE(&pvh->pv_list, pv, pv_next);
4834                         pvh->pv_gen++;
4835                         break;
4836                 }
4837         }
4838         return (pv);
4839 }
4840
4841 /*
4842  * After demotion from a 2MB page mapping to 512 4KB page mappings,
4843  * destroy the pv entry for the 2MB page mapping and reinstantiate the pv
4844  * entries for each of the 4KB page mappings.
4845  */
4846 static void
4847 pmap_pv_demote_pde(pmap_t pmap, vm_offset_t va, vm_paddr_t pa,
4848     struct rwlock **lockp)
4849 {
4850         struct md_page *pvh;
4851         struct pv_chunk *pc;
4852         pv_entry_t pv;
4853         vm_offset_t va_last;
4854         vm_page_t m;
4855         int bit, field;
4856
4857         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
4858         KASSERT((pa & PDRMASK) == 0,
4859             ("pmap_pv_demote_pde: pa is not 2mpage aligned"));
4860         CHANGE_PV_LIST_LOCK_TO_PHYS(lockp, pa);
4861
4862         /*
4863          * Transfer the 2mpage's pv entry for this mapping to the first
4864          * page's pv list.  Once this transfer begins, the pv list lock
4865          * must not be released until the last pv entry is reinstantiated.
4866          */
4867         pvh = pa_to_pvh(pa);
4868         va = trunc_2mpage(va);
4869         pv = pmap_pvh_remove(pvh, pmap, va);
4870         KASSERT(pv != NULL, ("pmap_pv_demote_pde: pv not found"));
4871         m = PHYS_TO_VM_PAGE(pa);
4872         TAILQ_INSERT_TAIL(&m->md.pv_list, pv, pv_next);
4873         m->md.pv_gen++;
4874         /* Instantiate the remaining NPTEPG - 1 pv entries. */
4875         PV_STAT(atomic_add_long(&pv_entry_allocs, NPTEPG - 1));
4876         va_last = va + NBPDR - PAGE_SIZE;
4877         for (;;) {
4878                 pc = TAILQ_FIRST(&pmap->pm_pvchunk);
4879                 KASSERT(pc->pc_map[0] != 0 || pc->pc_map[1] != 0 ||
4880                     pc->pc_map[2] != 0, ("pmap_pv_demote_pde: missing spare"));
4881                 for (field = 0; field < _NPCM; field++) {
4882                         while (pc->pc_map[field]) {
4883                                 bit = bsfq(pc->pc_map[field]);
4884                                 pc->pc_map[field] &= ~(1ul << bit);
4885                                 pv = &pc->pc_pventry[field * 64 + bit];
4886                                 va += PAGE_SIZE;
4887                                 pv->pv_va = va;
4888                                 m++;
4889                                 KASSERT((m->oflags & VPO_UNMANAGED) == 0,
4890                             ("pmap_pv_demote_pde: page %p is not managed", m));
4891                                 TAILQ_INSERT_TAIL(&m->md.pv_list, pv, pv_next);
4892                                 m->md.pv_gen++;
4893                                 if (va == va_last)
4894                                         goto out;
4895                         }
4896                 }
4897                 TAILQ_REMOVE(&pmap->pm_pvchunk, pc, pc_list);
4898                 TAILQ_INSERT_TAIL(&pmap->pm_pvchunk, pc, pc_list);
4899         }
4900 out:
4901         if (pc->pc_map[0] == 0 && pc->pc_map[1] == 0 && pc->pc_map[2] == 0) {
4902                 TAILQ_REMOVE(&pmap->pm_pvchunk, pc, pc_list);
4903                 TAILQ_INSERT_TAIL(&pmap->pm_pvchunk, pc, pc_list);
4904         }
4905         PV_STAT(atomic_add_long(&pv_entry_count, NPTEPG - 1));
4906         PV_STAT(atomic_subtract_int(&pv_entry_spare, NPTEPG - 1));
4907 }
4908
4909 #if VM_NRESERVLEVEL > 0
4910 /*
4911  * After promotion from 512 4KB page mappings to a single 2MB page mapping,
4912  * replace the many pv entries for the 4KB page mappings by a single pv entry
4913  * for the 2MB page mapping.
4914  */
4915 static void
4916 pmap_pv_promote_pde(pmap_t pmap, vm_offset_t va, vm_paddr_t pa,
4917     struct rwlock **lockp)
4918 {
4919         struct md_page *pvh;
4920         pv_entry_t pv;
4921         vm_offset_t va_last;
4922         vm_page_t m;
4923
4924         KASSERT((pa & PDRMASK) == 0,
4925             ("pmap_pv_promote_pde: pa is not 2mpage aligned"));
4926         CHANGE_PV_LIST_LOCK_TO_PHYS(lockp, pa);
4927
4928         /*
4929          * Transfer the first page's pv entry for this mapping to the 2mpage's
4930          * pv list.  Aside from avoiding the cost of a call to get_pv_entry(),
4931          * a transfer avoids the possibility that get_pv_entry() calls
4932          * reclaim_pv_chunk() and that reclaim_pv_chunk() removes one of the
4933          * mappings that is being promoted.
4934          */
4935         m = PHYS_TO_VM_PAGE(pa);
4936         va = trunc_2mpage(va);
4937         pv = pmap_pvh_remove(&m->md, pmap, va);
4938         KASSERT(pv != NULL, ("pmap_pv_promote_pde: pv not found"));
4939         pvh = pa_to_pvh(pa);
4940         TAILQ_INSERT_TAIL(&pvh->pv_list, pv, pv_next);
4941         pvh->pv_gen++;
4942         /* Free the remaining NPTEPG - 1 pv entries. */
4943         va_last = va + NBPDR - PAGE_SIZE;
4944         do {
4945                 m++;
4946                 va += PAGE_SIZE;
4947                 pmap_pvh_free(&m->md, pmap, va);
4948         } while (va < va_last);
4949 }
4950 #endif /* VM_NRESERVLEVEL > 0 */
4951
4952 /*
4953  * First find and then destroy the pv entry for the specified pmap and virtual
4954  * address.  This operation can be performed on pv lists for either 4KB or 2MB
4955  * page mappings.
4956  */
4957 static void
4958 pmap_pvh_free(struct md_page *pvh, pmap_t pmap, vm_offset_t va)
4959 {
4960         pv_entry_t pv;
4961
4962         pv = pmap_pvh_remove(pvh, pmap, va);
4963         KASSERT(pv != NULL, ("pmap_pvh_free: pv not found"));
4964         free_pv_entry(pmap, pv);
4965 }
4966
4967 /*
4968  * Conditionally create the PV entry for a 4KB page mapping if the required
4969  * memory can be allocated without resorting to reclamation.
4970  */
4971 static boolean_t
4972 pmap_try_insert_pv_entry(pmap_t pmap, vm_offset_t va, vm_page_t m,
4973     struct rwlock **lockp)
4974 {
4975         pv_entry_t pv;
4976
4977         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
4978         /* Pass NULL instead of the lock pointer to disable reclamation. */
4979         if ((pv = get_pv_entry(pmap, NULL)) != NULL) {
4980                 pv->pv_va = va;
4981                 CHANGE_PV_LIST_LOCK_TO_VM_PAGE(lockp, m);
4982                 TAILQ_INSERT_TAIL(&m->md.pv_list, pv, pv_next);
4983                 m->md.pv_gen++;
4984                 return (TRUE);
4985         } else
4986                 return (FALSE);
4987 }
4988
4989 /*
4990  * Create the PV entry for a 2MB page mapping.  Always returns true unless the
4991  * flag PMAP_ENTER_NORECLAIM is specified.  If that flag is specified, returns
4992  * false if the PV entry cannot be allocated without resorting to reclamation.
4993  */
4994 static bool
4995 pmap_pv_insert_pde(pmap_t pmap, vm_offset_t va, pd_entry_t pde, u_int flags,
4996     struct rwlock **lockp)
4997 {
4998         struct md_page *pvh;
4999         pv_entry_t pv;
5000         vm_paddr_t pa;
5001
5002         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5003         /* Pass NULL instead of the lock pointer to disable reclamation. */
5004         if ((pv = get_pv_entry(pmap, (flags & PMAP_ENTER_NORECLAIM) != 0 ?
5005             NULL : lockp)) == NULL)
5006                 return (false);
5007         pv->pv_va = va;
5008         pa = pde & PG_PS_FRAME;
5009         CHANGE_PV_LIST_LOCK_TO_PHYS(lockp, pa);
5010         pvh = pa_to_pvh(pa);
5011         TAILQ_INSERT_TAIL(&pvh->pv_list, pv, pv_next);
5012         pvh->pv_gen++;
5013         return (true);
5014 }
5015
5016 /*
5017  * Fills a page table page with mappings to consecutive physical pages.
5018  */
5019 static void
5020 pmap_fill_ptp(pt_entry_t *firstpte, pt_entry_t newpte)
5021 {
5022         pt_entry_t *pte;
5023
5024         for (pte = firstpte; pte < firstpte + NPTEPG; pte++) {
5025                 *pte = newpte;
5026                 newpte += PAGE_SIZE;
5027         }
5028 }
5029
5030 /*
5031  * Tries to demote a 2MB page mapping.  If demotion fails, the 2MB page
5032  * mapping is invalidated.
5033  */
5034 static boolean_t
5035 pmap_demote_pde(pmap_t pmap, pd_entry_t *pde, vm_offset_t va)
5036 {
5037         struct rwlock *lock;
5038         boolean_t rv;
5039
5040         lock = NULL;
5041         rv = pmap_demote_pde_locked(pmap, pde, va, &lock);
5042         if (lock != NULL)
5043                 rw_wunlock(lock);
5044         return (rv);
5045 }
5046
5047 static void
5048 pmap_demote_pde_check(pt_entry_t *firstpte __unused, pt_entry_t newpte __unused)
5049 {
5050 #ifdef INVARIANTS
5051 #ifdef DIAGNOSTIC
5052         pt_entry_t *xpte, *ypte;
5053
5054         for (xpte = firstpte; xpte < firstpte + NPTEPG;
5055             xpte++, newpte += PAGE_SIZE) {
5056                 if ((*xpte & PG_FRAME) != (newpte & PG_FRAME)) {
5057                         printf("pmap_demote_pde: xpte %zd and newpte map "
5058                             "different pages: found %#lx, expected %#lx\n",
5059                             xpte - firstpte, *xpte, newpte);
5060                         printf("page table dump\n");
5061                         for (ypte = firstpte; ypte < firstpte + NPTEPG; ypte++)
5062                                 printf("%zd %#lx\n", ypte - firstpte, *ypte);
5063                         panic("firstpte");
5064                 }
5065         }
5066 #else
5067         KASSERT((*firstpte & PG_FRAME) == (newpte & PG_FRAME),
5068             ("pmap_demote_pde: firstpte and newpte map different physical"
5069             " addresses"));
5070 #endif
5071 #endif
5072 }
5073
5074 static void
5075 pmap_demote_pde_abort(pmap_t pmap, vm_offset_t va, pd_entry_t *pde,
5076     pd_entry_t oldpde, struct rwlock **lockp)
5077 {
5078         struct spglist free;
5079         vm_offset_t sva;
5080
5081         SLIST_INIT(&free);
5082         sva = trunc_2mpage(va);
5083         pmap_remove_pde(pmap, pde, sva, &free, lockp);
5084         if ((oldpde & pmap_global_bit(pmap)) == 0)
5085                 pmap_invalidate_pde_page(pmap, sva, oldpde);
5086         vm_page_free_pages_toq(&free, true);
5087         CTR2(KTR_PMAP, "pmap_demote_pde: failure for va %#lx in pmap %p",
5088             va, pmap);
5089 }
5090
5091 static boolean_t
5092 pmap_demote_pde_locked(pmap_t pmap, pd_entry_t *pde, vm_offset_t va,
5093     struct rwlock **lockp)
5094 {
5095         pd_entry_t newpde, oldpde;
5096         pt_entry_t *firstpte, newpte;
5097         pt_entry_t PG_A, PG_G, PG_M, PG_PKU_MASK, PG_RW, PG_V;
5098         vm_paddr_t mptepa;
5099         vm_page_t mpte;
5100         int PG_PTE_CACHE;
5101         bool in_kernel;
5102
5103         PG_A = pmap_accessed_bit(pmap);
5104         PG_G = pmap_global_bit(pmap);
5105         PG_M = pmap_modified_bit(pmap);
5106         PG_RW = pmap_rw_bit(pmap);
5107         PG_V = pmap_valid_bit(pmap);
5108         PG_PTE_CACHE = pmap_cache_mask(pmap, 0);
5109         PG_PKU_MASK = pmap_pku_mask_bit(pmap);
5110
5111         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5112         in_kernel = va >= VM_MAXUSER_ADDRESS;
5113         oldpde = *pde;
5114         KASSERT((oldpde & (PG_PS | PG_V)) == (PG_PS | PG_V),
5115             ("pmap_demote_pde: oldpde is missing PG_PS and/or PG_V"));
5116
5117         /*
5118          * Invalidate the 2MB page mapping and return "failure" if the
5119          * mapping was never accessed.
5120          */
5121         if ((oldpde & PG_A) == 0) {
5122                 KASSERT((oldpde & PG_W) == 0,
5123                     ("pmap_demote_pde: a wired mapping is missing PG_A"));
5124                 pmap_demote_pde_abort(pmap, va, pde, oldpde, lockp);
5125                 return (FALSE);
5126         }
5127
5128         mpte = pmap_remove_pt_page(pmap, va);
5129         if (mpte == NULL) {
5130                 KASSERT((oldpde & PG_W) == 0,
5131                     ("pmap_demote_pde: page table page for a wired mapping"
5132                     " is missing"));
5133
5134                 /*
5135                  * If the page table page is missing and the mapping
5136                  * is for a kernel address, the mapping must belong to
5137                  * the direct map.  Page table pages are preallocated
5138                  * for every other part of the kernel address space,
5139                  * so the direct map region is the only part of the
5140                  * kernel address space that must be handled here.
5141                  */
5142                 KASSERT(!in_kernel || (va >= DMAP_MIN_ADDRESS &&
5143                     va < DMAP_MAX_ADDRESS),
5144                     ("pmap_demote_pde: No saved mpte for va %#lx", va));
5145
5146                 /*
5147                  * If the 2MB page mapping belongs to the direct map
5148                  * region of the kernel's address space, then the page
5149                  * allocation request specifies the highest possible
5150                  * priority (VM_ALLOC_INTERRUPT).  Otherwise, the
5151                  * priority is normal.
5152                  */
5153                 mpte = vm_page_alloc(NULL, pmap_pde_pindex(va),
5154                     (in_kernel ? VM_ALLOC_INTERRUPT : VM_ALLOC_NORMAL) |
5155                     VM_ALLOC_NOOBJ | VM_ALLOC_WIRED);
5156
5157                 /*
5158                  * If the allocation of the new page table page fails,
5159                  * invalidate the 2MB page mapping and return "failure".
5160                  */
5161                 if (mpte == NULL) {
5162                         pmap_demote_pde_abort(pmap, va, pde, oldpde, lockp);
5163                         return (FALSE);
5164                 }
5165
5166                 if (!in_kernel) {
5167                         mpte->ref_count = NPTEPG;
5168                         pmap_resident_count_inc(pmap, 1);
5169                 }
5170         }
5171         mptepa = VM_PAGE_TO_PHYS(mpte);
5172         firstpte = (pt_entry_t *)PHYS_TO_DMAP(mptepa);
5173         newpde = mptepa | PG_M | PG_A | (oldpde & PG_U) | PG_RW | PG_V;
5174         KASSERT((oldpde & (PG_M | PG_RW)) != PG_RW,
5175             ("pmap_demote_pde: oldpde is missing PG_M"));
5176         newpte = oldpde & ~PG_PS;
5177         newpte = pmap_swap_pat(pmap, newpte);
5178
5179         /*
5180          * If the page table page is not leftover from an earlier promotion,
5181          * initialize it.
5182          */
5183         if (mpte->valid == 0)
5184                 pmap_fill_ptp(firstpte, newpte);
5185
5186         pmap_demote_pde_check(firstpte, newpte);
5187
5188         /*
5189          * If the mapping has changed attributes, update the page table
5190          * entries.
5191          */
5192         if ((*firstpte & PG_PTE_PROMOTE) != (newpte & PG_PTE_PROMOTE))
5193                 pmap_fill_ptp(firstpte, newpte);
5194
5195         /*
5196          * The spare PV entries must be reserved prior to demoting the
5197          * mapping, that is, prior to changing the PDE.  Otherwise, the state
5198          * of the PDE and the PV lists will be inconsistent, which can result
5199          * in reclaim_pv_chunk() attempting to remove a PV entry from the
5200          * wrong PV list and pmap_pv_demote_pde() failing to find the expected
5201          * PV entry for the 2MB page mapping that is being demoted.
5202          */
5203         if ((oldpde & PG_MANAGED) != 0)
5204                 reserve_pv_entries(pmap, NPTEPG - 1, lockp);
5205
5206         /*
5207          * Demote the mapping.  This pmap is locked.  The old PDE has
5208          * PG_A set.  If the old PDE has PG_RW set, it also has PG_M
5209          * set.  Thus, there is no danger of a race with another
5210          * processor changing the setting of PG_A and/or PG_M between
5211          * the read above and the store below. 
5212          */
5213         if (workaround_erratum383)
5214                 pmap_update_pde(pmap, va, pde, newpde);
5215         else
5216                 pde_store(pde, newpde);
5217
5218         /*
5219          * Invalidate a stale recursive mapping of the page table page.
5220          */
5221         if (in_kernel)
5222                 pmap_invalidate_page(pmap, (vm_offset_t)vtopte(va));
5223
5224         /*
5225          * Demote the PV entry.
5226          */
5227         if ((oldpde & PG_MANAGED) != 0)
5228                 pmap_pv_demote_pde(pmap, va, oldpde & PG_PS_FRAME, lockp);
5229
5230         atomic_add_long(&pmap_pde_demotions, 1);
5231         CTR2(KTR_PMAP, "pmap_demote_pde: success for va %#lx in pmap %p",
5232             va, pmap);
5233         return (TRUE);
5234 }
5235
5236 /*
5237  * pmap_remove_kernel_pde: Remove a kernel superpage mapping.
5238  */
5239 static void
5240 pmap_remove_kernel_pde(pmap_t pmap, pd_entry_t *pde, vm_offset_t va)
5241 {
5242         pd_entry_t newpde;
5243         vm_paddr_t mptepa;
5244         vm_page_t mpte;
5245
5246         KASSERT(pmap == kernel_pmap, ("pmap %p is not kernel_pmap", pmap));
5247         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5248         mpte = pmap_remove_pt_page(pmap, va);
5249         if (mpte == NULL)
5250                 panic("pmap_remove_kernel_pde: Missing pt page.");
5251
5252         mptepa = VM_PAGE_TO_PHYS(mpte);
5253         newpde = mptepa | X86_PG_M | X86_PG_A | X86_PG_RW | X86_PG_V;
5254
5255         /*
5256          * If this page table page was unmapped by a promotion, then it
5257          * contains valid mappings.  Zero it to invalidate those mappings.
5258          */
5259         if (mpte->valid != 0)
5260                 pagezero((void *)PHYS_TO_DMAP(mptepa));
5261
5262         /*
5263          * Demote the mapping.
5264          */
5265         if (workaround_erratum383)
5266                 pmap_update_pde(pmap, va, pde, newpde);
5267         else
5268                 pde_store(pde, newpde);
5269
5270         /*
5271          * Invalidate a stale recursive mapping of the page table page.
5272          */
5273         pmap_invalidate_page(pmap, (vm_offset_t)vtopte(va));
5274 }
5275
5276 /*
5277  * pmap_remove_pde: do the things to unmap a superpage in a process
5278  */
5279 static int
5280 pmap_remove_pde(pmap_t pmap, pd_entry_t *pdq, vm_offset_t sva,
5281     struct spglist *free, struct rwlock **lockp)
5282 {
5283         struct md_page *pvh;
5284         pd_entry_t oldpde;
5285         vm_offset_t eva, va;
5286         vm_page_t m, mpte;
5287         pt_entry_t PG_G, PG_A, PG_M, PG_RW;
5288
5289         PG_G = pmap_global_bit(pmap);
5290         PG_A = pmap_accessed_bit(pmap);
5291         PG_M = pmap_modified_bit(pmap);
5292         PG_RW = pmap_rw_bit(pmap);
5293
5294         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5295         KASSERT((sva & PDRMASK) == 0,
5296             ("pmap_remove_pde: sva is not 2mpage aligned"));
5297         oldpde = pte_load_clear(pdq);
5298         if (oldpde & PG_W)
5299                 pmap->pm_stats.wired_count -= NBPDR / PAGE_SIZE;
5300         if ((oldpde & PG_G) != 0)
5301                 pmap_invalidate_pde_page(kernel_pmap, sva, oldpde);
5302         pmap_resident_count_dec(pmap, NBPDR / PAGE_SIZE);
5303         if (oldpde & PG_MANAGED) {
5304                 CHANGE_PV_LIST_LOCK_TO_PHYS(lockp, oldpde & PG_PS_FRAME);
5305                 pvh = pa_to_pvh(oldpde & PG_PS_FRAME);
5306                 pmap_pvh_free(pvh, pmap, sva);
5307                 eva = sva + NBPDR;
5308                 for (va = sva, m = PHYS_TO_VM_PAGE(oldpde & PG_PS_FRAME);
5309                     va < eva; va += PAGE_SIZE, m++) {
5310                         if ((oldpde & (PG_M | PG_RW)) == (PG_M | PG_RW))
5311                                 vm_page_dirty(m);
5312                         if (oldpde & PG_A)
5313                                 vm_page_aflag_set(m, PGA_REFERENCED);
5314                         if (TAILQ_EMPTY(&m->md.pv_list) &&
5315                             TAILQ_EMPTY(&pvh->pv_list))
5316                                 vm_page_aflag_clear(m, PGA_WRITEABLE);
5317                         pmap_delayed_invl_page(m);
5318                 }
5319         }
5320         if (pmap == kernel_pmap) {
5321                 pmap_remove_kernel_pde(pmap, pdq, sva);
5322         } else {
5323                 mpte = pmap_remove_pt_page(pmap, sva);
5324                 if (mpte != NULL) {
5325                         KASSERT(mpte->valid == VM_PAGE_BITS_ALL,
5326                             ("pmap_remove_pde: pte page not promoted"));
5327                         pmap_resident_count_dec(pmap, 1);
5328                         KASSERT(mpte->ref_count == NPTEPG,
5329                             ("pmap_remove_pde: pte page ref count error"));
5330                         mpte->ref_count = 0;
5331                         pmap_add_delayed_free_list(mpte, free, FALSE);
5332                 }
5333         }
5334         return (pmap_unuse_pt(pmap, sva, *pmap_pdpe(pmap, sva), free));
5335 }
5336
5337 /*
5338  * pmap_remove_pte: do the things to unmap a page in a process
5339  */
5340 static int
5341 pmap_remove_pte(pmap_t pmap, pt_entry_t *ptq, vm_offset_t va, 
5342     pd_entry_t ptepde, struct spglist *free, struct rwlock **lockp)
5343 {
5344         struct md_page *pvh;
5345         pt_entry_t oldpte, PG_A, PG_M, PG_RW;
5346         vm_page_t m;
5347
5348         PG_A = pmap_accessed_bit(pmap);
5349         PG_M = pmap_modified_bit(pmap);
5350         PG_RW = pmap_rw_bit(pmap);
5351
5352         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5353         oldpte = pte_load_clear(ptq);
5354         if (oldpte & PG_W)
5355                 pmap->pm_stats.wired_count -= 1;
5356         pmap_resident_count_dec(pmap, 1);
5357         if (oldpte & PG_MANAGED) {
5358                 m = PHYS_TO_VM_PAGE(oldpte & PG_FRAME);
5359                 if ((oldpte & (PG_M | PG_RW)) == (PG_M | PG_RW))
5360                         vm_page_dirty(m);
5361                 if (oldpte & PG_A)
5362                         vm_page_aflag_set(m, PGA_REFERENCED);
5363                 CHANGE_PV_LIST_LOCK_TO_VM_PAGE(lockp, m);
5364                 pmap_pvh_free(&m->md, pmap, va);
5365                 if (TAILQ_EMPTY(&m->md.pv_list) &&
5366                     (m->flags & PG_FICTITIOUS) == 0) {
5367                         pvh = pa_to_pvh(VM_PAGE_TO_PHYS(m));
5368                         if (TAILQ_EMPTY(&pvh->pv_list))
5369                                 vm_page_aflag_clear(m, PGA_WRITEABLE);
5370                 }
5371                 pmap_delayed_invl_page(m);
5372         }
5373         return (pmap_unuse_pt(pmap, va, ptepde, free));
5374 }
5375
5376 /*
5377  * Remove a single page from a process address space
5378  */
5379 static void
5380 pmap_remove_page(pmap_t pmap, vm_offset_t va, pd_entry_t *pde,
5381     struct spglist *free)
5382 {
5383         struct rwlock *lock;
5384         pt_entry_t *pte, PG_V;
5385
5386         PG_V = pmap_valid_bit(pmap);
5387         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5388         if ((*pde & PG_V) == 0)
5389                 return;
5390         pte = pmap_pde_to_pte(pde, va);
5391         if ((*pte & PG_V) == 0)
5392                 return;
5393         lock = NULL;
5394         pmap_remove_pte(pmap, pte, va, *pde, free, &lock);
5395         if (lock != NULL)
5396                 rw_wunlock(lock);
5397         pmap_invalidate_page(pmap, va);
5398 }
5399
5400 /*
5401  * Removes the specified range of addresses from the page table page.
5402  */
5403 static bool
5404 pmap_remove_ptes(pmap_t pmap, vm_offset_t sva, vm_offset_t eva,
5405     pd_entry_t *pde, struct spglist *free, struct rwlock **lockp)
5406 {
5407         pt_entry_t PG_G, *pte;
5408         vm_offset_t va;
5409         bool anyvalid;
5410
5411         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5412         PG_G = pmap_global_bit(pmap);
5413         anyvalid = false;
5414         va = eva;
5415         for (pte = pmap_pde_to_pte(pde, sva); sva != eva; pte++,
5416             sva += PAGE_SIZE) {
5417                 if (*pte == 0) {
5418                         if (va != eva) {
5419                                 pmap_invalidate_range(pmap, va, sva);
5420                                 va = eva;
5421                         }
5422                         continue;
5423                 }
5424                 if ((*pte & PG_G) == 0)
5425                         anyvalid = true;
5426                 else if (va == eva)
5427                         va = sva;
5428                 if (pmap_remove_pte(pmap, pte, sva, *pde, free, lockp)) {
5429                         sva += PAGE_SIZE;
5430                         break;
5431                 }
5432         }
5433         if (va != eva)
5434                 pmap_invalidate_range(pmap, va, sva);
5435         return (anyvalid);
5436 }
5437
5438 /*
5439  *      Remove the given range of addresses from the specified map.
5440  *
5441  *      It is assumed that the start and end are properly
5442  *      rounded to the page size.
5443  */
5444 void
5445 pmap_remove(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
5446 {
5447         struct rwlock *lock;
5448         vm_offset_t va_next;
5449         pml4_entry_t *pml4e;
5450         pdp_entry_t *pdpe;
5451         pd_entry_t ptpaddr, *pde;
5452         pt_entry_t PG_G, PG_V;
5453         struct spglist free;
5454         int anyvalid;
5455
5456         PG_G = pmap_global_bit(pmap);
5457         PG_V = pmap_valid_bit(pmap);
5458
5459         /*
5460          * Perform an unsynchronized read.  This is, however, safe.
5461          */
5462         if (pmap->pm_stats.resident_count == 0)
5463                 return;
5464
5465         anyvalid = 0;
5466         SLIST_INIT(&free);
5467
5468         pmap_delayed_invl_start();
5469         PMAP_LOCK(pmap);
5470         pmap_pkru_on_remove(pmap, sva, eva);
5471
5472         /*
5473          * special handling of removing one page.  a very
5474          * common operation and easy to short circuit some
5475          * code.
5476          */
5477         if (sva + PAGE_SIZE == eva) {
5478                 pde = pmap_pde(pmap, sva);
5479                 if (pde && (*pde & PG_PS) == 0) {
5480                         pmap_remove_page(pmap, sva, pde, &free);
5481                         goto out;
5482                 }
5483         }
5484
5485         lock = NULL;
5486         for (; sva < eva; sva = va_next) {
5487
5488                 if (pmap->pm_stats.resident_count == 0)
5489                         break;
5490
5491                 pml4e = pmap_pml4e(pmap, sva);
5492                 if ((*pml4e & PG_V) == 0) {
5493                         va_next = (sva + NBPML4) & ~PML4MASK;
5494                         if (va_next < sva)
5495                                 va_next = eva;
5496                         continue;
5497                 }
5498
5499                 pdpe = pmap_pml4e_to_pdpe(pml4e, sva);
5500                 if ((*pdpe & PG_V) == 0) {
5501                         va_next = (sva + NBPDP) & ~PDPMASK;
5502                         if (va_next < sva)
5503                                 va_next = eva;
5504                         continue;
5505                 }
5506
5507                 /*
5508                  * Calculate index for next page table.
5509                  */
5510                 va_next = (sva + NBPDR) & ~PDRMASK;
5511                 if (va_next < sva)
5512                         va_next = eva;
5513
5514                 pde = pmap_pdpe_to_pde(pdpe, sva);
5515                 ptpaddr = *pde;
5516
5517                 /*
5518                  * Weed out invalid mappings.
5519                  */
5520                 if (ptpaddr == 0)
5521                         continue;
5522
5523                 /*
5524                  * Check for large page.
5525                  */
5526                 if ((ptpaddr & PG_PS) != 0) {
5527                         /*
5528                          * Are we removing the entire large page?  If not,
5529                          * demote the mapping and fall through.
5530                          */
5531                         if (sva + NBPDR == va_next && eva >= va_next) {
5532                                 /*
5533                                  * The TLB entry for a PG_G mapping is
5534                                  * invalidated by pmap_remove_pde().
5535                                  */
5536                                 if ((ptpaddr & PG_G) == 0)
5537                                         anyvalid = 1;
5538                                 pmap_remove_pde(pmap, pde, sva, &free, &lock);
5539                                 continue;
5540                         } else if (!pmap_demote_pde_locked(pmap, pde, sva,
5541                             &lock)) {
5542                                 /* The large page mapping was destroyed. */
5543                                 continue;
5544                         } else
5545                                 ptpaddr = *pde;
5546                 }
5547
5548                 /*
5549                  * Limit our scan to either the end of the va represented
5550                  * by the current page table page, or to the end of the
5551                  * range being removed.
5552                  */
5553                 if (va_next > eva)
5554                         va_next = eva;
5555
5556                 if (pmap_remove_ptes(pmap, sva, va_next, pde, &free, &lock))
5557                         anyvalid = 1;
5558         }
5559         if (lock != NULL)
5560                 rw_wunlock(lock);
5561 out:
5562         if (anyvalid)
5563                 pmap_invalidate_all(pmap);
5564         PMAP_UNLOCK(pmap);
5565         pmap_delayed_invl_finish();
5566         vm_page_free_pages_toq(&free, true);
5567 }
5568
5569 /*
5570  *      Routine:        pmap_remove_all
5571  *      Function:
5572  *              Removes this physical page from
5573  *              all physical maps in which it resides.
5574  *              Reflects back modify bits to the pager.
5575  *
5576  *      Notes:
5577  *              Original versions of this routine were very
5578  *              inefficient because they iteratively called
5579  *              pmap_remove (slow...)
5580  */
5581
5582 void
5583 pmap_remove_all(vm_page_t m)
5584 {
5585         struct md_page *pvh;
5586         pv_entry_t pv;
5587         pmap_t pmap;
5588         struct rwlock *lock;
5589         pt_entry_t *pte, tpte, PG_A, PG_M, PG_RW;
5590         pd_entry_t *pde;
5591         vm_offset_t va;
5592         struct spglist free;
5593         int pvh_gen, md_gen;
5594
5595         KASSERT((m->oflags & VPO_UNMANAGED) == 0,
5596             ("pmap_remove_all: page %p is not managed", m));
5597         SLIST_INIT(&free);
5598         lock = VM_PAGE_TO_PV_LIST_LOCK(m);
5599         pvh = (m->flags & PG_FICTITIOUS) != 0 ? &pv_dummy :
5600             pa_to_pvh(VM_PAGE_TO_PHYS(m));
5601 retry:
5602         rw_wlock(lock);
5603         while ((pv = TAILQ_FIRST(&pvh->pv_list)) != NULL) {
5604                 pmap = PV_PMAP(pv);
5605                 if (!PMAP_TRYLOCK(pmap)) {
5606                         pvh_gen = pvh->pv_gen;
5607                         rw_wunlock(lock);
5608                         PMAP_LOCK(pmap);
5609                         rw_wlock(lock);
5610                         if (pvh_gen != pvh->pv_gen) {
5611                                 rw_wunlock(lock);
5612                                 PMAP_UNLOCK(pmap);
5613                                 goto retry;
5614                         }
5615                 }
5616                 va = pv->pv_va;
5617                 pde = pmap_pde(pmap, va);
5618                 (void)pmap_demote_pde_locked(pmap, pde, va, &lock);
5619                 PMAP_UNLOCK(pmap);
5620         }
5621         while ((pv = TAILQ_FIRST(&m->md.pv_list)) != NULL) {
5622                 pmap = PV_PMAP(pv);
5623                 if (!PMAP_TRYLOCK(pmap)) {
5624                         pvh_gen = pvh->pv_gen;
5625                         md_gen = m->md.pv_gen;
5626                         rw_wunlock(lock);
5627                         PMAP_LOCK(pmap);
5628                         rw_wlock(lock);
5629                         if (pvh_gen != pvh->pv_gen || md_gen != m->md.pv_gen) {
5630                                 rw_wunlock(lock);
5631                                 PMAP_UNLOCK(pmap);
5632                                 goto retry;
5633                         }
5634                 }
5635                 PG_A = pmap_accessed_bit(pmap);
5636                 PG_M = pmap_modified_bit(pmap);
5637                 PG_RW = pmap_rw_bit(pmap);
5638                 pmap_resident_count_dec(pmap, 1);
5639                 pde = pmap_pde(pmap, pv->pv_va);
5640                 KASSERT((*pde & PG_PS) == 0, ("pmap_remove_all: found"
5641                     " a 2mpage in page %p's pv list", m));
5642                 pte = pmap_pde_to_pte(pde, pv->pv_va);
5643                 tpte = pte_load_clear(pte);
5644                 if (tpte & PG_W)
5645                         pmap->pm_stats.wired_count--;
5646                 if (tpte & PG_A)
5647                         vm_page_aflag_set(m, PGA_REFERENCED);
5648
5649                 /*
5650                  * Update the vm_page_t clean and reference bits.
5651                  */
5652                 if ((tpte & (PG_M | PG_RW)) == (PG_M | PG_RW))
5653                         vm_page_dirty(m);
5654                 pmap_unuse_pt(pmap, pv->pv_va, *pde, &free);
5655                 pmap_invalidate_page(pmap, pv->pv_va);
5656                 TAILQ_REMOVE(&m->md.pv_list, pv, pv_next);
5657                 m->md.pv_gen++;
5658                 free_pv_entry(pmap, pv);
5659                 PMAP_UNLOCK(pmap);
5660         }
5661         vm_page_aflag_clear(m, PGA_WRITEABLE);
5662         rw_wunlock(lock);
5663         pmap_delayed_invl_wait(m);
5664         vm_page_free_pages_toq(&free, true);
5665 }
5666
5667 /*
5668  * pmap_protect_pde: do the things to protect a 2mpage in a process
5669  */
5670 static boolean_t
5671 pmap_protect_pde(pmap_t pmap, pd_entry_t *pde, vm_offset_t sva, vm_prot_t prot)
5672 {
5673         pd_entry_t newpde, oldpde;
5674         vm_page_t m, mt;
5675         boolean_t anychanged;
5676         pt_entry_t PG_G, PG_M, PG_RW;
5677
5678         PG_G = pmap_global_bit(pmap);
5679         PG_M = pmap_modified_bit(pmap);
5680         PG_RW = pmap_rw_bit(pmap);
5681
5682         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5683         KASSERT((sva & PDRMASK) == 0,
5684             ("pmap_protect_pde: sva is not 2mpage aligned"));
5685         anychanged = FALSE;
5686 retry:
5687         oldpde = newpde = *pde;
5688         if ((prot & VM_PROT_WRITE) == 0) {
5689                 if ((oldpde & (PG_MANAGED | PG_M | PG_RW)) ==
5690                     (PG_MANAGED | PG_M | PG_RW)) {
5691                         m = PHYS_TO_VM_PAGE(oldpde & PG_PS_FRAME);
5692                         for (mt = m; mt < &m[NBPDR / PAGE_SIZE]; mt++)
5693                                 vm_page_dirty(mt);
5694                 }
5695                 newpde &= ~(PG_RW | PG_M);
5696         }
5697         if ((prot & VM_PROT_EXECUTE) == 0)
5698                 newpde |= pg_nx;
5699         if (newpde != oldpde) {
5700                 /*
5701                  * As an optimization to future operations on this PDE, clear
5702                  * PG_PROMOTED.  The impending invalidation will remove any
5703                  * lingering 4KB page mappings from the TLB.
5704                  */
5705                 if (!atomic_cmpset_long(pde, oldpde, newpde & ~PG_PROMOTED))
5706                         goto retry;
5707                 if ((oldpde & PG_G) != 0)
5708                         pmap_invalidate_pde_page(kernel_pmap, sva, oldpde);
5709                 else
5710                         anychanged = TRUE;
5711         }
5712         return (anychanged);
5713 }
5714
5715 /*
5716  *      Set the physical protection on the
5717  *      specified range of this map as requested.
5718  */
5719 void
5720 pmap_protect(pmap_t pmap, vm_offset_t sva, vm_offset_t eva, vm_prot_t prot)
5721 {
5722         vm_offset_t va_next;
5723         pml4_entry_t *pml4e;
5724         pdp_entry_t *pdpe;
5725         pd_entry_t ptpaddr, *pde;
5726         pt_entry_t *pte, PG_G, PG_M, PG_RW, PG_V;
5727         boolean_t anychanged;
5728
5729         KASSERT((prot & ~VM_PROT_ALL) == 0, ("invalid prot %x", prot));
5730         if (prot == VM_PROT_NONE) {
5731                 pmap_remove(pmap, sva, eva);
5732                 return;
5733         }
5734
5735         if ((prot & (VM_PROT_WRITE|VM_PROT_EXECUTE)) ==
5736             (VM_PROT_WRITE|VM_PROT_EXECUTE))
5737                 return;
5738
5739         PG_G = pmap_global_bit(pmap);
5740         PG_M = pmap_modified_bit(pmap);
5741         PG_V = pmap_valid_bit(pmap);
5742         PG_RW = pmap_rw_bit(pmap);
5743         anychanged = FALSE;
5744
5745         /*
5746          * Although this function delays and batches the invalidation
5747          * of stale TLB entries, it does not need to call
5748          * pmap_delayed_invl_start() and
5749          * pmap_delayed_invl_finish(), because it does not
5750          * ordinarily destroy mappings.  Stale TLB entries from
5751          * protection-only changes need only be invalidated before the
5752          * pmap lock is released, because protection-only changes do
5753          * not destroy PV entries.  Even operations that iterate over
5754          * a physical page's PV list of mappings, like
5755          * pmap_remove_write(), acquire the pmap lock for each
5756          * mapping.  Consequently, for protection-only changes, the
5757          * pmap lock suffices to synchronize both page table and TLB
5758          * updates.
5759          *
5760          * This function only destroys a mapping if pmap_demote_pde()
5761          * fails.  In that case, stale TLB entries are immediately
5762          * invalidated.
5763          */
5764         
5765         PMAP_LOCK(pmap);
5766         for (; sva < eva; sva = va_next) {
5767
5768                 pml4e = pmap_pml4e(pmap, sva);
5769                 if ((*pml4e & PG_V) == 0) {
5770                         va_next = (sva + NBPML4) & ~PML4MASK;
5771                         if (va_next < sva)
5772                                 va_next = eva;
5773                         continue;
5774                 }
5775
5776                 pdpe = pmap_pml4e_to_pdpe(pml4e, sva);
5777                 if ((*pdpe & PG_V) == 0) {
5778                         va_next = (sva + NBPDP) & ~PDPMASK;
5779                         if (va_next < sva)
5780                                 va_next = eva;
5781                         continue;
5782                 }
5783
5784                 va_next = (sva + NBPDR) & ~PDRMASK;
5785                 if (va_next < sva)
5786                         va_next = eva;
5787
5788                 pde = pmap_pdpe_to_pde(pdpe, sva);
5789                 ptpaddr = *pde;
5790
5791                 /*
5792                  * Weed out invalid mappings.
5793                  */
5794                 if (ptpaddr == 0)
5795                         continue;
5796
5797                 /*
5798                  * Check for large page.
5799                  */
5800                 if ((ptpaddr & PG_PS) != 0) {
5801                         /*
5802                          * Are we protecting the entire large page?  If not,
5803                          * demote the mapping and fall through.
5804                          */
5805                         if (sva + NBPDR == va_next && eva >= va_next) {
5806                                 /*
5807                                  * The TLB entry for a PG_G mapping is
5808                                  * invalidated by pmap_protect_pde().
5809                                  */
5810                                 if (pmap_protect_pde(pmap, pde, sva, prot))
5811                                         anychanged = TRUE;
5812                                 continue;
5813                         } else if (!pmap_demote_pde(pmap, pde, sva)) {
5814                                 /*
5815                                  * The large page mapping was destroyed.
5816                                  */
5817                                 continue;
5818                         }
5819                 }
5820
5821                 if (va_next > eva)
5822                         va_next = eva;
5823
5824                 for (pte = pmap_pde_to_pte(pde, sva); sva != va_next; pte++,
5825                     sva += PAGE_SIZE) {
5826                         pt_entry_t obits, pbits;
5827                         vm_page_t m;
5828
5829 retry:
5830                         obits = pbits = *pte;
5831                         if ((pbits & PG_V) == 0)
5832                                 continue;
5833
5834                         if ((prot & VM_PROT_WRITE) == 0) {
5835                                 if ((pbits & (PG_MANAGED | PG_M | PG_RW)) ==
5836                                     (PG_MANAGED | PG_M | PG_RW)) {
5837                                         m = PHYS_TO_VM_PAGE(pbits & PG_FRAME);
5838                                         vm_page_dirty(m);
5839                                 }
5840                                 pbits &= ~(PG_RW | PG_M);
5841                         }
5842                         if ((prot & VM_PROT_EXECUTE) == 0)
5843                                 pbits |= pg_nx;
5844
5845                         if (pbits != obits) {
5846                                 if (!atomic_cmpset_long(pte, obits, pbits))
5847                                         goto retry;
5848                                 if (obits & PG_G)
5849                                         pmap_invalidate_page(pmap, sva);
5850                                 else
5851                                         anychanged = TRUE;
5852                         }
5853                 }
5854         }
5855         if (anychanged)
5856                 pmap_invalidate_all(pmap);
5857         PMAP_UNLOCK(pmap);
5858 }
5859
5860 #if VM_NRESERVLEVEL > 0
5861 static bool
5862 pmap_pde_ept_executable(pmap_t pmap, pd_entry_t pde)
5863 {
5864
5865         if (pmap->pm_type != PT_EPT)
5866                 return (false);
5867         return ((pde & EPT_PG_EXECUTE) != 0);
5868 }
5869
5870 /*
5871  * Tries to promote the 512, contiguous 4KB page mappings that are within a
5872  * single page table page (PTP) to a single 2MB page mapping.  For promotion
5873  * to occur, two conditions must be met: (1) the 4KB page mappings must map
5874  * aligned, contiguous physical memory and (2) the 4KB page mappings must have
5875  * identical characteristics. 
5876  */
5877 static void
5878 pmap_promote_pde(pmap_t pmap, pd_entry_t *pde, vm_offset_t va,
5879     struct rwlock **lockp)
5880 {
5881         pd_entry_t newpde;
5882         pt_entry_t *firstpte, oldpte, pa, *pte;
5883         pt_entry_t PG_G, PG_A, PG_M, PG_RW, PG_V, PG_PKU_MASK;
5884         vm_page_t mpte;
5885         int PG_PTE_CACHE;
5886
5887         PG_A = pmap_accessed_bit(pmap);
5888         PG_G = pmap_global_bit(pmap);
5889         PG_M = pmap_modified_bit(pmap);
5890         PG_V = pmap_valid_bit(pmap);
5891         PG_RW = pmap_rw_bit(pmap);
5892         PG_PKU_MASK = pmap_pku_mask_bit(pmap);
5893         PG_PTE_CACHE = pmap_cache_mask(pmap, 0);
5894
5895         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
5896
5897         /*
5898          * Examine the first PTE in the specified PTP.  Abort if this PTE is
5899          * either invalid, unused, or does not map the first 4KB physical page
5900          * within a 2MB page. 
5901          */
5902         firstpte = (pt_entry_t *)PHYS_TO_DMAP(*pde & PG_FRAME);
5903 setpde:
5904         newpde = *firstpte;
5905         if ((newpde & ((PG_FRAME & PDRMASK) | PG_A | PG_V)) != (PG_A | PG_V) ||
5906             !pmap_allow_2m_x_page(pmap, pmap_pde_ept_executable(pmap,
5907             newpde))) {
5908                 atomic_add_long(&pmap_pde_p_failures, 1);
5909                 CTR2(KTR_PMAP, "pmap_promote_pde: failure for va %#lx"
5910                     " in pmap %p", va, pmap);
5911                 return;
5912         }
5913         if ((newpde & (PG_M | PG_RW)) == PG_RW) {
5914                 /*
5915                  * When PG_M is already clear, PG_RW can be cleared without
5916                  * a TLB invalidation.
5917                  */
5918                 if (!atomic_cmpset_long(firstpte, newpde, newpde & ~PG_RW))
5919                         goto setpde;
5920                 newpde &= ~PG_RW;
5921         }
5922
5923         /*
5924          * Examine each of the other PTEs in the specified PTP.  Abort if this
5925          * PTE maps an unexpected 4KB physical page or does not have identical
5926          * characteristics to the first PTE.
5927          */
5928         pa = (newpde & (PG_PS_FRAME | PG_A | PG_V)) + NBPDR - PAGE_SIZE;
5929         for (pte = firstpte + NPTEPG - 1; pte > firstpte; pte--) {
5930 setpte:
5931                 oldpte = *pte;
5932                 if ((oldpte & (PG_FRAME | PG_A | PG_V)) != pa) {
5933                         atomic_add_long(&pmap_pde_p_failures, 1);
5934                         CTR2(KTR_PMAP, "pmap_promote_pde: failure for va %#lx"
5935                             " in pmap %p", va, pmap);
5936                         return;
5937                 }
5938                 if ((oldpte & (PG_M | PG_RW)) == PG_RW) {
5939                         /*
5940                          * When PG_M is already clear, PG_RW can be cleared
5941                          * without a TLB invalidation.
5942                          */
5943                         if (!atomic_cmpset_long(pte, oldpte, oldpte & ~PG_RW))
5944                                 goto setpte;
5945                         oldpte &= ~PG_RW;
5946                         CTR2(KTR_PMAP, "pmap_promote_pde: protect for va %#lx"
5947                             " in pmap %p", (oldpte & PG_FRAME & PDRMASK) |
5948                             (va & ~PDRMASK), pmap);
5949                 }
5950                 if ((oldpte & PG_PTE_PROMOTE) != (newpde & PG_PTE_PROMOTE)) {
5951                         atomic_add_long(&pmap_pde_p_failures, 1);
5952                         CTR2(KTR_PMAP, "pmap_promote_pde: failure for va %#lx"
5953                             " in pmap %p", va, pmap);
5954                         return;
5955                 }
5956                 pa -= PAGE_SIZE;
5957         }
5958
5959         /*
5960          * Save the page table page in its current state until the PDE
5961          * mapping the superpage is demoted by pmap_demote_pde() or
5962          * destroyed by pmap_remove_pde(). 
5963          */
5964         mpte = PHYS_TO_VM_PAGE(*pde & PG_FRAME);
5965         KASSERT(mpte >= vm_page_array &&
5966             mpte < &vm_page_array[vm_page_array_size],
5967             ("pmap_promote_pde: page table page is out of range"));
5968         KASSERT(mpte->pindex == pmap_pde_pindex(va),
5969             ("pmap_promote_pde: page table page's pindex is wrong"));
5970         if (pmap_insert_pt_page(pmap, mpte, true)) {
5971                 atomic_add_long(&pmap_pde_p_failures, 1);
5972                 CTR2(KTR_PMAP,
5973                     "pmap_promote_pde: failure for va %#lx in pmap %p", va,
5974                     pmap);
5975                 return;
5976         }
5977
5978         /*
5979          * Promote the pv entries.
5980          */
5981         if ((newpde & PG_MANAGED) != 0)
5982                 pmap_pv_promote_pde(pmap, va, newpde & PG_PS_FRAME, lockp);
5983
5984         /*
5985          * Propagate the PAT index to its proper position.
5986          */
5987         newpde = pmap_swap_pat(pmap, newpde);
5988
5989         /*
5990          * Map the superpage.
5991          */
5992         if (workaround_erratum383)
5993                 pmap_update_pde(pmap, va, pde, PG_PS | newpde);
5994         else
5995                 pde_store(pde, PG_PROMOTED | PG_PS | newpde);
5996
5997         atomic_add_long(&pmap_pde_promotions, 1);
5998         CTR2(KTR_PMAP, "pmap_promote_pde: success for va %#lx"
5999             " in pmap %p", va, pmap);
6000 }
6001 #endif /* VM_NRESERVLEVEL > 0 */
6002
6003 /*
6004  *      Insert the given physical page (p) at
6005  *      the specified virtual address (v) in the
6006  *      target physical map with the protection requested.
6007  *
6008  *      If specified, the page will be wired down, meaning
6009  *      that the related pte can not be reclaimed.
6010  *
6011  *      NB:  This is the only routine which MAY NOT lazy-evaluate
6012  *      or lose information.  That is, this routine must actually
6013  *      insert this page into the given map NOW.
6014  *
6015  *      When destroying both a page table and PV entry, this function
6016  *      performs the TLB invalidation before releasing the PV list
6017  *      lock, so we do not need pmap_delayed_invl_page() calls here.
6018  */
6019 int
6020 pmap_enter(pmap_t pmap, vm_offset_t va, vm_page_t m, vm_prot_t prot,
6021     u_int flags, int8_t psind)
6022 {
6023         struct rwlock *lock;
6024         pd_entry_t *pde;
6025         pt_entry_t *pte, PG_G, PG_A, PG_M, PG_RW, PG_V;
6026         pt_entry_t newpte, origpte;
6027         pv_entry_t pv;
6028         vm_paddr_t opa, pa;
6029         vm_page_t mpte, om;
6030         int rv;
6031         boolean_t nosleep;
6032
6033         PG_A = pmap_accessed_bit(pmap);
6034         PG_G = pmap_global_bit(pmap);
6035         PG_M = pmap_modified_bit(pmap);
6036         PG_V = pmap_valid_bit(pmap);
6037         PG_RW = pmap_rw_bit(pmap);
6038
6039         va = trunc_page(va);
6040         KASSERT(va <= VM_MAX_KERNEL_ADDRESS, ("pmap_enter: toobig"));
6041         KASSERT(va < UPT_MIN_ADDRESS || va >= UPT_MAX_ADDRESS,
6042             ("pmap_enter: invalid to pmap_enter page table pages (va: 0x%lx)",
6043             va));
6044         KASSERT((m->oflags & VPO_UNMANAGED) != 0 || va < kmi.clean_sva ||
6045             va >= kmi.clean_eva,
6046             ("pmap_enter: managed mapping within the clean submap"));
6047         if ((m->oflags & VPO_UNMANAGED) == 0)
6048                 VM_PAGE_OBJECT_BUSY_ASSERT(m);
6049         KASSERT((flags & PMAP_ENTER_RESERVED) == 0,
6050             ("pmap_enter: flags %u has reserved bits set", flags));
6051         pa = VM_PAGE_TO_PHYS(m);
6052         newpte = (pt_entry_t)(pa | PG_A | PG_V);
6053         if ((flags & VM_PROT_WRITE) != 0)
6054                 newpte |= PG_M;
6055         if ((prot & VM_PROT_WRITE) != 0)
6056                 newpte |= PG_RW;
6057         KASSERT((newpte & (PG_M | PG_RW)) != PG_M,
6058             ("pmap_enter: flags includes VM_PROT_WRITE but prot doesn't"));
6059         if ((prot & VM_PROT_EXECUTE) == 0)
6060                 newpte |= pg_nx;
6061         if ((flags & PMAP_ENTER_WIRED) != 0)
6062                 newpte |= PG_W;
6063         if (va < VM_MAXUSER_ADDRESS)
6064                 newpte |= PG_U;
6065         if (pmap == kernel_pmap)
6066                 newpte |= PG_G;
6067         newpte |= pmap_cache_bits(pmap, m->md.pat_mode, psind > 0);
6068
6069         /*
6070          * Set modified bit gratuitously for writeable mappings if
6071          * the page is unmanaged. We do not want to take a fault
6072          * to do the dirty bit accounting for these mappings.
6073          */
6074         if ((m->oflags & VPO_UNMANAGED) != 0) {
6075                 if ((newpte & PG_RW) != 0)
6076                         newpte |= PG_M;
6077         } else
6078                 newpte |= PG_MANAGED;
6079
6080         lock = NULL;
6081         PMAP_LOCK(pmap);
6082         if (psind == 1) {
6083                 /* Assert the required virtual and physical alignment. */ 
6084                 KASSERT((va & PDRMASK) == 0, ("pmap_enter: va unaligned"));
6085                 KASSERT(m->psind > 0, ("pmap_enter: m->psind < psind"));
6086                 rv = pmap_enter_pde(pmap, va, newpte | PG_PS, flags, m, &lock);
6087                 goto out;
6088         }
6089         mpte = NULL;
6090
6091         /*
6092          * In the case that a page table page is not
6093          * resident, we are creating it here.
6094          */
6095 retry:
6096         pde = pmap_pde(pmap, va);
6097         if (pde != NULL && (*pde & PG_V) != 0 && ((*pde & PG_PS) == 0 ||
6098             pmap_demote_pde_locked(pmap, pde, va, &lock))) {
6099                 pte = pmap_pde_to_pte(pde, va);
6100                 if (va < VM_MAXUSER_ADDRESS && mpte == NULL) {
6101                         mpte = PHYS_TO_VM_PAGE(*pde & PG_FRAME);
6102                         mpte->ref_count++;
6103                 }
6104         } else if (va < VM_MAXUSER_ADDRESS) {
6105                 /*
6106                  * Here if the pte page isn't mapped, or if it has been
6107                  * deallocated.
6108                  */
6109                 nosleep = (flags & PMAP_ENTER_NOSLEEP) != 0;
6110                 mpte = _pmap_allocpte(pmap, pmap_pde_pindex(va),
6111                     nosleep ? NULL : &lock);
6112                 if (mpte == NULL && nosleep) {
6113                         rv = KERN_RESOURCE_SHORTAGE;
6114                         goto out;
6115                 }
6116                 goto retry;
6117         } else
6118                 panic("pmap_enter: invalid page directory va=%#lx", va);
6119
6120         origpte = *pte;
6121         pv = NULL;
6122         if (va < VM_MAXUSER_ADDRESS && pmap->pm_type == PT_X86)
6123                 newpte |= pmap_pkru_get(pmap, va);
6124
6125         /*
6126          * Is the specified virtual address already mapped?
6127          */
6128         if ((origpte & PG_V) != 0) {
6129                 /*
6130                  * Wiring change, just update stats. We don't worry about
6131                  * wiring PT pages as they remain resident as long as there
6132                  * are valid mappings in them. Hence, if a user page is wired,
6133                  * the PT page will be also.
6134                  */
6135                 if ((newpte & PG_W) != 0 && (origpte & PG_W) == 0)
6136                         pmap->pm_stats.wired_count++;
6137                 else if ((newpte & PG_W) == 0 && (origpte & PG_W) != 0)
6138                         pmap->pm_stats.wired_count--;
6139
6140                 /*
6141                  * Remove the extra PT page reference.
6142                  */
6143                 if (mpte != NULL) {
6144                         mpte->ref_count--;
6145                         KASSERT(mpte->ref_count > 0,
6146                             ("pmap_enter: missing reference to page table page,"
6147                              " va: 0x%lx", va));
6148                 }
6149
6150                 /*
6151                  * Has the physical page changed?
6152                  */
6153                 opa = origpte & PG_FRAME;
6154                 if (opa == pa) {
6155                         /*
6156                          * No, might be a protection or wiring change.
6157                          */
6158                         if ((origpte & PG_MANAGED) != 0 &&
6159                             (newpte & PG_RW) != 0)
6160                                 vm_page_aflag_set(m, PGA_WRITEABLE);
6161                         if (((origpte ^ newpte) & ~(PG_M | PG_A)) == 0)
6162                                 goto unchanged;
6163                         goto validate;
6164                 }
6165
6166                 /*
6167                  * The physical page has changed.  Temporarily invalidate
6168                  * the mapping.  This ensures that all threads sharing the
6169                  * pmap keep a consistent view of the mapping, which is
6170                  * necessary for the correct handling of COW faults.  It
6171                  * also permits reuse of the old mapping's PV entry,
6172                  * avoiding an allocation.
6173                  *
6174                  * For consistency, handle unmanaged mappings the same way.
6175                  */
6176                 origpte = pte_load_clear(pte);
6177                 KASSERT((origpte & PG_FRAME) == opa,
6178                     ("pmap_enter: unexpected pa update for %#lx", va));
6179                 if ((origpte & PG_MANAGED) != 0) {
6180                         om = PHYS_TO_VM_PAGE(opa);
6181
6182                         /*
6183                          * The pmap lock is sufficient to synchronize with
6184                          * concurrent calls to pmap_page_test_mappings() and
6185                          * pmap_ts_referenced().
6186                          */
6187                         if ((origpte & (PG_M | PG_RW)) == (PG_M | PG_RW))
6188                                 vm_page_dirty(om);
6189                         if ((origpte & PG_A) != 0) {
6190                                 pmap_invalidate_page(pmap, va);
6191                                 vm_page_aflag_set(om, PGA_REFERENCED);
6192                         }
6193                         CHANGE_PV_LIST_LOCK_TO_PHYS(&lock, opa);
6194                         pv = pmap_pvh_remove(&om->md, pmap, va);
6195                         KASSERT(pv != NULL,
6196                             ("pmap_enter: no PV entry for %#lx", va));
6197                         if ((newpte & PG_MANAGED) == 0)
6198                                 free_pv_entry(pmap, pv);
6199                         if ((om->a.flags & PGA_WRITEABLE) != 0 &&
6200                             TAILQ_EMPTY(&om->md.pv_list) &&
6201                             ((om->flags & PG_FICTITIOUS) != 0 ||
6202                             TAILQ_EMPTY(&pa_to_pvh(opa)->pv_list)))
6203                                 vm_page_aflag_clear(om, PGA_WRITEABLE);
6204                 } else {
6205                         /*
6206                          * Since this mapping is unmanaged, assume that PG_A
6207                          * is set.
6208                          */
6209                         pmap_invalidate_page(pmap, va);
6210                 }
6211                 origpte = 0;
6212         } else {
6213                 /*
6214                  * Increment the counters.
6215                  */
6216                 if ((newpte & PG_W) != 0)
6217                         pmap->pm_stats.wired_count++;
6218                 pmap_resident_count_inc(pmap, 1);
6219         }
6220
6221         /*
6222          * Enter on the PV list if part of our managed memory.
6223          */
6224         if ((newpte & PG_MANAGED) != 0) {
6225                 if (pv == NULL) {
6226                         pv = get_pv_entry(pmap, &lock);
6227                         pv->pv_va = va;
6228                 }
6229                 CHANGE_PV_LIST_LOCK_TO_PHYS(&lock, pa);
6230                 TAILQ_INSERT_TAIL(&m->md.pv_list, pv, pv_next);
6231                 m->md.pv_gen++;
6232                 if ((newpte & PG_RW) != 0)
6233                         vm_page_aflag_set(m, PGA_WRITEABLE);
6234         }
6235
6236         /*
6237          * Update the PTE.
6238          */
6239         if ((origpte & PG_V) != 0) {
6240 validate:
6241                 origpte = pte_load_store(pte, newpte);
6242                 KASSERT((origpte & PG_FRAME) == pa,
6243                     ("pmap_enter: unexpected pa update for %#lx", va));
6244                 if ((newpte & PG_M) == 0 && (origpte & (PG_M | PG_RW)) ==
6245                     (PG_M | PG_RW)) {
6246                         if ((origpte & PG_MANAGED) != 0)
6247                                 vm_page_dirty(m);
6248
6249                         /*
6250                          * Although the PTE may still have PG_RW set, TLB
6251                          * invalidation may nonetheless be required because
6252                          * the PTE no longer has PG_M set.
6253                          */
6254                 } else if ((origpte & PG_NX) != 0 || (newpte & PG_NX) == 0) {
6255                         /*
6256                          * This PTE change does not require TLB invalidation.
6257                          */
6258                         goto unchanged;
6259                 }
6260                 if ((origpte & PG_A) != 0)
6261                         pmap_invalidate_page(pmap, va);
6262         } else
6263                 pte_store(pte, newpte);
6264
6265 unchanged:
6266
6267 #if VM_NRESERVLEVEL > 0
6268         /*
6269          * If both the page table page and the reservation are fully
6270          * populated, then attempt promotion.
6271          */
6272         if ((mpte == NULL || mpte->ref_count == NPTEPG) &&
6273             pmap_ps_enabled(pmap) &&
6274             (m->flags & PG_FICTITIOUS) == 0 &&
6275             vm_reserv_level_iffullpop(m) == 0)
6276                 pmap_promote_pde(pmap, pde, va, &lock);
6277 #endif
6278
6279         rv = KERN_SUCCESS;
6280 out:
6281         if (lock != NULL)
6282                 rw_wunlock(lock);
6283         PMAP_UNLOCK(pmap);
6284         return (rv);
6285 }
6286
6287 /*
6288  * Tries to create a read- and/or execute-only 2MB page mapping.  Returns true
6289  * if successful.  Returns false if (1) a page table page cannot be allocated
6290  * without sleeping, (2) a mapping already exists at the specified virtual
6291  * address, or (3) a PV entry cannot be allocated without reclaiming another
6292  * PV entry.
6293  */
6294 static bool
6295 pmap_enter_2mpage(pmap_t pmap, vm_offset_t va, vm_page_t m, vm_prot_t prot,
6296     struct rwlock **lockp)
6297 {
6298         pd_entry_t newpde;
6299         pt_entry_t PG_V;
6300
6301         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
6302         PG_V = pmap_valid_bit(pmap);
6303         newpde = VM_PAGE_TO_PHYS(m) | pmap_cache_bits(pmap, m->md.pat_mode, 1) |
6304             PG_PS | PG_V;
6305         if ((m->oflags & VPO_UNMANAGED) == 0)
6306                 newpde |= PG_MANAGED;
6307         if ((prot & VM_PROT_EXECUTE) == 0)
6308                 newpde |= pg_nx;
6309         if (va < VM_MAXUSER_ADDRESS)
6310                 newpde |= PG_U;
6311         return (pmap_enter_pde(pmap, va, newpde, PMAP_ENTER_NOSLEEP |
6312             PMAP_ENTER_NOREPLACE | PMAP_ENTER_NORECLAIM, NULL, lockp) ==
6313             KERN_SUCCESS);
6314 }
6315
6316 /*
6317  * Returns true if every page table entry in the specified page table page is
6318  * zero.
6319  */
6320 static bool
6321 pmap_every_pte_zero(vm_paddr_t pa)
6322 {
6323         pt_entry_t *pt_end, *pte;
6324
6325         KASSERT((pa & PAGE_MASK) == 0, ("pa is misaligned"));
6326         pte = (pt_entry_t *)PHYS_TO_DMAP(pa);
6327         for (pt_end = pte + NPTEPG; pte < pt_end; pte++) {
6328                 if (*pte != 0)
6329                         return (false);
6330         }
6331         return (true);
6332 }
6333
6334 /*
6335  * Tries to create the specified 2MB page mapping.  Returns KERN_SUCCESS if
6336  * the mapping was created, and either KERN_FAILURE or KERN_RESOURCE_SHORTAGE
6337  * otherwise.  Returns KERN_FAILURE if PMAP_ENTER_NOREPLACE was specified and
6338  * a mapping already exists at the specified virtual address.  Returns
6339  * KERN_RESOURCE_SHORTAGE if PMAP_ENTER_NOSLEEP was specified and a page table
6340  * page allocation failed.  Returns KERN_RESOURCE_SHORTAGE if
6341  * PMAP_ENTER_NORECLAIM was specified and a PV entry allocation failed.
6342  *
6343  * The parameter "m" is only used when creating a managed, writeable mapping.
6344  */
6345 static int
6346 pmap_enter_pde(pmap_t pmap, vm_offset_t va, pd_entry_t newpde, u_int flags,
6347     vm_page_t m, struct rwlock **lockp)
6348 {
6349         struct spglist free;
6350         pd_entry_t oldpde, *pde;
6351         pt_entry_t PG_G, PG_RW, PG_V;
6352         vm_page_t mt, pdpg;
6353
6354         KASSERT(pmap == kernel_pmap || (newpde & PG_W) == 0,
6355             ("pmap_enter_pde: cannot create wired user mapping"));
6356         PG_G = pmap_global_bit(pmap);
6357         PG_RW = pmap_rw_bit(pmap);
6358         KASSERT((newpde & (pmap_modified_bit(pmap) | PG_RW)) != PG_RW,
6359             ("pmap_enter_pde: newpde is missing PG_M"));
6360         PG_V = pmap_valid_bit(pmap);
6361         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
6362
6363         if (!pmap_allow_2m_x_page(pmap, pmap_pde_ept_executable(pmap,
6364             newpde))) {
6365                 CTR2(KTR_PMAP, "pmap_enter_pde: 2m x blocked for va %#lx"
6366                     " in pmap %p", va, pmap);
6367                 return (KERN_FAILURE);
6368         }
6369         if ((pde = pmap_alloc_pde(pmap, va, &pdpg, (flags &
6370             PMAP_ENTER_NOSLEEP) != 0 ? NULL : lockp)) == NULL) {
6371                 CTR2(KTR_PMAP, "pmap_enter_pde: failure for va %#lx"
6372                     " in pmap %p", va, pmap);
6373                 return (KERN_RESOURCE_SHORTAGE);
6374         }
6375
6376         /*
6377          * If pkru is not same for the whole pde range, return failure
6378          * and let vm_fault() cope.  Check after pde allocation, since
6379          * it could sleep.
6380          */
6381         if (!pmap_pkru_same(pmap, va, va + NBPDR)) {
6382                 pmap_abort_ptp(pmap, va, pdpg);
6383                 return (KERN_FAILURE);
6384         }
6385         if (va < VM_MAXUSER_ADDRESS && pmap->pm_type == PT_X86) {
6386                 newpde &= ~X86_PG_PKU_MASK;
6387                 newpde |= pmap_pkru_get(pmap, va);
6388         }
6389
6390         /*
6391          * If there are existing mappings, either abort or remove them.
6392          */
6393         oldpde = *pde;
6394         if ((oldpde & PG_V) != 0) {
6395                 KASSERT(pdpg == NULL || pdpg->ref_count > 1,
6396                     ("pmap_enter_pde: pdpg's reference count is too low"));
6397                 if ((flags & PMAP_ENTER_NOREPLACE) != 0 && (va <
6398                     VM_MAXUSER_ADDRESS || (oldpde & PG_PS) != 0 ||
6399                     !pmap_every_pte_zero(oldpde & PG_FRAME))) {
6400                         if (pdpg != NULL)
6401                                 pdpg->ref_count--;
6402                         CTR2(KTR_PMAP, "pmap_enter_pde: failure for va %#lx"
6403                             " in pmap %p", va, pmap);
6404                         return (KERN_FAILURE);
6405                 }
6406                 /* Break the existing mapping(s). */
6407                 SLIST_INIT(&free);
6408                 if ((oldpde & PG_PS) != 0) {
6409                         /*
6410                          * The reference to the PD page that was acquired by
6411                          * pmap_alloc_pde() ensures that it won't be freed.
6412                          * However, if the PDE resulted from a promotion, then
6413                          * a reserved PT page could be freed.
6414                          */
6415                         (void)pmap_remove_pde(pmap, pde, va, &free, lockp);
6416                         if ((oldpde & PG_G) == 0)
6417                                 pmap_invalidate_pde_page(pmap, va, oldpde);
6418                 } else {
6419                         pmap_delayed_invl_start();
6420                         if (pmap_remove_ptes(pmap, va, va + NBPDR, pde, &free,
6421                             lockp))
6422                                pmap_invalidate_all(pmap);
6423                         pmap_delayed_invl_finish();
6424                 }
6425                 if (va < VM_MAXUSER_ADDRESS) {
6426                         vm_page_free_pages_toq(&free, true);
6427                         KASSERT(*pde == 0, ("pmap_enter_pde: non-zero pde %p",
6428                             pde));
6429                 } else {
6430                         KASSERT(SLIST_EMPTY(&free),
6431                             ("pmap_enter_pde: freed kernel page table page"));
6432
6433                         /*
6434                          * Both pmap_remove_pde() and pmap_remove_ptes() will
6435                          * leave the kernel page table page zero filled.
6436                          */
6437                         mt = PHYS_TO_VM_PAGE(*pde & PG_FRAME);
6438                         if (pmap_insert_pt_page(pmap, mt, false))
6439                                 panic("pmap_enter_pde: trie insert failed");
6440                 }
6441         }
6442
6443         if ((newpde & PG_MANAGED) != 0) {
6444                 /*
6445                  * Abort this mapping if its PV entry could not be created.
6446                  */
6447                 if (!pmap_pv_insert_pde(pmap, va, newpde, flags, lockp)) {
6448                         if (pdpg != NULL)
6449                                 pmap_abort_ptp(pmap, va, pdpg);
6450                         CTR2(KTR_PMAP, "pmap_enter_pde: failure for va %#lx"
6451                             " in pmap %p", va, pmap);
6452                         return (KERN_RESOURCE_SHORTAGE);
6453                 }
6454                 if ((newpde & PG_RW) != 0) {
6455                         for (mt = m; mt < &m[NBPDR / PAGE_SIZE]; mt++)
6456                                 vm_page_aflag_set(mt, PGA_WRITEABLE);
6457                 }
6458         }
6459
6460         /*
6461          * Increment counters.
6462          */
6463         if ((newpde & PG_W) != 0)
6464                 pmap->pm_stats.wired_count += NBPDR / PAGE_SIZE;
6465         pmap_resident_count_inc(pmap, NBPDR / PAGE_SIZE);
6466
6467         /*
6468          * Map the superpage.  (This is not a promoted mapping; there will not
6469          * be any lingering 4KB page mappings in the TLB.)
6470          */
6471         pde_store(pde, newpde);
6472
6473         atomic_add_long(&pmap_pde_mappings, 1);
6474         CTR2(KTR_PMAP, "pmap_enter_pde: success for va %#lx in pmap %p",
6475             va, pmap);
6476         return (KERN_SUCCESS);
6477 }
6478
6479 /*
6480  * Maps a sequence of resident pages belonging to the same object.
6481  * The sequence begins with the given page m_start.  This page is
6482  * mapped at the given virtual address start.  Each subsequent page is
6483  * mapped at a virtual address that is offset from start by the same
6484  * amount as the page is offset from m_start within the object.  The
6485  * last page in the sequence is the page with the largest offset from
6486  * m_start that can be mapped at a virtual address less than the given
6487  * virtual address end.  Not every virtual page between start and end
6488  * is mapped; only those for which a resident page exists with the
6489  * corresponding offset from m_start are mapped.
6490  */
6491 void
6492 pmap_enter_object(pmap_t pmap, vm_offset_t start, vm_offset_t end,
6493     vm_page_t m_start, vm_prot_t prot)
6494 {
6495         struct rwlock *lock;
6496         vm_offset_t va;
6497         vm_page_t m, mpte;
6498         vm_pindex_t diff, psize;
6499
6500         VM_OBJECT_ASSERT_LOCKED(m_start->object);
6501
6502         psize = atop(end - start);
6503         mpte = NULL;
6504         m = m_start;
6505         lock = NULL;
6506         PMAP_LOCK(pmap);
6507         while (m != NULL && (diff = m->pindex - m_start->pindex) < psize) {
6508                 va = start + ptoa(diff);
6509                 if ((va & PDRMASK) == 0 && va + NBPDR <= end &&
6510                     m->psind == 1 && pmap_ps_enabled(pmap) &&
6511                     pmap_allow_2m_x_page(pmap, (prot & VM_PROT_EXECUTE) != 0) &&
6512                     pmap_enter_2mpage(pmap, va, m, prot, &lock))
6513                         m = &m[NBPDR / PAGE_SIZE - 1];
6514                 else
6515                         mpte = pmap_enter_quick_locked(pmap, va, m, prot,
6516                             mpte, &lock);
6517                 m = TAILQ_NEXT(m, listq);
6518         }
6519         if (lock != NULL)
6520                 rw_wunlock(lock);
6521         PMAP_UNLOCK(pmap);
6522 }
6523
6524 /*
6525  * this code makes some *MAJOR* assumptions:
6526  * 1. Current pmap & pmap exists.
6527  * 2. Not wired.
6528  * 3. Read access.
6529  * 4. No page table pages.
6530  * but is *MUCH* faster than pmap_enter...
6531  */
6532
6533 void
6534 pmap_enter_quick(pmap_t pmap, vm_offset_t va, vm_page_t m, vm_prot_t prot)
6535 {
6536         struct rwlock *lock;
6537
6538         lock = NULL;
6539         PMAP_LOCK(pmap);
6540         (void)pmap_enter_quick_locked(pmap, va, m, prot, NULL, &lock);
6541         if (lock != NULL)
6542                 rw_wunlock(lock);
6543         PMAP_UNLOCK(pmap);
6544 }
6545
6546 static vm_page_t
6547 pmap_enter_quick_locked(pmap_t pmap, vm_offset_t va, vm_page_t m,
6548     vm_prot_t prot, vm_page_t mpte, struct rwlock **lockp)
6549 {
6550         pt_entry_t newpte, *pte, PG_V;
6551
6552         KASSERT(va < kmi.clean_sva || va >= kmi.clean_eva ||
6553             (m->oflags & VPO_UNMANAGED) != 0,
6554             ("pmap_enter_quick_locked: managed mapping within the clean submap"));
6555         PG_V = pmap_valid_bit(pmap);
6556         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
6557
6558         /*
6559          * In the case that a page table page is not
6560          * resident, we are creating it here.
6561          */
6562         if (va < VM_MAXUSER_ADDRESS) {
6563                 vm_pindex_t ptepindex;
6564                 pd_entry_t *ptepa;
6565
6566                 /*
6567                  * Calculate pagetable page index
6568                  */
6569                 ptepindex = pmap_pde_pindex(va);
6570                 if (mpte && (mpte->pindex == ptepindex)) {
6571                         mpte->ref_count++;
6572                 } else {
6573                         /*
6574                          * Get the page directory entry
6575                          */
6576                         ptepa = pmap_pde(pmap, va);
6577
6578                         /*
6579                          * If the page table page is mapped, we just increment
6580                          * the hold count, and activate it.  Otherwise, we
6581                          * attempt to allocate a page table page.  If this
6582                          * attempt fails, we don't retry.  Instead, we give up.
6583                          */
6584                         if (ptepa && (*ptepa & PG_V) != 0) {
6585                                 if (*ptepa & PG_PS)
6586                                         return (NULL);
6587                                 mpte = PHYS_TO_VM_PAGE(*ptepa & PG_FRAME);
6588                                 mpte->ref_count++;
6589                         } else {
6590                                 /*
6591                                  * Pass NULL instead of the PV list lock
6592                                  * pointer, because we don't intend to sleep.
6593                                  */
6594                                 mpte = _pmap_allocpte(pmap, ptepindex, NULL);
6595                                 if (mpte == NULL)
6596                                         return (mpte);
6597                         }
6598                 }
6599                 pte = (pt_entry_t *)PHYS_TO_DMAP(VM_PAGE_TO_PHYS(mpte));
6600                 pte = &pte[pmap_pte_index(va)];
6601         } else {
6602                 mpte = NULL;
6603                 pte = vtopte(va);
6604         }
6605         if (*pte) {
6606                 if (mpte != NULL)
6607                         mpte->ref_count--;
6608                 return (NULL);
6609         }
6610
6611         /*
6612          * Enter on the PV list if part of our managed memory.
6613          */
6614         if ((m->oflags & VPO_UNMANAGED) == 0 &&
6615             !pmap_try_insert_pv_entry(pmap, va, m, lockp)) {
6616                 if (mpte != NULL)
6617                         pmap_abort_ptp(pmap, va, mpte);
6618                 return (NULL);
6619         }
6620
6621         /*
6622          * Increment counters
6623          */
6624         pmap_resident_count_inc(pmap, 1);
6625
6626         newpte = VM_PAGE_TO_PHYS(m) | PG_V |
6627             pmap_cache_bits(pmap, m->md.pat_mode, 0);
6628         if ((m->oflags & VPO_UNMANAGED) == 0)
6629                 newpte |= PG_MANAGED;
6630         if ((prot & VM_PROT_EXECUTE) == 0)
6631                 newpte |= pg_nx;
6632         if (va < VM_MAXUSER_ADDRESS)
6633                 newpte |= PG_U | pmap_pkru_get(pmap, va);
6634         pte_store(pte, newpte);
6635         return (mpte);
6636 }
6637
6638 /*
6639  * Make a temporary mapping for a physical address.  This is only intended
6640  * to be used for panic dumps.
6641  */
6642 void *
6643 pmap_kenter_temporary(vm_paddr_t pa, int i)
6644 {
6645         vm_offset_t va;
6646
6647         va = (vm_offset_t)crashdumpmap + (i * PAGE_SIZE);
6648         pmap_kenter(va, pa);
6649         invlpg(va);
6650         return ((void *)crashdumpmap);
6651 }
6652
6653 /*
6654  * This code maps large physical mmap regions into the
6655  * processor address space.  Note that some shortcuts
6656  * are taken, but the code works.
6657  */
6658 void
6659 pmap_object_init_pt(pmap_t pmap, vm_offset_t addr, vm_object_t object,
6660     vm_pindex_t pindex, vm_size_t size)
6661 {
6662         pd_entry_t *pde;
6663         pt_entry_t PG_A, PG_M, PG_RW, PG_V;
6664         vm_paddr_t pa, ptepa;
6665         vm_page_t p, pdpg;
6666         int pat_mode;
6667
6668         PG_A = pmap_accessed_bit(pmap);
6669         PG_M = pmap_modified_bit(pmap);
6670         PG_V = pmap_valid_bit(pmap);
6671         PG_RW = pmap_rw_bit(pmap);
6672
6673         VM_OBJECT_ASSERT_WLOCKED(object);
6674         KASSERT(object->type == OBJT_DEVICE || object->type == OBJT_SG,
6675             ("pmap_object_init_pt: non-device object"));
6676         if ((addr & (NBPDR - 1)) == 0 && (size & (NBPDR - 1)) == 0) {
6677                 if (!pmap_ps_enabled(pmap))
6678                         return;
6679                 if (!vm_object_populate(object, pindex, pindex + atop(size)))
6680                         return;
6681                 p = vm_page_lookup(object, pindex);
6682                 KASSERT(p->valid == VM_PAGE_BITS_ALL,
6683                     ("pmap_object_init_pt: invalid page %p", p));
6684                 pat_mode = p->md.pat_mode;
6685
6686                 /*
6687                  * Abort the mapping if the first page is not physically
6688                  * aligned to a 2MB page boundary.
6689                  */
6690                 ptepa = VM_PAGE_TO_PHYS(p);
6691                 if (ptepa & (NBPDR - 1))
6692                         return;
6693
6694                 /*
6695                  * Skip the first page.  Abort the mapping if the rest of
6696                  * the pages are not physically contiguous or have differing
6697                  * memory attributes.
6698                  */
6699                 p = TAILQ_NEXT(p, listq);
6700                 for (pa = ptepa + PAGE_SIZE; pa < ptepa + size;
6701                     pa += PAGE_SIZE) {
6702                         KASSERT(p->valid == VM_PAGE_BITS_ALL,
6703                             ("pmap_object_init_pt: invalid page %p", p));
6704                         if (pa != VM_PAGE_TO_PHYS(p) ||
6705                             pat_mode != p->md.pat_mode)
6706                                 return;
6707                         p = TAILQ_NEXT(p, listq);
6708                 }
6709
6710                 /*
6711                  * Map using 2MB pages.  Since "ptepa" is 2M aligned and
6712                  * "size" is a multiple of 2M, adding the PAT setting to "pa"
6713                  * will not affect the termination of this loop.
6714                  */ 
6715                 PMAP_LOCK(pmap);
6716                 for (pa = ptepa | pmap_cache_bits(pmap, pat_mode, 1);
6717                     pa < ptepa + size; pa += NBPDR) {
6718                         pde = pmap_alloc_pde(pmap, addr, &pdpg, NULL);
6719                         if (pde == NULL) {
6720                                 /*
6721                                  * The creation of mappings below is only an
6722                                  * optimization.  If a page directory page
6723                                  * cannot be allocated without blocking,
6724                                  * continue on to the next mapping rather than
6725                                  * blocking.
6726                                  */
6727                                 addr += NBPDR;
6728                                 continue;
6729                         }
6730                         if ((*pde & PG_V) == 0) {
6731                                 pde_store(pde, pa | PG_PS | PG_M | PG_A |
6732                                     PG_U | PG_RW | PG_V);
6733                                 pmap_resident_count_inc(pmap, NBPDR / PAGE_SIZE);
6734                                 atomic_add_long(&pmap_pde_mappings, 1);
6735                         } else {
6736                                 /* Continue on if the PDE is already valid. */
6737                                 pdpg->ref_count--;
6738                                 KASSERT(pdpg->ref_count > 0,
6739                                     ("pmap_object_init_pt: missing reference "
6740                                     "to page directory page, va: 0x%lx", addr));
6741                         }
6742                         addr += NBPDR;
6743                 }
6744                 PMAP_UNLOCK(pmap);
6745         }
6746 }
6747
6748 /*
6749  *      Clear the wired attribute from the mappings for the specified range of
6750  *      addresses in the given pmap.  Every valid mapping within that range
6751  *      must have the wired attribute set.  In contrast, invalid mappings
6752  *      cannot have the wired attribute set, so they are ignored.
6753  *
6754  *      The wired attribute of the page table entry is not a hardware
6755  *      feature, so there is no need to invalidate any TLB entries.
6756  *      Since pmap_demote_pde() for the wired entry must never fail,
6757  *      pmap_delayed_invl_start()/finish() calls around the
6758  *      function are not needed.
6759  */
6760 void
6761 pmap_unwire(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
6762 {
6763         vm_offset_t va_next;
6764         pml4_entry_t *pml4e;
6765         pdp_entry_t *pdpe;
6766         pd_entry_t *pde;
6767         pt_entry_t *pte, PG_V;
6768
6769         PG_V = pmap_valid_bit(pmap);
6770         PMAP_LOCK(pmap);
6771         for (; sva < eva; sva = va_next) {
6772                 pml4e = pmap_pml4e(pmap, sva);
6773                 if ((*pml4e & PG_V) == 0) {
6774                         va_next = (sva + NBPML4) & ~PML4MASK;
6775                         if (va_next < sva)
6776                                 va_next = eva;
6777                         continue;
6778                 }
6779                 pdpe = pmap_pml4e_to_pdpe(pml4e, sva);
6780                 if ((*pdpe & PG_V) == 0) {
6781                         va_next = (sva + NBPDP) & ~PDPMASK;
6782                         if (va_next < sva)
6783                                 va_next = eva;
6784                         continue;
6785                 }
6786                 va_next = (sva + NBPDR) & ~PDRMASK;
6787                 if (va_next < sva)
6788                         va_next = eva;
6789                 pde = pmap_pdpe_to_pde(pdpe, sva);
6790                 if ((*pde & PG_V) == 0)
6791                         continue;
6792                 if ((*pde & PG_PS) != 0) {
6793                         if ((*pde & PG_W) == 0)
6794                                 panic("pmap_unwire: pde %#jx is missing PG_W",
6795                                     (uintmax_t)*pde);
6796
6797                         /*
6798                          * Are we unwiring the entire large page?  If not,
6799                          * demote the mapping and fall through.
6800                          */
6801                         if (sva + NBPDR == va_next && eva >= va_next) {
6802                                 atomic_clear_long(pde, PG_W);
6803                                 pmap->pm_stats.wired_count -= NBPDR /
6804                                     PAGE_SIZE;
6805                                 continue;
6806                         } else if (!pmap_demote_pde(pmap, pde, sva))
6807                                 panic("pmap_unwire: demotion failed");
6808                 }
6809                 if (va_next > eva)
6810                         va_next = eva;
6811                 for (pte = pmap_pde_to_pte(pde, sva); sva != va_next; pte++,
6812                     sva += PAGE_SIZE) {
6813                         if ((*pte & PG_V) == 0)
6814                                 continue;
6815                         if ((*pte & PG_W) == 0)
6816                                 panic("pmap_unwire: pte %#jx is missing PG_W",
6817                                     (uintmax_t)*pte);
6818
6819                         /*
6820                          * PG_W must be cleared atomically.  Although the pmap
6821                          * lock synchronizes access to PG_W, another processor
6822                          * could be setting PG_M and/or PG_A concurrently.
6823                          */
6824                         atomic_clear_long(pte, PG_W);
6825                         pmap->pm_stats.wired_count--;
6826                 }
6827         }
6828         PMAP_UNLOCK(pmap);
6829 }
6830
6831 /*
6832  *      Copy the range specified by src_addr/len
6833  *      from the source map to the range dst_addr/len
6834  *      in the destination map.
6835  *
6836  *      This routine is only advisory and need not do anything.
6837  */
6838 void
6839 pmap_copy(pmap_t dst_pmap, pmap_t src_pmap, vm_offset_t dst_addr, vm_size_t len,
6840     vm_offset_t src_addr)
6841 {
6842         struct rwlock *lock;
6843         pml4_entry_t *pml4e;
6844         pdp_entry_t *pdpe;
6845         pd_entry_t *pde, srcptepaddr;
6846         pt_entry_t *dst_pte, PG_A, PG_M, PG_V, ptetemp, *src_pte;
6847         vm_offset_t addr, end_addr, va_next;
6848         vm_page_t dst_pdpg, dstmpte, srcmpte;
6849
6850         if (dst_addr != src_addr)
6851                 return;
6852
6853         if (dst_pmap->pm_type != src_pmap->pm_type)
6854                 return;
6855
6856         /*
6857          * EPT page table entries that require emulation of A/D bits are
6858          * sensitive to clearing the PG_A bit (aka EPT_PG_READ). Although
6859          * we clear PG_M (aka EPT_PG_WRITE) concomitantly, the PG_U bit
6860          * (aka EPT_PG_EXECUTE) could still be set. Since some EPT
6861          * implementations flag an EPT misconfiguration for exec-only
6862          * mappings we skip this function entirely for emulated pmaps.
6863          */
6864         if (pmap_emulate_ad_bits(dst_pmap))
6865                 return;
6866
6867         end_addr = src_addr + len;
6868         lock = NULL;
6869         if (dst_pmap < src_pmap) {
6870                 PMAP_LOCK(dst_pmap);
6871                 PMAP_LOCK(src_pmap);
6872         } else {
6873                 PMAP_LOCK(src_pmap);
6874                 PMAP_LOCK(dst_pmap);
6875         }
6876
6877         PG_A = pmap_accessed_bit(dst_pmap);
6878         PG_M = pmap_modified_bit(dst_pmap);
6879         PG_V = pmap_valid_bit(dst_pmap);
6880
6881         for (addr = src_addr; addr < end_addr; addr = va_next) {
6882                 KASSERT(addr < UPT_MIN_ADDRESS,
6883                     ("pmap_copy: invalid to pmap_copy page tables"));
6884
6885                 pml4e = pmap_pml4e(src_pmap, addr);
6886                 if ((*pml4e & PG_V) == 0) {
6887                         va_next = (addr + NBPML4) & ~PML4MASK;
6888                         if (va_next < addr)
6889                                 va_next = end_addr;
6890                         continue;
6891                 }
6892
6893                 pdpe = pmap_pml4e_to_pdpe(pml4e, addr);
6894                 if ((*pdpe & PG_V) == 0) {
6895                         va_next = (addr + NBPDP) & ~PDPMASK;
6896                         if (va_next < addr)
6897                                 va_next = end_addr;
6898                         continue;
6899                 }
6900
6901                 va_next = (addr + NBPDR) & ~PDRMASK;
6902                 if (va_next < addr)
6903                         va_next = end_addr;
6904
6905                 pde = pmap_pdpe_to_pde(pdpe, addr);
6906                 srcptepaddr = *pde;
6907                 if (srcptepaddr == 0)
6908                         continue;
6909                         
6910                 if (srcptepaddr & PG_PS) {
6911                         if ((addr & PDRMASK) != 0 || addr + NBPDR > end_addr)
6912                                 continue;
6913                         pde = pmap_alloc_pde(dst_pmap, addr, &dst_pdpg, NULL);
6914                         if (pde == NULL)
6915                                 break;
6916                         if (*pde == 0 && ((srcptepaddr & PG_MANAGED) == 0 ||
6917                             pmap_pv_insert_pde(dst_pmap, addr, srcptepaddr,
6918                             PMAP_ENTER_NORECLAIM, &lock))) {
6919                                 *pde = srcptepaddr & ~PG_W;
6920                                 pmap_resident_count_inc(dst_pmap, NBPDR /
6921                                     PAGE_SIZE);
6922                                 atomic_add_long(&pmap_pde_mappings, 1);
6923                         } else
6924                                 pmap_abort_ptp(dst_pmap, addr, dst_pdpg);
6925                         continue;
6926                 }
6927
6928                 srcptepaddr &= PG_FRAME;
6929                 srcmpte = PHYS_TO_VM_PAGE(srcptepaddr);
6930                 KASSERT(srcmpte->ref_count > 0,
6931                     ("pmap_copy: source page table page is unused"));
6932
6933                 if (va_next > end_addr)
6934                         va_next = end_addr;
6935
6936                 src_pte = (pt_entry_t *)PHYS_TO_DMAP(srcptepaddr);
6937                 src_pte = &src_pte[pmap_pte_index(addr)];
6938                 dstmpte = NULL;
6939                 for (; addr < va_next; addr += PAGE_SIZE, src_pte++) {
6940                         ptetemp = *src_pte;
6941
6942                         /*
6943                          * We only virtual copy managed pages.
6944                          */
6945                         if ((ptetemp & PG_MANAGED) == 0)
6946                                 continue;
6947
6948                         if (dstmpte != NULL) {
6949                                 KASSERT(dstmpte->pindex ==
6950                                     pmap_pde_pindex(addr),
6951                                     ("dstmpte pindex/addr mismatch"));
6952                                 dstmpte->ref_count++;
6953                         } else if ((dstmpte = pmap_allocpte(dst_pmap, addr,
6954                             NULL)) == NULL)
6955                                 goto out;
6956                         dst_pte = (pt_entry_t *)
6957                             PHYS_TO_DMAP(VM_PAGE_TO_PHYS(dstmpte));
6958                         dst_pte = &dst_pte[pmap_pte_index(addr)];
6959                         if (*dst_pte == 0 &&
6960                             pmap_try_insert_pv_entry(dst_pmap, addr,
6961                             PHYS_TO_VM_PAGE(ptetemp & PG_FRAME), &lock)) {
6962                                 /*
6963                                  * Clear the wired, modified, and accessed
6964                                  * (referenced) bits during the copy.
6965                                  */
6966                                 *dst_pte = ptetemp & ~(PG_W | PG_M | PG_A);
6967                                 pmap_resident_count_inc(dst_pmap, 1);
6968                         } else {
6969                                 pmap_abort_ptp(dst_pmap, addr, dstmpte);
6970                                 goto out;
6971                         }
6972                         /* Have we copied all of the valid mappings? */ 
6973                         if (dstmpte->ref_count >= srcmpte->ref_count)
6974                                 break;
6975                 }
6976         }
6977 out:
6978         if (lock != NULL)
6979                 rw_wunlock(lock);
6980         PMAP_UNLOCK(src_pmap);
6981         PMAP_UNLOCK(dst_pmap);
6982 }
6983
6984 int
6985 pmap_vmspace_copy(pmap_t dst_pmap, pmap_t src_pmap)
6986 {
6987         int error;
6988
6989         if (dst_pmap->pm_type != src_pmap->pm_type ||
6990             dst_pmap->pm_type != PT_X86 ||
6991             (cpu_stdext_feature2 & CPUID_STDEXT2_PKU) == 0)
6992                 return (0);
6993         for (;;) {
6994                 if (dst_pmap < src_pmap) {
6995                         PMAP_LOCK(dst_pmap);
6996                         PMAP_LOCK(src_pmap);
6997                 } else {
6998                         PMAP_LOCK(src_pmap);
6999                         PMAP_LOCK(dst_pmap);
7000                 }
7001                 error = pmap_pkru_copy(dst_pmap, src_pmap);
7002                 /* Clean up partial copy on failure due to no memory. */
7003                 if (error == ENOMEM)
7004                         pmap_pkru_deassign_all(dst_pmap);
7005                 PMAP_UNLOCK(src_pmap);
7006                 PMAP_UNLOCK(dst_pmap);
7007                 if (error != ENOMEM)
7008                         break;
7009                 vm_wait(NULL);
7010         }
7011         return (error);
7012 }
7013
7014 /*
7015  * Zero the specified hardware page.
7016  */
7017 void
7018 pmap_zero_page(vm_page_t m)
7019 {
7020         vm_offset_t va = PHYS_TO_DMAP(VM_PAGE_TO_PHYS(m));
7021
7022         pagezero((void *)va);
7023 }
7024
7025 /*
7026  * Zero an an area within a single hardware page.  off and size must not
7027  * cover an area beyond a single hardware page.
7028  */
7029 void
7030 pmap_zero_page_area(vm_page_t m, int off, int size)
7031 {
7032         vm_offset_t va = PHYS_TO_DMAP(VM_PAGE_TO_PHYS(m));
7033
7034         if (off == 0 && size == PAGE_SIZE)
7035                 pagezero((void *)va);
7036         else
7037                 bzero((char *)va + off, size);
7038 }
7039
7040 /*
7041  * Copy 1 specified hardware page to another.
7042  */
7043 void
7044 pmap_copy_page(vm_page_t msrc, vm_page_t mdst)
7045 {
7046         vm_offset_t src = PHYS_TO_DMAP(VM_PAGE_TO_PHYS(msrc));
7047         vm_offset_t dst = PHYS_TO_DMAP(VM_PAGE_TO_PHYS(mdst));
7048
7049         pagecopy((void *)src, (void *)dst);
7050 }
7051
7052 int unmapped_buf_allowed = 1;
7053
7054 void
7055 pmap_copy_pages(vm_page_t ma[], vm_offset_t a_offset, vm_page_t mb[],
7056     vm_offset_t b_offset, int xfersize)
7057 {
7058         void *a_cp, *b_cp;
7059         vm_page_t pages[2];
7060         vm_offset_t vaddr[2], a_pg_offset, b_pg_offset;
7061         int cnt;
7062         boolean_t mapped;
7063
7064         while (xfersize > 0) {
7065                 a_pg_offset = a_offset & PAGE_MASK;
7066                 pages[0] = ma[a_offset >> PAGE_SHIFT];
7067                 b_pg_offset = b_offset & PAGE_MASK;
7068                 pages[1] = mb[b_offset >> PAGE_SHIFT];
7069                 cnt = min(xfersize, PAGE_SIZE - a_pg_offset);
7070                 cnt = min(cnt, PAGE_SIZE - b_pg_offset);
7071                 mapped = pmap_map_io_transient(pages, vaddr, 2, FALSE);
7072                 a_cp = (char *)vaddr[0] + a_pg_offset;
7073                 b_cp = (char *)vaddr[1] + b_pg_offset;
7074                 bcopy(a_cp, b_cp, cnt);
7075                 if (__predict_false(mapped))
7076                         pmap_unmap_io_transient(pages, vaddr, 2, FALSE);
7077                 a_offset += cnt;
7078                 b_offset += cnt;
7079                 xfersize -= cnt;
7080         }
7081 }
7082
7083 /*
7084  * Returns true if the pmap's pv is one of the first
7085  * 16 pvs linked to from this page.  This count may
7086  * be changed upwards or downwards in the future; it
7087  * is only necessary that true be returned for a small
7088  * subset of pmaps for proper page aging.
7089  */
7090 boolean_t
7091 pmap_page_exists_quick(pmap_t pmap, vm_page_t m)
7092 {
7093         struct md_page *pvh;
7094         struct rwlock *lock;
7095         pv_entry_t pv;
7096         int loops = 0;
7097         boolean_t rv;
7098
7099         KASSERT((m->oflags & VPO_UNMANAGED) == 0,
7100             ("pmap_page_exists_quick: page %p is not managed", m));
7101         rv = FALSE;
7102         lock = VM_PAGE_TO_PV_LIST_LOCK(m);
7103         rw_rlock(lock);
7104         TAILQ_FOREACH(pv, &m->md.pv_list, pv_next) {
7105                 if (PV_PMAP(pv) == pmap) {
7106                         rv = TRUE;
7107                         break;
7108                 }
7109                 loops++;
7110                 if (loops >= 16)
7111                         break;
7112         }
7113         if (!rv && loops < 16 && (m->flags & PG_FICTITIOUS) == 0) {
7114                 pvh = pa_to_pvh(VM_PAGE_TO_PHYS(m));
7115                 TAILQ_FOREACH(pv, &pvh->pv_list, pv_next) {
7116                         if (PV_PMAP(pv) == pmap) {
7117                                 rv = TRUE;
7118                                 break;
7119                         }
7120                         loops++;
7121                         if (loops >= 16)
7122                                 break;
7123                 }
7124         }
7125         rw_runlock(lock);
7126         return (rv);
7127 }
7128
7129 /*
7130  *      pmap_page_wired_mappings:
7131  *
7132  *      Return the number of managed mappings to the given physical page
7133  *      that are wired.
7134  */
7135 int
7136 pmap_page_wired_mappings(vm_page_t m)
7137 {
7138         struct rwlock *lock;
7139         struct md_page *pvh;
7140         pmap_t pmap;
7141         pt_entry_t *pte;
7142         pv_entry_t pv;
7143         int count, md_gen, pvh_gen;
7144
7145         if ((m->oflags & VPO_UNMANAGED) != 0)
7146                 return (0);
7147         lock = VM_PAGE_TO_PV_LIST_LOCK(m);
7148         rw_rlock(lock);
7149 restart:
7150         count = 0;
7151         TAILQ_FOREACH(pv, &m->md.pv_list, pv_next) {
7152                 pmap = PV_PMAP(pv);
7153                 if (!PMAP_TRYLOCK(pmap)) {
7154                         md_gen = m->md.pv_gen;
7155                         rw_runlock(lock);
7156                         PMAP_LOCK(pmap);
7157                         rw_rlock(lock);
7158                         if (md_gen != m->md.pv_gen) {
7159                                 PMAP_UNLOCK(pmap);
7160                                 goto restart;
7161                         }
7162                 }
7163                 pte = pmap_pte(pmap, pv->pv_va);
7164                 if ((*pte & PG_W) != 0)
7165                         count++;
7166                 PMAP_UNLOCK(pmap);
7167         }
7168         if ((m->flags & PG_FICTITIOUS) == 0) {
7169                 pvh = pa_to_pvh(VM_PAGE_TO_PHYS(m));
7170                 TAILQ_FOREACH(pv, &pvh->pv_list, pv_next) {
7171                         pmap = PV_PMAP(pv);
7172                         if (!PMAP_TRYLOCK(pmap)) {
7173                                 md_gen = m->md.pv_gen;
7174                                 pvh_gen = pvh->pv_gen;
7175                                 rw_runlock(lock);
7176                                 PMAP_LOCK(pmap);
7177                                 rw_rlock(lock);
7178                                 if (md_gen != m->md.pv_gen ||
7179                                     pvh_gen != pvh->pv_gen) {
7180                                         PMAP_UNLOCK(pmap);
7181                                         goto restart;
7182                                 }
7183                         }
7184                         pte = pmap_pde(pmap, pv->pv_va);
7185                         if ((*pte & PG_W) != 0)
7186                                 count++;
7187                         PMAP_UNLOCK(pmap);
7188                 }
7189         }
7190         rw_runlock(lock);
7191         return (count);
7192 }
7193
7194 /*
7195  * Returns TRUE if the given page is mapped individually or as part of
7196  * a 2mpage.  Otherwise, returns FALSE.
7197  */
7198 boolean_t
7199 pmap_page_is_mapped(vm_page_t m)
7200 {
7201         struct rwlock *lock;
7202         boolean_t rv;
7203
7204         if ((m->oflags & VPO_UNMANAGED) != 0)
7205                 return (FALSE);
7206         lock = VM_PAGE_TO_PV_LIST_LOCK(m);
7207         rw_rlock(lock);
7208         rv = !TAILQ_EMPTY(&m->md.pv_list) ||
7209             ((m->flags & PG_FICTITIOUS) == 0 &&
7210             !TAILQ_EMPTY(&pa_to_pvh(VM_PAGE_TO_PHYS(m))->pv_list));
7211         rw_runlock(lock);
7212         return (rv);
7213 }
7214
7215 /*
7216  * Destroy all managed, non-wired mappings in the given user-space
7217  * pmap.  This pmap cannot be active on any processor besides the
7218  * caller.
7219  *
7220  * This function cannot be applied to the kernel pmap.  Moreover, it
7221  * is not intended for general use.  It is only to be used during
7222  * process termination.  Consequently, it can be implemented in ways
7223  * that make it faster than pmap_remove().  First, it can more quickly
7224  * destroy mappings by iterating over the pmap's collection of PV
7225  * entries, rather than searching the page table.  Second, it doesn't
7226  * have to test and clear the page table entries atomically, because
7227  * no processor is currently accessing the user address space.  In
7228  * particular, a page table entry's dirty bit won't change state once
7229  * this function starts.
7230  *
7231  * Although this function destroys all of the pmap's managed,
7232  * non-wired mappings, it can delay and batch the invalidation of TLB
7233  * entries without calling pmap_delayed_invl_start() and
7234  * pmap_delayed_invl_finish().  Because the pmap is not active on
7235  * any other processor, none of these TLB entries will ever be used
7236  * before their eventual invalidation.  Consequently, there is no need
7237  * for either pmap_remove_all() or pmap_remove_write() to wait for
7238  * that eventual TLB invalidation.
7239  */
7240 void
7241 pmap_remove_pages(pmap_t pmap)
7242 {
7243         pd_entry_t ptepde;
7244         pt_entry_t *pte, tpte;
7245         pt_entry_t PG_M, PG_RW, PG_V;
7246         struct spglist free;
7247         struct pv_chunklist free_chunks[PMAP_MEMDOM];
7248         vm_page_t m, mpte, mt;
7249         pv_entry_t pv;
7250         struct md_page *pvh;
7251         struct pv_chunk *pc, *npc;
7252         struct rwlock *lock;
7253         int64_t bit;
7254         uint64_t inuse, bitmask;
7255         int allfree, field, freed, i, idx;
7256         boolean_t superpage;
7257         vm_paddr_t pa;
7258
7259         /*
7260          * Assert that the given pmap is only active on the current
7261          * CPU.  Unfortunately, we cannot block another CPU from
7262          * activating the pmap while this function is executing.
7263          */
7264         KASSERT(pmap == PCPU_GET(curpmap), ("non-current pmap %p", pmap));
7265 #ifdef INVARIANTS
7266         {
7267                 cpuset_t other_cpus;
7268
7269                 other_cpus = all_cpus;
7270                 critical_enter();
7271                 CPU_CLR(PCPU_GET(cpuid), &other_cpus);
7272                 CPU_AND(&other_cpus, &pmap->pm_active);
7273                 critical_exit();
7274                 KASSERT(CPU_EMPTY(&other_cpus), ("pmap active %p", pmap));
7275         }
7276 #endif
7277
7278         lock = NULL;
7279         PG_M = pmap_modified_bit(pmap);
7280         PG_V = pmap_valid_bit(pmap);
7281         PG_RW = pmap_rw_bit(pmap);
7282
7283         for (i = 0; i < PMAP_MEMDOM; i++)
7284                 TAILQ_INIT(&free_chunks[i]);
7285         SLIST_INIT(&free);
7286         PMAP_LOCK(pmap);
7287         TAILQ_FOREACH_SAFE(pc, &pmap->pm_pvchunk, pc_list, npc) {
7288                 allfree = 1;
7289                 freed = 0;
7290                 for (field = 0; field < _NPCM; field++) {
7291                         inuse = ~pc->pc_map[field] & pc_freemask[field];
7292                         while (inuse != 0) {
7293                                 bit = bsfq(inuse);
7294                                 bitmask = 1UL << bit;
7295                                 idx = field * 64 + bit;
7296                                 pv = &pc->pc_pventry[idx];
7297                                 inuse &= ~bitmask;
7298
7299                                 pte = pmap_pdpe(pmap, pv->pv_va);
7300                                 ptepde = *pte;
7301                                 pte = pmap_pdpe_to_pde(pte, pv->pv_va);
7302                                 tpte = *pte;
7303                                 if ((tpte & (PG_PS | PG_V)) == PG_V) {
7304                                         superpage = FALSE;
7305                                         ptepde = tpte;
7306                                         pte = (pt_entry_t *)PHYS_TO_DMAP(tpte &
7307                                             PG_FRAME);
7308                                         pte = &pte[pmap_pte_index(pv->pv_va)];
7309                                         tpte = *pte;
7310                                 } else {
7311                                         /*
7312                                          * Keep track whether 'tpte' is a
7313                                          * superpage explicitly instead of
7314                                          * relying on PG_PS being set.
7315                                          *
7316                                          * This is because PG_PS is numerically
7317                                          * identical to PG_PTE_PAT and thus a
7318                                          * regular page could be mistaken for
7319                                          * a superpage.
7320                                          */
7321                                         superpage = TRUE;
7322                                 }
7323
7324                                 if ((tpte & PG_V) == 0) {
7325                                         panic("bad pte va %lx pte %lx",
7326                                             pv->pv_va, tpte);
7327                                 }
7328
7329 /*
7330  * We cannot remove wired pages from a process' mapping at this time
7331  */
7332                                 if (tpte & PG_W) {
7333                                         allfree = 0;
7334                                         continue;
7335                                 }
7336
7337                                 if (superpage)
7338                                         pa = tpte & PG_PS_FRAME;
7339                                 else
7340                                         pa = tpte & PG_FRAME;
7341
7342                                 m = PHYS_TO_VM_PAGE(pa);
7343                                 KASSERT(m->phys_addr == pa,
7344                                     ("vm_page_t %p phys_addr mismatch %016jx %016jx",
7345                                     m, (uintmax_t)m->phys_addr,
7346                                     (uintmax_t)tpte));
7347
7348                                 KASSERT((m->flags & PG_FICTITIOUS) != 0 ||
7349                                     m < &vm_page_array[vm_page_array_size],
7350                                     ("pmap_remove_pages: bad tpte %#jx",
7351                                     (uintmax_t)tpte));
7352
7353                                 pte_clear(pte);
7354
7355                                 /*
7356                                  * Update the vm_page_t clean/reference bits.
7357                                  */
7358                                 if ((tpte & (PG_M | PG_RW)) == (PG_M | PG_RW)) {
7359                                         if (superpage) {
7360                                                 for (mt = m; mt < &m[NBPDR / PAGE_SIZE]; mt++)
7361                                                         vm_page_dirty(mt);
7362                                         } else
7363                                                 vm_page_dirty(m);
7364                                 }
7365
7366                                 CHANGE_PV_LIST_LOCK_TO_VM_PAGE(&lock, m);
7367
7368                                 /* Mark free */
7369                                 pc->pc_map[field] |= bitmask;
7370                                 if (superpage) {
7371                                         pmap_resident_count_dec(pmap, NBPDR / PAGE_SIZE);
7372                                         pvh = pa_to_pvh(tpte & PG_PS_FRAME);
7373                                         TAILQ_REMOVE(&pvh->pv_list, pv, pv_next);
7374                                         pvh->pv_gen++;
7375                                         if (TAILQ_EMPTY(&pvh->pv_list)) {
7376                                                 for (mt = m; mt < &m[NBPDR / PAGE_SIZE]; mt++)
7377                                                         if ((mt->a.flags & PGA_WRITEABLE) != 0 &&
7378                                                             TAILQ_EMPTY(&mt->md.pv_list))
7379                                                                 vm_page_aflag_clear(mt, PGA_WRITEABLE);
7380                                         }
7381                                         mpte = pmap_remove_pt_page(pmap, pv->pv_va);
7382                                         if (mpte != NULL) {
7383                                                 KASSERT(mpte->valid == VM_PAGE_BITS_ALL,
7384                                                     ("pmap_remove_pages: pte page not promoted"));
7385                                                 pmap_resident_count_dec(pmap, 1);
7386                                                 KASSERT(mpte->ref_count == NPTEPG,
7387                                                     ("pmap_remove_pages: pte page reference count error"));
7388                                                 mpte->ref_count = 0;
7389                                                 pmap_add_delayed_free_list(mpte, &free, FALSE);
7390                                         }
7391                                 } else {
7392                                         pmap_resident_count_dec(pmap, 1);
7393                                         TAILQ_REMOVE(&m->md.pv_list, pv, pv_next);
7394                                         m->md.pv_gen++;
7395                                         if ((m->a.flags & PGA_WRITEABLE) != 0 &&
7396                                             TAILQ_EMPTY(&m->md.pv_list) &&
7397                                             (m->flags & PG_FICTITIOUS) == 0) {
7398                                                 pvh = pa_to_pvh(VM_PAGE_TO_PHYS(m));
7399                                                 if (TAILQ_EMPTY(&pvh->pv_list))
7400                                                         vm_page_aflag_clear(m, PGA_WRITEABLE);
7401                                         }
7402                                 }
7403                                 pmap_unuse_pt(pmap, pv->pv_va, ptepde, &free);
7404                                 freed++;
7405                         }
7406                 }
7407                 PV_STAT(atomic_add_long(&pv_entry_frees, freed));
7408                 PV_STAT(atomic_add_int(&pv_entry_spare, freed));
7409                 PV_STAT(atomic_subtract_long(&pv_entry_count, freed));
7410                 if (allfree) {
7411                         TAILQ_REMOVE(&pmap->pm_pvchunk, pc, pc_list);
7412                         TAILQ_INSERT_TAIL(&free_chunks[pc_to_domain(pc)], pc, pc_list);
7413                 }
7414         }
7415         if (lock != NULL)
7416                 rw_wunlock(lock);
7417         pmap_invalidate_all(pmap);
7418         pmap_pkru_deassign_all(pmap);
7419         free_pv_chunk_batch((struct pv_chunklist *)&free_chunks);
7420         PMAP_UNLOCK(pmap);
7421         vm_page_free_pages_toq(&free, true);
7422 }
7423
7424 static boolean_t
7425 pmap_page_test_mappings(vm_page_t m, boolean_t accessed, boolean_t modified)
7426 {
7427         struct rwlock *lock;
7428         pv_entry_t pv;
7429         struct md_page *pvh;
7430         pt_entry_t *pte, mask;
7431         pt_entry_t PG_A, PG_M, PG_RW, PG_V;
7432         pmap_t pmap;
7433         int md_gen, pvh_gen;
7434         boolean_t rv;
7435
7436         rv = FALSE;
7437         lock = VM_PAGE_TO_PV_LIST_LOCK(m);
7438         rw_rlock(lock);
7439 restart:
7440         TAILQ_FOREACH(pv, &m->md.pv_list, pv_next) {
7441                 pmap = PV_PMAP(pv);
7442                 if (!PMAP_TRYLOCK(pmap)) {
7443                         md_gen = m->md.pv_gen;
7444                         rw_runlock(lock);
7445                         PMAP_LOCK(pmap);
7446                         rw_rlock(lock);
7447                         if (md_gen != m->md.pv_gen) {
7448                                 PMAP_UNLOCK(pmap);
7449                                 goto restart;
7450                         }
7451                 }
7452                 pte = pmap_pte(pmap, pv->pv_va);
7453                 mask = 0;
7454                 if (modified) {
7455                         PG_M = pmap_modified_bit(pmap);
7456                         PG_RW = pmap_rw_bit(pmap);
7457                         mask |= PG_RW | PG_M;
7458                 }
7459                 if (accessed) {
7460                         PG_A = pmap_accessed_bit(pmap);
7461                         PG_V = pmap_valid_bit(pmap);
7462                         mask |= PG_V | PG_A;
7463                 }
7464                 rv = (*pte & mask) == mask;
7465                 PMAP_UNLOCK(pmap);
7466                 if (rv)
7467                         goto out;
7468         }
7469         if ((m->flags & PG_FICTITIOUS) == 0) {
7470                 pvh = pa_to_pvh(VM_PAGE_TO_PHYS(m));
7471                 TAILQ_FOREACH(pv, &pvh->pv_list, pv_next) {
7472                         pmap = PV_PMAP(pv);
7473                         if (!PMAP_TRYLOCK(pmap)) {
7474                                 md_gen = m->md.pv_gen;
7475                                 pvh_gen = pvh->pv_gen;
7476                                 rw_runlock(lock);
7477                                 PMAP_LOCK(pmap);
7478                                 rw_rlock(lock);
7479                                 if (md_gen != m->md.pv_gen ||
7480                                     pvh_gen != pvh->pv_gen) {
7481                                         PMAP_UNLOCK(pmap);
7482                                         goto restart;
7483                                 }
7484                         }
7485                         pte = pmap_pde(pmap, pv->pv_va);
7486                         mask = 0;
7487                         if (modified) {
7488                                 PG_M = pmap_modified_bit(pmap);
7489                                 PG_RW = pmap_rw_bit(pmap);
7490                                 mask |= PG_RW | PG_M;
7491                         }
7492                         if (accessed) {
7493                                 PG_A = pmap_accessed_bit(pmap);
7494                                 PG_V = pmap_valid_bit(pmap);
7495                                 mask |= PG_V | PG_A;
7496                         }
7497                         rv = (*pte & mask) == mask;
7498                         PMAP_UNLOCK(pmap);
7499                         if (rv)
7500                                 goto out;
7501                 }
7502         }
7503 out:
7504         rw_runlock(lock);
7505         return (rv);
7506 }
7507
7508 /*
7509  *      pmap_is_modified:
7510  *
7511  *      Return whether or not the specified physical page was modified
7512  *      in any physical maps.
7513  */
7514 boolean_t
7515 pmap_is_modified(vm_page_t m)
7516 {
7517
7518         KASSERT((m->oflags & VPO_UNMANAGED) == 0,
7519             ("pmap_is_modified: page %p is not managed", m));
7520
7521         /*
7522          * If the page is not busied then this check is racy.
7523          */
7524         if (!pmap_page_is_write_mapped(m))
7525                 return (FALSE);
7526         return (pmap_page_test_mappings(m, FALSE, TRUE));
7527 }
7528
7529 /*
7530  *      pmap_is_prefaultable:
7531  *
7532  *      Return whether or not the specified virtual address is eligible
7533  *      for prefault.
7534  */
7535 boolean_t
7536 pmap_is_prefaultable(pmap_t pmap, vm_offset_t addr)
7537 {
7538         pd_entry_t *pde;
7539         pt_entry_t *pte, PG_V;
7540         boolean_t rv;
7541
7542         PG_V = pmap_valid_bit(pmap);
7543         rv = FALSE;
7544         PMAP_LOCK(pmap);
7545         pde = pmap_pde(pmap, addr);
7546         if (pde != NULL && (*pde & (PG_PS | PG_V)) == PG_V) {
7547                 pte = pmap_pde_to_pte(pde, addr);
7548                 rv = (*pte & PG_V) == 0;
7549         }
7550         PMAP_UNLOCK(pmap);
7551         return (rv);
7552 }
7553
7554 /*
7555  *      pmap_is_referenced:
7556  *
7557  *      Return whether or not the specified physical page was referenced
7558  *      in any physical maps.
7559  */
7560 boolean_t
7561 pmap_is_referenced(vm_page_t m)
7562 {
7563
7564         KASSERT((m->oflags & VPO_UNMANAGED) == 0,
7565             ("pmap_is_referenced: page %p is not managed", m));
7566         return (pmap_page_test_mappings(m, TRUE, FALSE));
7567 }
7568
7569 /*
7570  * Clear the write and modified bits in each of the given page's mappings.
7571  */
7572 void
7573 pmap_remove_write(vm_page_t m)
7574 {
7575         struct md_page *pvh;
7576         pmap_t pmap;
7577         struct rwlock *lock;
7578         pv_entry_t next_pv, pv;
7579         pd_entry_t *pde;
7580         pt_entry_t oldpte, *pte, PG_M, PG_RW;
7581         vm_offset_t va;
7582         int pvh_gen, md_gen;
7583
7584         KASSERT((m->oflags & VPO_UNMANAGED) == 0,
7585             ("pmap_remove_write: page %p is not managed", m));
7586
7587         vm_page_assert_busied(m);
7588         if (!pmap_page_is_write_mapped(m))
7589                 return;
7590
7591         lock = VM_PAGE_TO_PV_LIST_LOCK(m);
7592         pvh = (m->flags & PG_FICTITIOUS) != 0 ? &pv_dummy :
7593             pa_to_pvh(VM_PAGE_TO_PHYS(m));
7594 retry_pv_loop:
7595         rw_wlock(lock);
7596         TAILQ_FOREACH_SAFE(pv, &pvh->pv_list, pv_next, next_pv) {
7597                 pmap = PV_PMAP(pv);
7598                 if (!PMAP_TRYLOCK(pmap)) {
7599                         pvh_gen = pvh->pv_gen;
7600                         rw_wunlock(lock);
7601                         PMAP_LOCK(pmap);
7602                         rw_wlock(lock);
7603                         if (pvh_gen != pvh->pv_gen) {
7604                                 PMAP_UNLOCK(pmap);
7605                                 rw_wunlock(lock);
7606                                 goto retry_pv_loop;
7607                         }
7608                 }
7609                 PG_RW = pmap_rw_bit(pmap);
7610                 va = pv->pv_va;
7611                 pde = pmap_pde(pmap, va);
7612                 if ((*pde & PG_RW) != 0)
7613                         (void)pmap_demote_pde_locked(pmap, pde, va, &lock);
7614                 KASSERT(lock == VM_PAGE_TO_PV_LIST_LOCK(m),
7615                     ("inconsistent pv lock %p %p for page %p",
7616                     lock, VM_PAGE_TO_PV_LIST_LOCK(m), m));
7617                 PMAP_UNLOCK(pmap);
7618         }
7619         TAILQ_FOREACH(pv, &m->md.pv_list, pv_next) {
7620                 pmap = PV_PMAP(pv);
7621                 if (!PMAP_TRYLOCK(pmap)) {
7622                         pvh_gen = pvh->pv_gen;
7623                         md_gen = m->md.pv_gen;
7624                         rw_wunlock(lock);
7625                         PMAP_LOCK(pmap);
7626                         rw_wlock(lock);
7627                         if (pvh_gen != pvh->pv_gen ||
7628                             md_gen != m->md.pv_gen) {
7629                                 PMAP_UNLOCK(pmap);
7630                                 rw_wunlock(lock);
7631                                 goto retry_pv_loop;
7632                         }
7633                 }
7634                 PG_M = pmap_modified_bit(pmap);
7635                 PG_RW = pmap_rw_bit(pmap);
7636                 pde = pmap_pde(pmap, pv->pv_va);
7637                 KASSERT((*pde & PG_PS) == 0,
7638                     ("pmap_remove_write: found a 2mpage in page %p's pv list",
7639                     m));
7640                 pte = pmap_pde_to_pte(pde, pv->pv_va);
7641 retry:
7642                 oldpte = *pte;
7643                 if (oldpte & PG_RW) {
7644                         if (!atomic_cmpset_long(pte, oldpte, oldpte &
7645                             ~(PG_RW | PG_M)))
7646                                 goto retry;
7647                         if ((oldpte & PG_M) != 0)
7648                                 vm_page_dirty(m);
7649                         pmap_invalidate_page(pmap, pv->pv_va);
7650                 }
7651                 PMAP_UNLOCK(pmap);
7652         }
7653         rw_wunlock(lock);
7654         vm_page_aflag_clear(m, PGA_WRITEABLE);
7655         pmap_delayed_invl_wait(m);
7656 }
7657
7658 static __inline boolean_t
7659 safe_to_clear_referenced(pmap_t pmap, pt_entry_t pte)
7660 {
7661
7662         if (!pmap_emulate_ad_bits(pmap))
7663                 return (TRUE);
7664
7665         KASSERT(pmap->pm_type == PT_EPT, ("invalid pm_type %d", pmap->pm_type));
7666
7667         /*
7668          * XWR = 010 or 110 will cause an unconditional EPT misconfiguration
7669          * so we don't let the referenced (aka EPT_PG_READ) bit to be cleared
7670          * if the EPT_PG_WRITE bit is set.
7671          */
7672         if ((pte & EPT_PG_WRITE) != 0)
7673                 return (FALSE);
7674
7675         /*
7676          * XWR = 100 is allowed only if the PMAP_SUPPORTS_EXEC_ONLY is set.
7677          */
7678         if ((pte & EPT_PG_EXECUTE) == 0 ||
7679             ((pmap->pm_flags & PMAP_SUPPORTS_EXEC_ONLY) != 0))
7680                 return (TRUE);
7681         else
7682                 return (FALSE);
7683 }
7684
7685 /*
7686  *      pmap_ts_referenced:
7687  *
7688  *      Return a count of reference bits for a page, clearing those bits.
7689  *      It is not necessary for every reference bit to be cleared, but it
7690  *      is necessary that 0 only be returned when there are truly no
7691  *      reference bits set.
7692  *
7693  *      As an optimization, update the page's dirty field if a modified bit is
7694  *      found while counting reference bits.  This opportunistic update can be
7695  *      performed at low cost and can eliminate the need for some future calls
7696  *      to pmap_is_modified().  However, since this function stops after
7697  *      finding PMAP_TS_REFERENCED_MAX reference bits, it may not detect some
7698  *      dirty pages.  Those dirty pages will only be detected by a future call
7699  *      to pmap_is_modified().
7700  *
7701  *      A DI block is not needed within this function, because
7702  *      invalidations are performed before the PV list lock is
7703  *      released.
7704  */
7705 int
7706 pmap_ts_referenced(vm_page_t m)
7707 {
7708         struct md_page *pvh;
7709         pv_entry_t pv, pvf;
7710         pmap_t pmap;
7711         struct rwlock *lock;
7712         pd_entry_t oldpde, *pde;
7713         pt_entry_t *pte, PG_A, PG_M, PG_RW;
7714         vm_offset_t va;
7715         vm_paddr_t pa;
7716         int cleared, md_gen, not_cleared, pvh_gen;
7717         struct spglist free;
7718         boolean_t demoted;
7719
7720         KASSERT((m->oflags & VPO_UNMANAGED) == 0,
7721             ("pmap_ts_referenced: page %p is not managed", m));
7722         SLIST_INIT(&free);
7723         cleared = 0;
7724         pa = VM_PAGE_TO_PHYS(m);
7725         lock = PHYS_TO_PV_LIST_LOCK(pa);
7726         pvh = (m->flags & PG_FICTITIOUS) != 0 ? &pv_dummy : pa_to_pvh(pa);
7727         rw_wlock(lock);
7728 retry:
7729         not_cleared = 0;
7730         if ((pvf = TAILQ_FIRST(&pvh->pv_list)) == NULL)
7731                 goto small_mappings;
7732         pv = pvf;
7733         do {
7734                 if (pvf == NULL)
7735                         pvf = pv;
7736                 pmap = PV_PMAP(pv);
7737                 if (!PMAP_TRYLOCK(pmap)) {
7738                         pvh_gen = pvh->pv_gen;
7739                         rw_wunlock(lock);
7740                         PMAP_LOCK(pmap);
7741                         rw_wlock(lock);
7742                         if (pvh_gen != pvh->pv_gen) {
7743                                 PMAP_UNLOCK(pmap);
7744                                 goto retry;
7745                         }
7746                 }
7747                 PG_A = pmap_accessed_bit(pmap);
7748                 PG_M = pmap_modified_bit(pmap);
7749                 PG_RW = pmap_rw_bit(pmap);
7750                 va = pv->pv_va;
7751                 pde = pmap_pde(pmap, pv->pv_va);
7752                 oldpde = *pde;
7753                 if ((oldpde & (PG_M | PG_RW)) == (PG_M | PG_RW)) {
7754                         /*
7755                          * Although "oldpde" is mapping a 2MB page, because
7756                          * this function is called at a 4KB page granularity,
7757                          * we only update the 4KB page under test.
7758                          */
7759                         vm_page_dirty(m);
7760                 }
7761                 if ((oldpde & PG_A) != 0) {
7762                         /*
7763                          * Since this reference bit is shared by 512 4KB
7764                          * pages, it should not be cleared every time it is
7765                          * tested.  Apply a simple "hash" function on the
7766                          * physical page number, the virtual superpage number,
7767                          * and the pmap address to select one 4KB page out of
7768                          * the 512 on which testing the reference bit will
7769                          * result in clearing that reference bit.  This
7770                          * function is designed to avoid the selection of the
7771                          * same 4KB page for every 2MB page mapping.
7772                          *
7773                          * On demotion, a mapping that hasn't been referenced
7774                          * is simply destroyed.  To avoid the possibility of a
7775                          * subsequent page fault on a demoted wired mapping,
7776                          * always leave its reference bit set.  Moreover,
7777                          * since the superpage is wired, the current state of
7778                          * its reference bit won't affect page replacement.
7779                          */
7780                         if ((((pa >> PAGE_SHIFT) ^ (pv->pv_va >> PDRSHIFT) ^
7781                             (uintptr_t)pmap) & (NPTEPG - 1)) == 0 &&
7782                             (oldpde & PG_W) == 0) {
7783                                 if (safe_to_clear_referenced(pmap, oldpde)) {
7784                                         atomic_clear_long(pde, PG_A);
7785                                         pmap_invalidate_page(pmap, pv->pv_va);
7786                                         demoted = FALSE;
7787                                 } else if (pmap_demote_pde_locked(pmap, pde,
7788                                     pv->pv_va, &lock)) {
7789                                         /*
7790                                          * Remove the mapping to a single page
7791                                          * so that a subsequent access may
7792                                          * repromote.  Since the underlying
7793                                          * page table page is fully populated,
7794                                          * this removal never frees a page
7795                                          * table page.
7796                                          */
7797                                         demoted = TRUE;
7798                                         va += VM_PAGE_TO_PHYS(m) - (oldpde &
7799                                             PG_PS_FRAME);
7800                                         pte = pmap_pde_to_pte(pde, va);
7801                                         pmap_remove_pte(pmap, pte, va, *pde,
7802                                             NULL, &lock);
7803                                         pmap_invalidate_page(pmap, va);
7804                                 } else
7805                                         demoted = TRUE;
7806
7807                                 if (demoted) {
7808                                         /*
7809                                          * The superpage mapping was removed
7810                                          * entirely and therefore 'pv' is no
7811                                          * longer valid.
7812                                          */
7813                                         if (pvf == pv)
7814                                                 pvf = NULL;
7815                                         pv = NULL;
7816                                 }
7817                                 cleared++;
7818                                 KASSERT(lock == VM_PAGE_TO_PV_LIST_LOCK(m),
7819                                     ("inconsistent pv lock %p %p for page %p",
7820                                     lock, VM_PAGE_TO_PV_LIST_LOCK(m), m));
7821                         } else
7822                                 not_cleared++;
7823                 }
7824                 PMAP_UNLOCK(pmap);
7825                 /* Rotate the PV list if it has more than one entry. */
7826                 if (pv != NULL && TAILQ_NEXT(pv, pv_next) != NULL) {
7827                         TAILQ_REMOVE(&pvh->pv_list, pv, pv_next);
7828                         TAILQ_INSERT_TAIL(&pvh->pv_list, pv, pv_next);
7829                         pvh->pv_gen++;
7830                 }
7831                 if (cleared + not_cleared >= PMAP_TS_REFERENCED_MAX)
7832                         goto out;
7833         } while ((pv = TAILQ_FIRST(&pvh->pv_list)) != pvf);
7834 small_mappings:
7835         if ((pvf = TAILQ_FIRST(&m->md.pv_list)) == NULL)
7836                 goto out;
7837         pv = pvf;
7838         do {
7839                 if (pvf == NULL)
7840                         pvf = pv;
7841                 pmap = PV_PMAP(pv);
7842                 if (!PMAP_TRYLOCK(pmap)) {
7843                         pvh_gen = pvh->pv_gen;
7844                         md_gen = m->md.pv_gen;
7845                         rw_wunlock(lock);
7846                         PMAP_LOCK(pmap);
7847                         rw_wlock(lock);
7848                         if (pvh_gen != pvh->pv_gen || md_gen != m->md.pv_gen) {
7849                                 PMAP_UNLOCK(pmap);
7850                                 goto retry;
7851                         }
7852                 }
7853                 PG_A = pmap_accessed_bit(pmap);
7854                 PG_M = pmap_modified_bit(pmap);
7855                 PG_RW = pmap_rw_bit(pmap);
7856                 pde = pmap_pde(pmap, pv->pv_va);
7857                 KASSERT((*pde & PG_PS) == 0,
7858                     ("pmap_ts_referenced: found a 2mpage in page %p's pv list",
7859                     m));
7860                 pte = pmap_pde_to_pte(pde, pv->pv_va);
7861                 if ((*pte & (PG_M | PG_RW)) == (PG_M | PG_RW))
7862                         vm_page_dirty(m);
7863                 if ((*pte & PG_A) != 0) {
7864                         if (safe_to_clear_referenced(pmap, *pte)) {
7865                                 atomic_clear_long(pte, PG_A);
7866                                 pmap_invalidate_page(pmap, pv->pv_va);
7867                                 cleared++;
7868                         } else if ((*pte & PG_W) == 0) {
7869                                 /*
7870                                  * Wired pages cannot be paged out so
7871                                  * doing accessed bit emulation for
7872                                  * them is wasted effort. We do the
7873                                  * hard work for unwired pages only.
7874                                  */
7875                                 pmap_remove_pte(pmap, pte, pv->pv_va,
7876                                     *pde, &free, &lock);
7877                                 pmap_invalidate_page(pmap, pv->pv_va);
7878                                 cleared++;
7879                                 if (pvf == pv)
7880                                         pvf = NULL;
7881                                 pv = NULL;
7882                                 KASSERT(lock == VM_PAGE_TO_PV_LIST_LOCK(m),
7883                                     ("inconsistent pv lock %p %p for page %p",
7884                                     lock, VM_PAGE_TO_PV_LIST_LOCK(m), m));
7885                         } else
7886                                 not_cleared++;
7887                 }
7888                 PMAP_UNLOCK(pmap);
7889                 /* Rotate the PV list if it has more than one entry. */
7890                 if (pv != NULL && TAILQ_NEXT(pv, pv_next) != NULL) {
7891                         TAILQ_REMOVE(&m->md.pv_list, pv, pv_next);
7892                         TAILQ_INSERT_TAIL(&m->md.pv_list, pv, pv_next);
7893                         m->md.pv_gen++;
7894                 }
7895         } while ((pv = TAILQ_FIRST(&m->md.pv_list)) != pvf && cleared +
7896             not_cleared < PMAP_TS_REFERENCED_MAX);
7897 out:
7898         rw_wunlock(lock);
7899         vm_page_free_pages_toq(&free, true);
7900         return (cleared + not_cleared);
7901 }
7902
7903 /*
7904  *      Apply the given advice to the specified range of addresses within the
7905  *      given pmap.  Depending on the advice, clear the referenced and/or
7906  *      modified flags in each mapping and set the mapped page's dirty field.
7907  */
7908 void
7909 pmap_advise(pmap_t pmap, vm_offset_t sva, vm_offset_t eva, int advice)
7910 {
7911         struct rwlock *lock;
7912         pml4_entry_t *pml4e;
7913         pdp_entry_t *pdpe;
7914         pd_entry_t oldpde, *pde;
7915         pt_entry_t *pte, PG_A, PG_G, PG_M, PG_RW, PG_V;
7916         vm_offset_t va, va_next;
7917         vm_page_t m;
7918         bool anychanged;
7919
7920         if (advice != MADV_DONTNEED && advice != MADV_FREE)
7921                 return;
7922
7923         /*
7924          * A/D bit emulation requires an alternate code path when clearing
7925          * the modified and accessed bits below. Since this function is
7926          * advisory in nature we skip it entirely for pmaps that require
7927          * A/D bit emulation.
7928          */
7929         if (pmap_emulate_ad_bits(pmap))
7930                 return;
7931
7932         PG_A = pmap_accessed_bit(pmap);
7933         PG_G = pmap_global_bit(pmap);
7934         PG_M = pmap_modified_bit(pmap);
7935         PG_V = pmap_valid_bit(pmap);
7936         PG_RW = pmap_rw_bit(pmap);
7937         anychanged = false;
7938         pmap_delayed_invl_start();
7939         PMAP_LOCK(pmap);
7940         for (; sva < eva; sva = va_next) {
7941                 pml4e = pmap_pml4e(pmap, sva);
7942                 if ((*pml4e & PG_V) == 0) {
7943                         va_next = (sva + NBPML4) & ~PML4MASK;
7944                         if (va_next < sva)
7945                                 va_next = eva;
7946                         continue;
7947                 }
7948                 pdpe = pmap_pml4e_to_pdpe(pml4e, sva);
7949                 if ((*pdpe & PG_V) == 0) {
7950                         va_next = (sva + NBPDP) & ~PDPMASK;
7951                         if (va_next < sva)
7952                                 va_next = eva;
7953                         continue;
7954                 }
7955                 va_next = (sva + NBPDR) & ~PDRMASK;
7956                 if (va_next < sva)
7957                         va_next = eva;
7958                 pde = pmap_pdpe_to_pde(pdpe, sva);
7959                 oldpde = *pde;
7960                 if ((oldpde & PG_V) == 0)
7961                         continue;
7962                 else if ((oldpde & PG_PS) != 0) {
7963                         if ((oldpde & PG_MANAGED) == 0)
7964                                 continue;
7965                         lock = NULL;
7966                         if (!pmap_demote_pde_locked(pmap, pde, sva, &lock)) {
7967                                 if (lock != NULL)
7968                                         rw_wunlock(lock);
7969
7970                                 /*
7971                                  * The large page mapping was destroyed.
7972                                  */
7973                                 continue;
7974                         }
7975
7976                         /*
7977                          * Unless the page mappings are wired, remove the
7978                          * mapping to a single page so that a subsequent
7979                          * access may repromote.  Choosing the last page
7980                          * within the address range [sva, min(va_next, eva))
7981                          * generally results in more repromotions.  Since the
7982                          * underlying page table page is fully populated, this
7983                          * removal never frees a page table page.
7984                          */
7985                         if ((oldpde & PG_W) == 0) {
7986                                 va = eva;
7987                                 if (va > va_next)
7988                                         va = va_next;
7989                                 va -= PAGE_SIZE;
7990                                 KASSERT(va >= sva,
7991                                     ("pmap_advise: no address gap"));
7992                                 pte = pmap_pde_to_pte(pde, va);
7993                                 KASSERT((*pte & PG_V) != 0,
7994                                     ("pmap_advise: invalid PTE"));
7995                                 pmap_remove_pte(pmap, pte, va, *pde, NULL,
7996                                     &lock);
7997                                 anychanged = true;
7998                         }
7999                         if (lock != NULL)
8000                                 rw_wunlock(lock);
8001                 }
8002                 if (va_next > eva)
8003                         va_next = eva;
8004                 va = va_next;
8005                 for (pte = pmap_pde_to_pte(pde, sva); sva != va_next; pte++,
8006                     sva += PAGE_SIZE) {
8007                         if ((*pte & (PG_MANAGED | PG_V)) != (PG_MANAGED | PG_V))
8008                                 goto maybe_invlrng;
8009                         else if ((*pte & (PG_M | PG_RW)) == (PG_M | PG_RW)) {
8010                                 if (advice == MADV_DONTNEED) {
8011                                         /*
8012                                          * Future calls to pmap_is_modified()
8013                                          * can be avoided by making the page
8014                                          * dirty now.
8015                                          */
8016                                         m = PHYS_TO_VM_PAGE(*pte & PG_FRAME);
8017                                         vm_page_dirty(m);
8018                                 }
8019                                 atomic_clear_long(pte, PG_M | PG_A);
8020                         } else if ((*pte & PG_A) != 0)
8021                                 atomic_clear_long(pte, PG_A);
8022                         else
8023                                 goto maybe_invlrng;
8024
8025                         if ((*pte & PG_G) != 0) {
8026                                 if (va == va_next)
8027                                         va = sva;
8028                         } else
8029                                 anychanged = true;
8030                         continue;
8031 maybe_invlrng:
8032                         if (va != va_next) {
8033                                 pmap_invalidate_range(pmap, va, sva);
8034                                 va = va_next;
8035                         }
8036                 }
8037                 if (va != va_next)
8038                         pmap_invalidate_range(pmap, va, sva);
8039         }
8040         if (anychanged)
8041                 pmap_invalidate_all(pmap);
8042         PMAP_UNLOCK(pmap);
8043         pmap_delayed_invl_finish();
8044 }
8045
8046 /*
8047  *      Clear the modify bits on the specified physical page.
8048  */
8049 void
8050 pmap_clear_modify(vm_page_t m)
8051 {
8052         struct md_page *pvh;
8053         pmap_t pmap;
8054         pv_entry_t next_pv, pv;
8055         pd_entry_t oldpde, *pde;
8056         pt_entry_t *pte, PG_M, PG_RW;
8057         struct rwlock *lock;
8058         vm_offset_t va;
8059         int md_gen, pvh_gen;
8060
8061         KASSERT((m->oflags & VPO_UNMANAGED) == 0,
8062             ("pmap_clear_modify: page %p is not managed", m));
8063         vm_page_assert_busied(m);
8064
8065         if (!pmap_page_is_write_mapped(m))
8066                 return;
8067         pvh = (m->flags & PG_FICTITIOUS) != 0 ? &pv_dummy :
8068             pa_to_pvh(VM_PAGE_TO_PHYS(m));
8069         lock = VM_PAGE_TO_PV_LIST_LOCK(m);
8070         rw_wlock(lock);
8071 restart:
8072         TAILQ_FOREACH_SAFE(pv, &pvh->pv_list, pv_next, next_pv) {
8073                 pmap = PV_PMAP(pv);
8074                 if (!PMAP_TRYLOCK(pmap)) {
8075                         pvh_gen = pvh->pv_gen;
8076                         rw_wunlock(lock);
8077                         PMAP_LOCK(pmap);
8078                         rw_wlock(lock);
8079                         if (pvh_gen != pvh->pv_gen) {
8080                                 PMAP_UNLOCK(pmap);
8081                                 goto restart;
8082                         }
8083                 }
8084                 PG_M = pmap_modified_bit(pmap);
8085                 PG_RW = pmap_rw_bit(pmap);
8086                 va = pv->pv_va;
8087                 pde = pmap_pde(pmap, va);
8088                 oldpde = *pde;
8089                 /* If oldpde has PG_RW set, then it also has PG_M set. */
8090                 if ((oldpde & PG_RW) != 0 &&
8091                     pmap_demote_pde_locked(pmap, pde, va, &lock) &&
8092                     (oldpde & PG_W) == 0) {
8093                         /*
8094                          * Write protect the mapping to a single page so that
8095                          * a subsequent write access may repromote.
8096                          */
8097                         va += VM_PAGE_TO_PHYS(m) - (oldpde & PG_PS_FRAME);
8098                         pte = pmap_pde_to_pte(pde, va);
8099                         atomic_clear_long(pte, PG_M | PG_RW);
8100                         vm_page_dirty(m);
8101                         pmap_invalidate_page(pmap, va);
8102                 }
8103                 PMAP_UNLOCK(pmap);
8104         }
8105         TAILQ_FOREACH(pv, &m->md.pv_list, pv_next) {
8106                 pmap = PV_PMAP(pv);
8107                 if (!PMAP_TRYLOCK(pmap)) {
8108                         md_gen = m->md.pv_gen;
8109                         pvh_gen = pvh->pv_gen;
8110                         rw_wunlock(lock);
8111                         PMAP_LOCK(pmap);
8112                         rw_wlock(lock);
8113                         if (pvh_gen != pvh->pv_gen || md_gen != m->md.pv_gen) {
8114                                 PMAP_UNLOCK(pmap);
8115                                 goto restart;
8116                         }
8117                 }
8118                 PG_M = pmap_modified_bit(pmap);
8119                 PG_RW = pmap_rw_bit(pmap);
8120                 pde = pmap_pde(pmap, pv->pv_va);
8121                 KASSERT((*pde & PG_PS) == 0, ("pmap_clear_modify: found"
8122                     " a 2mpage in page %p's pv list", m));
8123                 pte = pmap_pde_to_pte(pde, pv->pv_va);
8124                 if ((*pte & (PG_M | PG_RW)) == (PG_M | PG_RW)) {
8125                         atomic_clear_long(pte, PG_M);
8126                         pmap_invalidate_page(pmap, pv->pv_va);
8127                 }
8128                 PMAP_UNLOCK(pmap);
8129         }
8130         rw_wunlock(lock);
8131 }
8132
8133 /*
8134  * Miscellaneous support routines follow
8135  */
8136
8137 /* Adjust the properties for a leaf page table entry. */
8138 static __inline void
8139 pmap_pte_props(pt_entry_t *pte, u_long bits, u_long mask)
8140 {
8141         u_long opte, npte;
8142
8143         opte = *(u_long *)pte;
8144         do {
8145                 npte = opte & ~mask;
8146                 npte |= bits;
8147         } while (npte != opte && !atomic_fcmpset_long((u_long *)pte, &opte,
8148             npte));
8149 }
8150
8151 /*
8152  * Map a set of physical memory pages into the kernel virtual
8153  * address space. Return a pointer to where it is mapped. This
8154  * routine is intended to be used for mapping device memory,
8155  * NOT real memory.
8156  */
8157 static void *
8158 pmap_mapdev_internal(vm_paddr_t pa, vm_size_t size, int mode, int flags)
8159 {
8160         struct pmap_preinit_mapping *ppim;
8161         vm_offset_t va, offset;
8162         vm_size_t tmpsize;
8163         int i;
8164
8165         offset = pa & PAGE_MASK;
8166         size = round_page(offset + size);
8167         pa = trunc_page(pa);
8168
8169         if (!pmap_initialized) {
8170                 va = 0;
8171                 for (i = 0; i < PMAP_PREINIT_MAPPING_COUNT; i++) {
8172                         ppim = pmap_preinit_mapping + i;
8173                         if (ppim->va == 0) {
8174                                 ppim->pa = pa;
8175                                 ppim->sz = size;
8176                                 ppim->mode = mode;
8177                                 ppim->va = virtual_avail;
8178                                 virtual_avail += size;
8179                                 va = ppim->va;
8180                                 break;
8181                         }
8182                 }
8183                 if (va == 0)
8184                         panic("%s: too many preinit mappings", __func__);
8185         } else {
8186                 /*
8187                  * If we have a preinit mapping, re-use it.
8188                  */
8189                 for (i = 0; i < PMAP_PREINIT_MAPPING_COUNT; i++) {
8190                         ppim = pmap_preinit_mapping + i;
8191                         if (ppim->pa == pa && ppim->sz == size &&
8192                             (ppim->mode == mode ||
8193                             (flags & MAPDEV_SETATTR) == 0))
8194                                 return ((void *)(ppim->va + offset));
8195                 }
8196                 /*
8197                  * If the specified range of physical addresses fits within
8198                  * the direct map window, use the direct map.
8199                  */
8200                 if (pa < dmaplimit && pa + size <= dmaplimit) {
8201                         va = PHYS_TO_DMAP(pa);
8202                         if ((flags & MAPDEV_SETATTR) != 0) {
8203                                 PMAP_LOCK(kernel_pmap);
8204                                 i = pmap_change_props_locked(va, size,
8205                                     PROT_NONE, mode, flags);
8206                                 PMAP_UNLOCK(kernel_pmap);
8207                         } else
8208                                 i = 0;
8209                         if (!i)
8210                                 return ((void *)(va + offset));
8211                 }
8212                 va = kva_alloc(size);
8213                 if (va == 0)
8214                         panic("%s: Couldn't allocate KVA", __func__);
8215         }
8216         for (tmpsize = 0; tmpsize < size; tmpsize += PAGE_SIZE)
8217                 pmap_kenter_attr(va + tmpsize, pa + tmpsize, mode);
8218         pmap_invalidate_range(kernel_pmap, va, va + tmpsize);
8219         if ((flags & MAPDEV_FLUSHCACHE) != 0)
8220                 pmap_invalidate_cache_range(va, va + tmpsize);
8221         return ((void *)(va + offset));
8222 }
8223
8224 void *
8225 pmap_mapdev_attr(vm_paddr_t pa, vm_size_t size, int mode)
8226 {
8227
8228         return (pmap_mapdev_internal(pa, size, mode, MAPDEV_FLUSHCACHE |
8229             MAPDEV_SETATTR));
8230 }
8231
8232 void *
8233 pmap_mapdev(vm_paddr_t pa, vm_size_t size)
8234 {
8235
8236         return (pmap_mapdev_attr(pa, size, PAT_UNCACHEABLE));
8237 }
8238
8239 void *
8240 pmap_mapdev_pciecfg(vm_paddr_t pa, vm_size_t size)
8241 {
8242
8243         return (pmap_mapdev_internal(pa, size, PAT_UNCACHEABLE,
8244             MAPDEV_SETATTR));
8245 }
8246
8247 void *
8248 pmap_mapbios(vm_paddr_t pa, vm_size_t size)
8249 {
8250
8251         return (pmap_mapdev_internal(pa, size, PAT_WRITE_BACK,
8252             MAPDEV_FLUSHCACHE));
8253 }
8254
8255 void
8256 pmap_unmapdev(vm_offset_t va, vm_size_t size)
8257 {
8258         struct pmap_preinit_mapping *ppim;
8259         vm_offset_t offset;
8260         int i;
8261
8262         /* If we gave a direct map region in pmap_mapdev, do nothing */
8263         if (va >= DMAP_MIN_ADDRESS && va < DMAP_MAX_ADDRESS)
8264                 return;
8265         offset = va & PAGE_MASK;
8266         size = round_page(offset + size);
8267         va = trunc_page(va);
8268         for (i = 0; i < PMAP_PREINIT_MAPPING_COUNT; i++) {
8269                 ppim = pmap_preinit_mapping + i;
8270                 if (ppim->va == va && ppim->sz == size) {
8271                         if (pmap_initialized)
8272                                 return;
8273                         ppim->pa = 0;
8274                         ppim->va = 0;
8275                         ppim->sz = 0;
8276                         ppim->mode = 0;
8277                         if (va + size == virtual_avail)
8278                                 virtual_avail = va;
8279                         return;
8280                 }
8281         }
8282         if (pmap_initialized)
8283                 kva_free(va, size);
8284 }
8285
8286 /*
8287  * Tries to demote a 1GB page mapping.
8288  */
8289 static boolean_t
8290 pmap_demote_pdpe(pmap_t pmap, pdp_entry_t *pdpe, vm_offset_t va)
8291 {
8292         pdp_entry_t newpdpe, oldpdpe;
8293         pd_entry_t *firstpde, newpde, *pde;
8294         pt_entry_t PG_A, PG_M, PG_RW, PG_V;
8295         vm_paddr_t pdpgpa;
8296         vm_page_t pdpg;
8297
8298         PG_A = pmap_accessed_bit(pmap);
8299         PG_M = pmap_modified_bit(pmap);
8300         PG_V = pmap_valid_bit(pmap);
8301         PG_RW = pmap_rw_bit(pmap);
8302
8303         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
8304         oldpdpe = *pdpe;
8305         KASSERT((oldpdpe & (PG_PS | PG_V)) == (PG_PS | PG_V),
8306             ("pmap_demote_pdpe: oldpdpe is missing PG_PS and/or PG_V"));
8307         if ((pdpg = vm_page_alloc(NULL, va >> PDPSHIFT, VM_ALLOC_INTERRUPT |
8308             VM_ALLOC_NOOBJ | VM_ALLOC_WIRED)) == NULL) {
8309                 CTR2(KTR_PMAP, "pmap_demote_pdpe: failure for va %#lx"
8310                     " in pmap %p", va, pmap);
8311                 return (FALSE);
8312         }
8313         pdpgpa = VM_PAGE_TO_PHYS(pdpg);
8314         firstpde = (pd_entry_t *)PHYS_TO_DMAP(pdpgpa);
8315         newpdpe = pdpgpa | PG_M | PG_A | (oldpdpe & PG_U) | PG_RW | PG_V;
8316         KASSERT((oldpdpe & PG_A) != 0,
8317             ("pmap_demote_pdpe: oldpdpe is missing PG_A"));
8318         KASSERT((oldpdpe & (PG_M | PG_RW)) != PG_RW,
8319             ("pmap_demote_pdpe: oldpdpe is missing PG_M"));
8320         newpde = oldpdpe;
8321
8322         /*
8323          * Initialize the page directory page.
8324          */
8325         for (pde = firstpde; pde < firstpde + NPDEPG; pde++) {
8326                 *pde = newpde;
8327                 newpde += NBPDR;
8328         }
8329
8330         /*
8331          * Demote the mapping.
8332          */
8333         *pdpe = newpdpe;
8334
8335         /*
8336          * Invalidate a stale recursive mapping of the page directory page.
8337          */
8338         pmap_invalidate_page(pmap, (vm_offset_t)vtopde(va));
8339
8340         pmap_pdpe_demotions++;
8341         CTR2(KTR_PMAP, "pmap_demote_pdpe: success for va %#lx"
8342             " in pmap %p", va, pmap);
8343         return (TRUE);
8344 }
8345
8346 /*
8347  * Sets the memory attribute for the specified page.
8348  */
8349 void
8350 pmap_page_set_memattr(vm_page_t m, vm_memattr_t ma)
8351 {
8352
8353         m->md.pat_mode = ma;
8354
8355         /*
8356          * If "m" is a normal page, update its direct mapping.  This update
8357          * can be relied upon to perform any cache operations that are
8358          * required for data coherence.
8359          */
8360         if ((m->flags & PG_FICTITIOUS) == 0 &&
8361             pmap_change_attr(PHYS_TO_DMAP(VM_PAGE_TO_PHYS(m)), PAGE_SIZE,
8362             m->md.pat_mode))
8363                 panic("memory attribute change on the direct map failed");
8364 }
8365
8366 /*
8367  * Changes the specified virtual address range's memory type to that given by
8368  * the parameter "mode".  The specified virtual address range must be
8369  * completely contained within either the direct map or the kernel map.  If
8370  * the virtual address range is contained within the kernel map, then the
8371  * memory type for each of the corresponding ranges of the direct map is also
8372  * changed.  (The corresponding ranges of the direct map are those ranges that
8373  * map the same physical pages as the specified virtual address range.)  These
8374  * changes to the direct map are necessary because Intel describes the
8375  * behavior of their processors as "undefined" if two or more mappings to the
8376  * same physical page have different memory types.
8377  *
8378  * Returns zero if the change completed successfully, and either EINVAL or
8379  * ENOMEM if the change failed.  Specifically, EINVAL is returned if some part
8380  * of the virtual address range was not mapped, and ENOMEM is returned if
8381  * there was insufficient memory available to complete the change.  In the
8382  * latter case, the memory type may have been changed on some part of the
8383  * virtual address range or the direct map.
8384  */
8385 int
8386 pmap_change_attr(vm_offset_t va, vm_size_t size, int mode)
8387 {
8388         int error;
8389
8390         PMAP_LOCK(kernel_pmap);
8391         error = pmap_change_props_locked(va, size, PROT_NONE, mode,
8392             MAPDEV_FLUSHCACHE);
8393         PMAP_UNLOCK(kernel_pmap);
8394         return (error);
8395 }
8396
8397 /*
8398  * Changes the specified virtual address range's protections to those
8399  * specified by "prot".  Like pmap_change_attr(), protections for aliases
8400  * in the direct map are updated as well.  Protections on aliasing mappings may
8401  * be a subset of the requested protections; for example, mappings in the direct
8402  * map are never executable.
8403  */
8404 int
8405 pmap_change_prot(vm_offset_t va, vm_size_t size, vm_prot_t prot)
8406 {
8407         int error;
8408
8409         /* Only supported within the kernel map. */
8410         if (va < VM_MIN_KERNEL_ADDRESS)
8411                 return (EINVAL);
8412
8413         PMAP_LOCK(kernel_pmap);
8414         error = pmap_change_props_locked(va, size, prot, -1,
8415             MAPDEV_ASSERTVALID);
8416         PMAP_UNLOCK(kernel_pmap);
8417         return (error);
8418 }
8419
8420 static int
8421 pmap_change_props_locked(vm_offset_t va, vm_size_t size, vm_prot_t prot,
8422     int mode, int flags)
8423 {
8424         vm_offset_t base, offset, tmpva;
8425         vm_paddr_t pa_start, pa_end, pa_end1;
8426         pdp_entry_t *pdpe;
8427         pd_entry_t *pde, pde_bits, pde_mask;
8428         pt_entry_t *pte, pte_bits, pte_mask;
8429         int error;
8430         bool changed;
8431
8432         PMAP_LOCK_ASSERT(kernel_pmap, MA_OWNED);
8433         base = trunc_page(va);
8434         offset = va & PAGE_MASK;
8435         size = round_page(offset + size);
8436
8437         /*
8438          * Only supported on kernel virtual addresses, including the direct
8439          * map but excluding the recursive map.
8440          */
8441         if (base < DMAP_MIN_ADDRESS)
8442                 return (EINVAL);
8443
8444         /*
8445          * Construct our flag sets and masks.  "bits" is the subset of
8446          * "mask" that will be set in each modified PTE.
8447          *
8448          * Mappings in the direct map are never allowed to be executable.
8449          */
8450         pde_bits = pte_bits = 0;
8451         pde_mask = pte_mask = 0;
8452         if (mode != -1) {
8453                 pde_bits |= pmap_cache_bits(kernel_pmap, mode, true);
8454                 pde_mask |= X86_PG_PDE_CACHE;
8455                 pte_bits |= pmap_cache_bits(kernel_pmap, mode, false);
8456                 pte_mask |= X86_PG_PTE_CACHE;
8457         }
8458         if (prot != VM_PROT_NONE) {
8459                 if ((prot & VM_PROT_WRITE) != 0) {
8460                         pde_bits |= X86_PG_RW;
8461                         pte_bits |= X86_PG_RW;
8462                 }
8463                 if ((prot & VM_PROT_EXECUTE) == 0 ||
8464                     va < VM_MIN_KERNEL_ADDRESS) {
8465                         pde_bits |= pg_nx;
8466                         pte_bits |= pg_nx;
8467                 }
8468                 pde_mask |= X86_PG_RW | pg_nx;
8469                 pte_mask |= X86_PG_RW | pg_nx;
8470         }
8471
8472         /*
8473          * Pages that aren't mapped aren't supported.  Also break down 2MB pages
8474          * into 4KB pages if required.
8475          */
8476         for (tmpva = base; tmpva < base + size; ) {
8477                 pdpe = pmap_pdpe(kernel_pmap, tmpva);
8478                 if (pdpe == NULL || *pdpe == 0) {
8479                         KASSERT((flags & MAPDEV_ASSERTVALID) == 0,
8480                             ("%s: addr %#lx is not mapped", __func__, tmpva));
8481                         return (EINVAL);
8482                 }
8483                 if (*pdpe & PG_PS) {
8484                         /*
8485                          * If the current 1GB page already has the required
8486                          * properties, then we need not demote this page.  Just
8487                          * increment tmpva to the next 1GB page frame.
8488                          */
8489                         if ((*pdpe & pde_mask) == pde_bits) {
8490                                 tmpva = trunc_1gpage(tmpva) + NBPDP;
8491                                 continue;
8492                         }
8493
8494                         /*
8495                          * If the current offset aligns with a 1GB page frame
8496                          * and there is at least 1GB left within the range, then
8497                          * we need not break down this page into 2MB pages.
8498                          */
8499                         if ((tmpva & PDPMASK) == 0 &&
8500                             tmpva + PDPMASK < base + size) {
8501                                 tmpva += NBPDP;
8502                                 continue;
8503                         }
8504                         if (!pmap_demote_pdpe(kernel_pmap, pdpe, tmpva))
8505                                 return (ENOMEM);
8506                 }
8507                 pde = pmap_pdpe_to_pde(pdpe, tmpva);
8508                 if (*pde == 0) {
8509                         KASSERT((flags & MAPDEV_ASSERTVALID) == 0,
8510                             ("%s: addr %#lx is not mapped", __func__, tmpva));
8511                         return (EINVAL);
8512                 }
8513                 if (*pde & PG_PS) {
8514                         /*
8515                          * If the current 2MB page already has the required
8516                          * properties, then we need not demote this page.  Just
8517                          * increment tmpva to the next 2MB page frame.
8518                          */
8519                         if ((*pde & pde_mask) == pde_bits) {
8520                                 tmpva = trunc_2mpage(tmpva) + NBPDR;
8521                                 continue;
8522                         }
8523
8524                         /*
8525                          * If the current offset aligns with a 2MB page frame
8526                          * and there is at least 2MB left within the range, then
8527                          * we need not break down this page into 4KB pages.
8528                          */
8529                         if ((tmpva & PDRMASK) == 0 &&
8530                             tmpva + PDRMASK < base + size) {
8531                                 tmpva += NBPDR;
8532                                 continue;
8533                         }
8534                         if (!pmap_demote_pde(kernel_pmap, pde, tmpva))
8535                                 return (ENOMEM);
8536                 }
8537                 pte = pmap_pde_to_pte(pde, tmpva);
8538                 if (*pte == 0) {
8539                         KASSERT((flags & MAPDEV_ASSERTVALID) == 0,
8540                             ("%s: addr %#lx is not mapped", __func__, tmpva));
8541                         return (EINVAL);
8542                 }
8543                 tmpva += PAGE_SIZE;
8544         }
8545         error = 0;
8546
8547         /*
8548          * Ok, all the pages exist, so run through them updating their
8549          * properties if required.
8550          */
8551         changed = false;
8552         pa_start = pa_end = 0;
8553         for (tmpva = base; tmpva < base + size; ) {
8554                 pdpe = pmap_pdpe(kernel_pmap, tmpva);
8555                 if (*pdpe & PG_PS) {
8556                         if ((*pdpe & pde_mask) != pde_bits) {
8557                                 pmap_pte_props(pdpe, pde_bits, pde_mask);
8558                                 changed = true;
8559                         }
8560                         if (tmpva >= VM_MIN_KERNEL_ADDRESS &&
8561                             (*pdpe & PG_PS_FRAME) < dmaplimit) {
8562                                 if (pa_start == pa_end) {
8563                                         /* Start physical address run. */
8564                                         pa_start = *pdpe & PG_PS_FRAME;
8565                                         pa_end = pa_start + NBPDP;
8566                                 } else if (pa_end == (*pdpe & PG_PS_FRAME))
8567                                         pa_end += NBPDP;
8568                                 else {
8569                                         /* Run ended, update direct map. */
8570                                         error = pmap_change_props_locked(
8571                                             PHYS_TO_DMAP(pa_start),
8572                                             pa_end - pa_start, prot, mode,
8573                                             flags);
8574                                         if (error != 0)
8575                                                 break;
8576                                         /* Start physical address run. */
8577                                         pa_start = *pdpe & PG_PS_FRAME;
8578                                         pa_end = pa_start + NBPDP;
8579                                 }
8580                         }
8581                         tmpva = trunc_1gpage(tmpva) + NBPDP;
8582                         continue;
8583                 }
8584                 pde = pmap_pdpe_to_pde(pdpe, tmpva);
8585                 if (*pde & PG_PS) {
8586                         if ((*pde & pde_mask) != pde_bits) {
8587                                 pmap_pte_props(pde, pde_bits, pde_mask);
8588                                 changed = true;
8589                         }
8590                         if (tmpva >= VM_MIN_KERNEL_ADDRESS &&
8591                             (*pde & PG_PS_FRAME) < dmaplimit) {
8592                                 if (pa_start == pa_end) {
8593                                         /* Start physical address run. */
8594                                         pa_start = *pde & PG_PS_FRAME;
8595                                         pa_end = pa_start + NBPDR;
8596                                 } else if (pa_end == (*pde & PG_PS_FRAME))
8597                                         pa_end += NBPDR;
8598                                 else {
8599                                         /* Run ended, update direct map. */
8600                                         error = pmap_change_props_locked(
8601                                             PHYS_TO_DMAP(pa_start),
8602                                             pa_end - pa_start, prot, mode,
8603                                             flags);
8604                                         if (error != 0)
8605                                                 break;
8606                                         /* Start physical address run. */
8607                                         pa_start = *pde & PG_PS_FRAME;
8608                                         pa_end = pa_start + NBPDR;
8609                                 }
8610                         }
8611                         tmpva = trunc_2mpage(tmpva) + NBPDR;
8612                 } else {
8613                         pte = pmap_pde_to_pte(pde, tmpva);
8614                         if ((*pte & pte_mask) != pte_bits) {
8615                                 pmap_pte_props(pte, pte_bits, pte_mask);
8616                                 changed = true;
8617                         }
8618                         if (tmpva >= VM_MIN_KERNEL_ADDRESS &&
8619                             (*pte & PG_FRAME) < dmaplimit) {
8620                                 if (pa_start == pa_end) {
8621                                         /* Start physical address run. */
8622                                         pa_start = *pte & PG_FRAME;
8623                                         pa_end = pa_start + PAGE_SIZE;
8624                                 } else if (pa_end == (*pte & PG_FRAME))
8625                                         pa_end += PAGE_SIZE;
8626                                 else {
8627                                         /* Run ended, update direct map. */
8628                                         error = pmap_change_props_locked(
8629                                             PHYS_TO_DMAP(pa_start),
8630                                             pa_end - pa_start, prot, mode,
8631                                             flags);
8632                                         if (error != 0)
8633                                                 break;
8634                                         /* Start physical address run. */
8635                                         pa_start = *pte & PG_FRAME;
8636                                         pa_end = pa_start + PAGE_SIZE;
8637                                 }
8638                         }
8639                         tmpva += PAGE_SIZE;
8640                 }
8641         }
8642         if (error == 0 && pa_start != pa_end && pa_start < dmaplimit) {
8643                 pa_end1 = MIN(pa_end, dmaplimit);
8644                 if (pa_start != pa_end1)
8645                         error = pmap_change_props_locked(PHYS_TO_DMAP(pa_start),
8646                             pa_end1 - pa_start, prot, mode, flags);
8647         }
8648
8649         /*
8650          * Flush CPU caches if required to make sure any data isn't cached that
8651          * shouldn't be, etc.
8652          */
8653         if (changed) {
8654                 pmap_invalidate_range(kernel_pmap, base, tmpva);
8655                 if ((flags & MAPDEV_FLUSHCACHE) != 0)
8656                         pmap_invalidate_cache_range(base, tmpva);
8657         }
8658         return (error);
8659 }
8660
8661 /*
8662  * Demotes any mapping within the direct map region that covers more than the
8663  * specified range of physical addresses.  This range's size must be a power
8664  * of two and its starting address must be a multiple of its size.  Since the
8665  * demotion does not change any attributes of the mapping, a TLB invalidation
8666  * is not mandatory.  The caller may, however, request a TLB invalidation.
8667  */
8668 void
8669 pmap_demote_DMAP(vm_paddr_t base, vm_size_t len, boolean_t invalidate)
8670 {
8671         pdp_entry_t *pdpe;
8672         pd_entry_t *pde;
8673         vm_offset_t va;
8674         boolean_t changed;
8675
8676         if (len == 0)
8677                 return;
8678         KASSERT(powerof2(len), ("pmap_demote_DMAP: len is not a power of 2"));
8679         KASSERT((base & (len - 1)) == 0,
8680             ("pmap_demote_DMAP: base is not a multiple of len"));
8681         if (len < NBPDP && base < dmaplimit) {
8682                 va = PHYS_TO_DMAP(base);
8683                 changed = FALSE;
8684                 PMAP_LOCK(kernel_pmap);
8685                 pdpe = pmap_pdpe(kernel_pmap, va);
8686                 if ((*pdpe & X86_PG_V) == 0)
8687                         panic("pmap_demote_DMAP: invalid PDPE");
8688                 if ((*pdpe & PG_PS) != 0) {
8689                         if (!pmap_demote_pdpe(kernel_pmap, pdpe, va))
8690                                 panic("pmap_demote_DMAP: PDPE failed");
8691                         changed = TRUE;
8692                 }
8693                 if (len < NBPDR) {
8694                         pde = pmap_pdpe_to_pde(pdpe, va);
8695                         if ((*pde & X86_PG_V) == 0)
8696                                 panic("pmap_demote_DMAP: invalid PDE");
8697                         if ((*pde & PG_PS) != 0) {
8698                                 if (!pmap_demote_pde(kernel_pmap, pde, va))
8699                                         panic("pmap_demote_DMAP: PDE failed");
8700                                 changed = TRUE;
8701                         }
8702                 }
8703                 if (changed && invalidate)
8704                         pmap_invalidate_page(kernel_pmap, va);
8705                 PMAP_UNLOCK(kernel_pmap);
8706         }
8707 }
8708
8709 /*
8710  * Perform the pmap work for mincore(2).  If the page is not both referenced and
8711  * modified by this pmap, returns its physical address so that the caller can
8712  * find other mappings.
8713  */
8714 int
8715 pmap_mincore(pmap_t pmap, vm_offset_t addr, vm_paddr_t *pap)
8716 {
8717         pd_entry_t *pdep;
8718         pt_entry_t pte, PG_A, PG_M, PG_RW, PG_V;
8719         vm_paddr_t pa;
8720         int val;
8721
8722         PG_A = pmap_accessed_bit(pmap);
8723         PG_M = pmap_modified_bit(pmap);
8724         PG_V = pmap_valid_bit(pmap);
8725         PG_RW = pmap_rw_bit(pmap);
8726
8727         PMAP_LOCK(pmap);
8728         pdep = pmap_pde(pmap, addr);
8729         if (pdep != NULL && (*pdep & PG_V)) {
8730                 if (*pdep & PG_PS) {
8731                         pte = *pdep;
8732                         /* Compute the physical address of the 4KB page. */
8733                         pa = ((*pdep & PG_PS_FRAME) | (addr & PDRMASK)) &
8734                             PG_FRAME;
8735                         val = MINCORE_SUPER;
8736                 } else {
8737                         pte = *pmap_pde_to_pte(pdep, addr);
8738                         pa = pte & PG_FRAME;
8739                         val = 0;
8740                 }
8741         } else {
8742                 pte = 0;
8743                 pa = 0;
8744                 val = 0;
8745         }
8746         if ((pte & PG_V) != 0) {
8747                 val |= MINCORE_INCORE;
8748                 if ((pte & (PG_M | PG_RW)) == (PG_M | PG_RW))
8749                         val |= MINCORE_MODIFIED | MINCORE_MODIFIED_OTHER;
8750                 if ((pte & PG_A) != 0)
8751                         val |= MINCORE_REFERENCED | MINCORE_REFERENCED_OTHER;
8752         }
8753         if ((val & (MINCORE_MODIFIED_OTHER | MINCORE_REFERENCED_OTHER)) !=
8754             (MINCORE_MODIFIED_OTHER | MINCORE_REFERENCED_OTHER) &&
8755             (pte & (PG_MANAGED | PG_V)) == (PG_MANAGED | PG_V)) {
8756                 *pap = pa;
8757         }
8758         PMAP_UNLOCK(pmap);
8759         return (val);
8760 }
8761
8762 static uint64_t
8763 pmap_pcid_alloc(pmap_t pmap, u_int cpuid)
8764 {
8765         uint32_t gen, new_gen, pcid_next;
8766
8767         CRITICAL_ASSERT(curthread);
8768         gen = PCPU_GET(pcid_gen);
8769         if (pmap->pm_pcids[cpuid].pm_pcid == PMAP_PCID_KERN)
8770                 return (pti ? 0 : CR3_PCID_SAVE);
8771         if (pmap->pm_pcids[cpuid].pm_gen == gen)
8772                 return (CR3_PCID_SAVE);
8773         pcid_next = PCPU_GET(pcid_next);
8774         KASSERT((!pti && pcid_next <= PMAP_PCID_OVERMAX) ||
8775             (pti && pcid_next <= PMAP_PCID_OVERMAX_KERN),
8776             ("cpu %d pcid_next %#x", cpuid, pcid_next));
8777         if ((!pti && pcid_next == PMAP_PCID_OVERMAX) ||
8778             (pti && pcid_next == PMAP_PCID_OVERMAX_KERN)) {
8779                 new_gen = gen + 1;
8780                 if (new_gen == 0)
8781                         new_gen = 1;
8782                 PCPU_SET(pcid_gen, new_gen);
8783                 pcid_next = PMAP_PCID_KERN + 1;
8784         } else {
8785                 new_gen = gen;
8786         }
8787         pmap->pm_pcids[cpuid].pm_pcid = pcid_next;
8788         pmap->pm_pcids[cpuid].pm_gen = new_gen;
8789         PCPU_SET(pcid_next, pcid_next + 1);
8790         return (0);
8791 }
8792
8793 static uint64_t
8794 pmap_pcid_alloc_checked(pmap_t pmap, u_int cpuid)
8795 {
8796         uint64_t cached;
8797
8798         cached = pmap_pcid_alloc(pmap, cpuid);
8799         KASSERT(pmap->pm_pcids[cpuid].pm_pcid < PMAP_PCID_OVERMAX,
8800             ("pmap %p cpu %d pcid %#x", pmap, cpuid,
8801             pmap->pm_pcids[cpuid].pm_pcid));
8802         KASSERT(pmap->pm_pcids[cpuid].pm_pcid != PMAP_PCID_KERN ||
8803             pmap == kernel_pmap,
8804             ("non-kernel pmap pmap %p cpu %d pcid %#x",
8805             pmap, cpuid, pmap->pm_pcids[cpuid].pm_pcid));
8806         return (cached);
8807 }
8808
8809 static void
8810 pmap_activate_sw_pti_post(struct thread *td, pmap_t pmap)
8811 {
8812
8813         PCPU_GET(tssp)->tss_rsp0 = pmap->pm_ucr3 != PMAP_NO_CR3 ?
8814             PCPU_GET(pti_rsp0) : (uintptr_t)td->td_md.md_stack_base;
8815 }
8816
8817 static void inline
8818 pmap_activate_sw_pcid_pti(pmap_t pmap, u_int cpuid, const bool invpcid_works1)
8819 {
8820         struct invpcid_descr d;
8821         uint64_t cached, cr3, kcr3, ucr3;
8822
8823         cached = pmap_pcid_alloc_checked(pmap, cpuid);
8824         cr3 = rcr3();
8825         if ((cr3 & ~CR3_PCID_MASK) != pmap->pm_cr3)
8826                 load_cr3(pmap->pm_cr3 | pmap->pm_pcids[cpuid].pm_pcid);
8827         PCPU_SET(curpmap, pmap);
8828         kcr3 = pmap->pm_cr3 | pmap->pm_pcids[cpuid].pm_pcid;
8829         ucr3 = pmap->pm_ucr3 | pmap->pm_pcids[cpuid].pm_pcid |
8830             PMAP_PCID_USER_PT;
8831
8832         if (!cached && pmap->pm_ucr3 != PMAP_NO_CR3) {
8833                 /*
8834                  * Explicitly invalidate translations cached from the
8835                  * user page table.  They are not automatically
8836                  * flushed by reload of cr3 with the kernel page table
8837                  * pointer above.
8838                  *
8839                  * Note that the if() condition is resolved statically
8840                  * by using the function argument instead of
8841                  * runtime-evaluated invpcid_works value.
8842                  */
8843                 if (invpcid_works1) {
8844                         d.pcid = PMAP_PCID_USER_PT |
8845                             pmap->pm_pcids[cpuid].pm_pcid;
8846                         d.pad = 0;
8847                         d.addr = 0;
8848                         invpcid(&d, INVPCID_CTX);
8849                 } else {
8850                         pmap_pti_pcid_invalidate(ucr3, kcr3);
8851                 }
8852         }
8853
8854         PCPU_SET(kcr3, kcr3 | CR3_PCID_SAVE);
8855         PCPU_SET(ucr3, ucr3 | CR3_PCID_SAVE);
8856         if (cached)
8857                 PCPU_INC(pm_save_cnt);
8858 }
8859
8860 static void
8861 pmap_activate_sw_pcid_invpcid_pti(struct thread *td, pmap_t pmap, u_int cpuid)
8862 {
8863
8864         pmap_activate_sw_pcid_pti(pmap, cpuid, true);
8865         pmap_activate_sw_pti_post(td, pmap);
8866 }
8867
8868 static void
8869 pmap_activate_sw_pcid_noinvpcid_pti(struct thread *td, pmap_t pmap,
8870     u_int cpuid)
8871 {
8872         register_t rflags;
8873
8874         /*
8875          * If the INVPCID instruction is not available,
8876          * invltlb_pcid_handler() is used to handle an invalidate_all
8877          * IPI, which checks for curpmap == smp_tlb_pmap.  The below
8878          * sequence of operations has a window where %CR3 is loaded
8879          * with the new pmap's PML4 address, but the curpmap value has
8880          * not yet been updated.  This causes the invltlb IPI handler,
8881          * which is called between the updates, to execute as a NOP,
8882          * which leaves stale TLB entries.
8883          *
8884          * Note that the most typical use of pmap_activate_sw(), from
8885          * the context switch, is immune to this race, because
8886          * interrupts are disabled (while the thread lock is owned),
8887          * and the IPI happens after curpmap is updated.  Protect
8888          * other callers in a similar way, by disabling interrupts
8889          * around the %cr3 register reload and curpmap assignment.
8890          */
8891         rflags = intr_disable();
8892         pmap_activate_sw_pcid_pti(pmap, cpuid, false);
8893         intr_restore(rflags);
8894         pmap_activate_sw_pti_post(td, pmap);
8895 }
8896
8897 static void
8898 pmap_activate_sw_pcid_nopti(struct thread *td __unused, pmap_t pmap,
8899     u_int cpuid)
8900 {
8901         uint64_t cached, cr3;
8902
8903         cached = pmap_pcid_alloc_checked(pmap, cpuid);
8904         cr3 = rcr3();
8905         if (!cached || (cr3 & ~CR3_PCID_MASK) != pmap->pm_cr3)
8906                 load_cr3(pmap->pm_cr3 | pmap->pm_pcids[cpuid].pm_pcid |
8907                     cached);
8908         PCPU_SET(curpmap, pmap);
8909         if (cached)
8910                 PCPU_INC(pm_save_cnt);
8911 }
8912
8913 static void
8914 pmap_activate_sw_pcid_noinvpcid_nopti(struct thread *td __unused, pmap_t pmap,
8915     u_int cpuid)
8916 {
8917         register_t rflags;
8918
8919         rflags = intr_disable();
8920         pmap_activate_sw_pcid_nopti(td, pmap, cpuid);
8921         intr_restore(rflags);
8922 }
8923
8924 static void
8925 pmap_activate_sw_nopcid_nopti(struct thread *td __unused, pmap_t pmap,
8926     u_int cpuid __unused)
8927 {
8928
8929         load_cr3(pmap->pm_cr3);
8930         PCPU_SET(curpmap, pmap);
8931 }
8932
8933 static void
8934 pmap_activate_sw_nopcid_pti(struct thread *td, pmap_t pmap,
8935     u_int cpuid __unused)
8936 {
8937
8938         pmap_activate_sw_nopcid_nopti(td, pmap, cpuid);
8939         PCPU_SET(kcr3, pmap->pm_cr3);
8940         PCPU_SET(ucr3, pmap->pm_ucr3);
8941         pmap_activate_sw_pti_post(td, pmap);
8942 }
8943
8944 DEFINE_IFUNC(static, void, pmap_activate_sw_mode, (struct thread *, pmap_t,
8945     u_int))
8946 {
8947
8948         if (pmap_pcid_enabled && pti && invpcid_works)
8949                 return (pmap_activate_sw_pcid_invpcid_pti);
8950         else if (pmap_pcid_enabled && pti && !invpcid_works)
8951                 return (pmap_activate_sw_pcid_noinvpcid_pti);
8952         else if (pmap_pcid_enabled && !pti && invpcid_works)
8953                 return (pmap_activate_sw_pcid_nopti);
8954         else if (pmap_pcid_enabled && !pti && !invpcid_works)
8955                 return (pmap_activate_sw_pcid_noinvpcid_nopti);
8956         else if (!pmap_pcid_enabled && pti)
8957                 return (pmap_activate_sw_nopcid_pti);
8958         else /* if (!pmap_pcid_enabled && !pti) */
8959                 return (pmap_activate_sw_nopcid_nopti);
8960 }
8961
8962 void
8963 pmap_activate_sw(struct thread *td)
8964 {
8965         pmap_t oldpmap, pmap;
8966         u_int cpuid;
8967
8968         oldpmap = PCPU_GET(curpmap);
8969         pmap = vmspace_pmap(td->td_proc->p_vmspace);
8970         if (oldpmap == pmap) {
8971                 if (cpu_vendor_id != CPU_VENDOR_INTEL)
8972                         mfence();
8973                 return;
8974         }
8975         cpuid = PCPU_GET(cpuid);
8976 #ifdef SMP
8977         CPU_SET_ATOMIC(cpuid, &pmap->pm_active);
8978 #else
8979         CPU_SET(cpuid, &pmap->pm_active);
8980 #endif
8981         pmap_activate_sw_mode(td, pmap, cpuid);
8982 #ifdef SMP
8983         CPU_CLR_ATOMIC(cpuid, &oldpmap->pm_active);
8984 #else
8985         CPU_CLR(cpuid, &oldpmap->pm_active);
8986 #endif
8987 }
8988
8989 void
8990 pmap_activate(struct thread *td)
8991 {
8992
8993         critical_enter();
8994         pmap_activate_sw(td);
8995         critical_exit();
8996 }
8997
8998 void
8999 pmap_activate_boot(pmap_t pmap)
9000 {
9001         uint64_t kcr3;
9002         u_int cpuid;
9003
9004         /*
9005          * kernel_pmap must be never deactivated, and we ensure that
9006          * by never activating it at all.
9007          */
9008         MPASS(pmap != kernel_pmap);
9009
9010         cpuid = PCPU_GET(cpuid);
9011 #ifdef SMP
9012         CPU_SET_ATOMIC(cpuid, &pmap->pm_active);
9013 #else
9014         CPU_SET(cpuid, &pmap->pm_active);
9015 #endif
9016         PCPU_SET(curpmap, pmap);
9017         if (pti) {
9018                 kcr3 = pmap->pm_cr3;
9019                 if (pmap_pcid_enabled)
9020                         kcr3 |= pmap->pm_pcids[cpuid].pm_pcid | CR3_PCID_SAVE;
9021         } else {
9022                 kcr3 = PMAP_NO_CR3;
9023         }
9024         PCPU_SET(kcr3, kcr3);
9025         PCPU_SET(ucr3, PMAP_NO_CR3);
9026 }
9027
9028 void
9029 pmap_sync_icache(pmap_t pm, vm_offset_t va, vm_size_t sz)
9030 {
9031 }
9032
9033 /*
9034  *      Increase the starting virtual address of the given mapping if a
9035  *      different alignment might result in more superpage mappings.
9036  */
9037 void
9038 pmap_align_superpage(vm_object_t object, vm_ooffset_t offset,
9039     vm_offset_t *addr, vm_size_t size)
9040 {
9041         vm_offset_t superpage_offset;
9042
9043         if (size < NBPDR)
9044                 return;
9045         if (object != NULL && (object->flags & OBJ_COLORED) != 0)
9046                 offset += ptoa(object->pg_color);
9047         superpage_offset = offset & PDRMASK;
9048         if (size - ((NBPDR - superpage_offset) & PDRMASK) < NBPDR ||
9049             (*addr & PDRMASK) == superpage_offset)
9050                 return;
9051         if ((*addr & PDRMASK) < superpage_offset)
9052                 *addr = (*addr & ~PDRMASK) + superpage_offset;
9053         else
9054                 *addr = ((*addr + PDRMASK) & ~PDRMASK) + superpage_offset;
9055 }
9056
9057 #ifdef INVARIANTS
9058 static unsigned long num_dirty_emulations;
9059 SYSCTL_ULONG(_vm_pmap, OID_AUTO, num_dirty_emulations, CTLFLAG_RW,
9060              &num_dirty_emulations, 0, NULL);
9061
9062 static unsigned long num_accessed_emulations;
9063 SYSCTL_ULONG(_vm_pmap, OID_AUTO, num_accessed_emulations, CTLFLAG_RW,
9064              &num_accessed_emulations, 0, NULL);
9065
9066 static unsigned long num_superpage_accessed_emulations;
9067 SYSCTL_ULONG(_vm_pmap, OID_AUTO, num_superpage_accessed_emulations, CTLFLAG_RW,
9068              &num_superpage_accessed_emulations, 0, NULL);
9069
9070 static unsigned long ad_emulation_superpage_promotions;
9071 SYSCTL_ULONG(_vm_pmap, OID_AUTO, ad_emulation_superpage_promotions, CTLFLAG_RW,
9072              &ad_emulation_superpage_promotions, 0, NULL);
9073 #endif  /* INVARIANTS */
9074
9075 int
9076 pmap_emulate_accessed_dirty(pmap_t pmap, vm_offset_t va, int ftype)
9077 {
9078         int rv;
9079         struct rwlock *lock;
9080 #if VM_NRESERVLEVEL > 0
9081         vm_page_t m, mpte;
9082 #endif
9083         pd_entry_t *pde;
9084         pt_entry_t *pte, PG_A, PG_M, PG_RW, PG_V;
9085
9086         KASSERT(ftype == VM_PROT_READ || ftype == VM_PROT_WRITE,
9087             ("pmap_emulate_accessed_dirty: invalid fault type %d", ftype));
9088
9089         if (!pmap_emulate_ad_bits(pmap))
9090                 return (-1);
9091
9092         PG_A = pmap_accessed_bit(pmap);
9093         PG_M = pmap_modified_bit(pmap);
9094         PG_V = pmap_valid_bit(pmap);
9095         PG_RW = pmap_rw_bit(pmap);
9096
9097         rv = -1;
9098         lock = NULL;
9099         PMAP_LOCK(pmap);
9100
9101         pde = pmap_pde(pmap, va);
9102         if (pde == NULL || (*pde & PG_V) == 0)
9103                 goto done;
9104
9105         if ((*pde & PG_PS) != 0) {
9106                 if (ftype == VM_PROT_READ) {
9107 #ifdef INVARIANTS
9108                         atomic_add_long(&num_superpage_accessed_emulations, 1);
9109 #endif
9110                         *pde |= PG_A;
9111                         rv = 0;
9112                 }
9113                 goto done;
9114         }
9115
9116         pte = pmap_pde_to_pte(pde, va);
9117         if ((*pte & PG_V) == 0)
9118                 goto done;
9119
9120         if (ftype == VM_PROT_WRITE) {
9121                 if ((*pte & PG_RW) == 0)
9122                         goto done;
9123                 /*
9124                  * Set the modified and accessed bits simultaneously.
9125                  *
9126                  * Intel EPT PTEs that do software emulation of A/D bits map
9127                  * PG_A and PG_M to EPT_PG_READ and EPT_PG_WRITE respectively.
9128                  * An EPT misconfiguration is triggered if the PTE is writable
9129                  * but not readable (WR=10). This is avoided by setting PG_A
9130                  * and PG_M simultaneously.
9131                  */
9132                 *pte |= PG_M | PG_A;
9133         } else {
9134                 *pte |= PG_A;
9135         }
9136
9137 #if VM_NRESERVLEVEL > 0
9138         /* try to promote the mapping */
9139         if (va < VM_MAXUSER_ADDRESS)
9140                 mpte = PHYS_TO_VM_PAGE(*pde & PG_FRAME);
9141         else
9142                 mpte = NULL;
9143
9144         m = PHYS_TO_VM_PAGE(*pte & PG_FRAME);
9145
9146         if ((mpte == NULL || mpte->ref_count == NPTEPG) &&
9147             pmap_ps_enabled(pmap) &&
9148             (m->flags & PG_FICTITIOUS) == 0 &&
9149             vm_reserv_level_iffullpop(m) == 0) {
9150                 pmap_promote_pde(pmap, pde, va, &lock);
9151 #ifdef INVARIANTS
9152                 atomic_add_long(&ad_emulation_superpage_promotions, 1);
9153 #endif
9154         }
9155 #endif
9156
9157 #ifdef INVARIANTS
9158         if (ftype == VM_PROT_WRITE)
9159                 atomic_add_long(&num_dirty_emulations, 1);
9160         else
9161                 atomic_add_long(&num_accessed_emulations, 1);
9162 #endif
9163         rv = 0;         /* success */
9164 done:
9165         if (lock != NULL)
9166                 rw_wunlock(lock);
9167         PMAP_UNLOCK(pmap);
9168         return (rv);
9169 }
9170
9171 void
9172 pmap_get_mapping(pmap_t pmap, vm_offset_t va, uint64_t *ptr, int *num)
9173 {
9174         pml4_entry_t *pml4;
9175         pdp_entry_t *pdp;
9176         pd_entry_t *pde;
9177         pt_entry_t *pte, PG_V;
9178         int idx;
9179
9180         idx = 0;
9181         PG_V = pmap_valid_bit(pmap);
9182         PMAP_LOCK(pmap);
9183
9184         pml4 = pmap_pml4e(pmap, va);
9185         ptr[idx++] = *pml4;
9186         if ((*pml4 & PG_V) == 0)
9187                 goto done;
9188
9189         pdp = pmap_pml4e_to_pdpe(pml4, va);
9190         ptr[idx++] = *pdp;
9191         if ((*pdp & PG_V) == 0 || (*pdp & PG_PS) != 0)
9192                 goto done;
9193
9194         pde = pmap_pdpe_to_pde(pdp, va);
9195         ptr[idx++] = *pde;
9196         if ((*pde & PG_V) == 0 || (*pde & PG_PS) != 0)
9197                 goto done;
9198
9199         pte = pmap_pde_to_pte(pde, va);
9200         ptr[idx++] = *pte;
9201
9202 done:
9203         PMAP_UNLOCK(pmap);
9204         *num = idx;
9205 }
9206
9207 /**
9208  * Get the kernel virtual address of a set of physical pages. If there are
9209  * physical addresses not covered by the DMAP perform a transient mapping
9210  * that will be removed when calling pmap_unmap_io_transient.
9211  *
9212  * \param page        The pages the caller wishes to obtain the virtual
9213  *                    address on the kernel memory map.
9214  * \param vaddr       On return contains the kernel virtual memory address
9215  *                    of the pages passed in the page parameter.
9216  * \param count       Number of pages passed in.
9217  * \param can_fault   TRUE if the thread using the mapped pages can take
9218  *                    page faults, FALSE otherwise.
9219  *
9220  * \returns TRUE if the caller must call pmap_unmap_io_transient when
9221  *          finished or FALSE otherwise.
9222  *
9223  */
9224 boolean_t
9225 pmap_map_io_transient(vm_page_t page[], vm_offset_t vaddr[], int count,
9226     boolean_t can_fault)
9227 {
9228         vm_paddr_t paddr;
9229         boolean_t needs_mapping;
9230         pt_entry_t *pte;
9231         int cache_bits, error __unused, i;
9232
9233         /*
9234          * Allocate any KVA space that we need, this is done in a separate
9235          * loop to prevent calling vmem_alloc while pinned.
9236          */
9237         needs_mapping = FALSE;
9238         for (i = 0; i < count; i++) {
9239                 paddr = VM_PAGE_TO_PHYS(page[i]);
9240                 if (__predict_false(paddr >= dmaplimit)) {
9241                         error = vmem_alloc(kernel_arena, PAGE_SIZE,
9242                             M_BESTFIT | M_WAITOK, &vaddr[i]);
9243                         KASSERT(error == 0, ("vmem_alloc failed: %d", error));
9244                         needs_mapping = TRUE;
9245                 } else {
9246                         vaddr[i] = PHYS_TO_DMAP(paddr);
9247                 }
9248         }
9249
9250         /* Exit early if everything is covered by the DMAP */
9251         if (!needs_mapping)
9252                 return (FALSE);
9253
9254         /*
9255          * NB:  The sequence of updating a page table followed by accesses
9256          * to the corresponding pages used in the !DMAP case is subject to
9257          * the situation described in the "AMD64 Architecture Programmer's
9258          * Manual Volume 2: System Programming" rev. 3.23, "7.3.1 Special
9259          * Coherency Considerations".  Therefore, issuing the INVLPG right
9260          * after modifying the PTE bits is crucial.
9261          */
9262         if (!can_fault)
9263                 sched_pin();
9264         for (i = 0; i < count; i++) {
9265                 paddr = VM_PAGE_TO_PHYS(page[i]);
9266                 if (paddr >= dmaplimit) {
9267                         if (can_fault) {
9268                                 /*
9269                                  * Slow path, since we can get page faults
9270                                  * while mappings are active don't pin the
9271                                  * thread to the CPU and instead add a global
9272                                  * mapping visible to all CPUs.
9273                                  */
9274                                 pmap_qenter(vaddr[i], &page[i], 1);
9275                         } else {
9276                                 pte = vtopte(vaddr[i]);
9277                                 cache_bits = pmap_cache_bits(kernel_pmap,
9278                                     page[i]->md.pat_mode, 0);
9279                                 pte_store(pte, paddr | X86_PG_RW | X86_PG_V |
9280                                     cache_bits);
9281                                 invlpg(vaddr[i]);
9282                         }
9283                 }
9284         }
9285
9286         return (needs_mapping);
9287 }
9288
9289 void
9290 pmap_unmap_io_transient(vm_page_t page[], vm_offset_t vaddr[], int count,
9291     boolean_t can_fault)
9292 {
9293         vm_paddr_t paddr;
9294         int i;
9295
9296         if (!can_fault)
9297                 sched_unpin();
9298         for (i = 0; i < count; i++) {
9299                 paddr = VM_PAGE_TO_PHYS(page[i]);
9300                 if (paddr >= dmaplimit) {
9301                         if (can_fault)
9302                                 pmap_qremove(vaddr[i], 1);
9303                         vmem_free(kernel_arena, vaddr[i], PAGE_SIZE);
9304                 }
9305         }
9306 }
9307
9308 vm_offset_t
9309 pmap_quick_enter_page(vm_page_t m)
9310 {
9311         vm_paddr_t paddr;
9312
9313         paddr = VM_PAGE_TO_PHYS(m);
9314         if (paddr < dmaplimit)
9315                 return (PHYS_TO_DMAP(paddr));
9316         mtx_lock_spin(&qframe_mtx);
9317         KASSERT(*vtopte(qframe) == 0, ("qframe busy"));
9318         pte_store(vtopte(qframe), paddr | X86_PG_RW | X86_PG_V | X86_PG_A |
9319             X86_PG_M | pmap_cache_bits(kernel_pmap, m->md.pat_mode, 0));
9320         return (qframe);
9321 }
9322
9323 void
9324 pmap_quick_remove_page(vm_offset_t addr)
9325 {
9326
9327         if (addr != qframe)
9328                 return;
9329         pte_store(vtopte(qframe), 0);
9330         invlpg(qframe);
9331         mtx_unlock_spin(&qframe_mtx);
9332 }
9333
9334 /*
9335  * Pdp pages from the large map are managed differently from either
9336  * kernel or user page table pages.  They are permanently allocated at
9337  * initialization time, and their reference count is permanently set to
9338  * zero.  The pml4 entries pointing to those pages are copied into
9339  * each allocated pmap.
9340  *
9341  * In contrast, pd and pt pages are managed like user page table
9342  * pages.  They are dynamically allocated, and their reference count
9343  * represents the number of valid entries within the page.
9344  */
9345 static vm_page_t
9346 pmap_large_map_getptp_unlocked(void)
9347 {
9348         vm_page_t m;
9349
9350         m = vm_page_alloc(NULL, 0, VM_ALLOC_NORMAL | VM_ALLOC_NOOBJ |
9351             VM_ALLOC_ZERO);
9352         if (m != NULL && (m->flags & PG_ZERO) == 0)
9353                 pmap_zero_page(m);
9354         return (m);
9355 }
9356
9357 static vm_page_t
9358 pmap_large_map_getptp(void)
9359 {
9360         vm_page_t m;
9361
9362         PMAP_LOCK_ASSERT(kernel_pmap, MA_OWNED);
9363         m = pmap_large_map_getptp_unlocked();
9364         if (m == NULL) {
9365                 PMAP_UNLOCK(kernel_pmap);
9366                 vm_wait(NULL);
9367                 PMAP_LOCK(kernel_pmap);
9368                 /* Callers retry. */
9369         }
9370         return (m);
9371 }
9372
9373 static pdp_entry_t *
9374 pmap_large_map_pdpe(vm_offset_t va)
9375 {
9376         vm_pindex_t pml4_idx;
9377         vm_paddr_t mphys;
9378
9379         pml4_idx = pmap_pml4e_index(va);
9380         KASSERT(LMSPML4I <= pml4_idx && pml4_idx < LMSPML4I + lm_ents,
9381             ("pmap_large_map_pdpe: va %#jx out of range idx %#jx LMSPML4I "
9382             "%#jx lm_ents %d",
9383             (uintmax_t)va, (uintmax_t)pml4_idx, LMSPML4I, lm_ents));
9384         KASSERT((kernel_pmap->pm_pml4[pml4_idx] & X86_PG_V) != 0,
9385             ("pmap_large_map_pdpe: invalid pml4 for va %#jx idx %#jx "
9386             "LMSPML4I %#jx lm_ents %d",
9387             (uintmax_t)va, (uintmax_t)pml4_idx, LMSPML4I, lm_ents));
9388         mphys = kernel_pmap->pm_pml4[pml4_idx] & PG_FRAME;
9389         return ((pdp_entry_t *)PHYS_TO_DMAP(mphys) + pmap_pdpe_index(va));
9390 }
9391
9392 static pd_entry_t *
9393 pmap_large_map_pde(vm_offset_t va)
9394 {
9395         pdp_entry_t *pdpe;
9396         vm_page_t m;
9397         vm_paddr_t mphys;
9398
9399 retry:
9400         pdpe = pmap_large_map_pdpe(va);
9401         if (*pdpe == 0) {
9402                 m = pmap_large_map_getptp();
9403                 if (m == NULL)
9404                         goto retry;
9405                 mphys = VM_PAGE_TO_PHYS(m);
9406                 *pdpe = mphys | X86_PG_A | X86_PG_RW | X86_PG_V | pg_nx;
9407         } else {
9408                 MPASS((*pdpe & X86_PG_PS) == 0);
9409                 mphys = *pdpe & PG_FRAME;
9410         }
9411         return ((pd_entry_t *)PHYS_TO_DMAP(mphys) + pmap_pde_index(va));
9412 }
9413
9414 static pt_entry_t *
9415 pmap_large_map_pte(vm_offset_t va)
9416 {
9417         pd_entry_t *pde;
9418         vm_page_t m;
9419         vm_paddr_t mphys;
9420
9421 retry:
9422         pde = pmap_large_map_pde(va);
9423         if (*pde == 0) {
9424                 m = pmap_large_map_getptp();
9425                 if (m == NULL)
9426                         goto retry;
9427                 mphys = VM_PAGE_TO_PHYS(m);
9428                 *pde = mphys | X86_PG_A | X86_PG_RW | X86_PG_V | pg_nx;
9429                 PHYS_TO_VM_PAGE(DMAP_TO_PHYS((uintptr_t)pde))->ref_count++;
9430         } else {
9431                 MPASS((*pde & X86_PG_PS) == 0);
9432                 mphys = *pde & PG_FRAME;
9433         }
9434         return ((pt_entry_t *)PHYS_TO_DMAP(mphys) + pmap_pte_index(va));
9435 }
9436
9437 static vm_paddr_t
9438 pmap_large_map_kextract(vm_offset_t va)
9439 {
9440         pdp_entry_t *pdpe, pdp;
9441         pd_entry_t *pde, pd;
9442         pt_entry_t *pte, pt;
9443
9444         KASSERT(PMAP_ADDRESS_IN_LARGEMAP(va),
9445             ("not largemap range %#lx", (u_long)va));
9446         pdpe = pmap_large_map_pdpe(va);
9447         pdp = *pdpe;
9448         KASSERT((pdp & X86_PG_V) != 0,
9449             ("invalid pdp va %#lx pdpe %#lx pdp %#lx", va,
9450             (u_long)pdpe, pdp));
9451         if ((pdp & X86_PG_PS) != 0) {
9452                 KASSERT((amd_feature & AMDID_PAGE1GB) != 0,
9453                     ("no 1G pages, va %#lx pdpe %#lx pdp %#lx", va,
9454                     (u_long)pdpe, pdp));
9455                 return ((pdp & PG_PS_PDP_FRAME) | (va & PDPMASK));
9456         }
9457         pde = pmap_pdpe_to_pde(pdpe, va);
9458         pd = *pde;
9459         KASSERT((pd & X86_PG_V) != 0,
9460             ("invalid pd va %#lx pde %#lx pd %#lx", va, (u_long)pde, pd));
9461         if ((pd & X86_PG_PS) != 0)
9462                 return ((pd & PG_PS_FRAME) | (va & PDRMASK));
9463         pte = pmap_pde_to_pte(pde, va);
9464         pt = *pte;
9465         KASSERT((pt & X86_PG_V) != 0,
9466             ("invalid pte va %#lx pte %#lx pt %#lx", va, (u_long)pte, pt));
9467         return ((pt & PG_FRAME) | (va & PAGE_MASK));
9468 }
9469
9470 static int
9471 pmap_large_map_getva(vm_size_t len, vm_offset_t align, vm_offset_t phase,
9472     vmem_addr_t *vmem_res)
9473 {
9474
9475         /*
9476          * Large mappings are all but static.  Consequently, there
9477          * is no point in waiting for an earlier allocation to be
9478          * freed.
9479          */
9480         return (vmem_xalloc(large_vmem, len, align, phase, 0, VMEM_ADDR_MIN,
9481             VMEM_ADDR_MAX, M_NOWAIT | M_BESTFIT, vmem_res));
9482 }
9483
9484 int
9485 pmap_large_map(vm_paddr_t spa, vm_size_t len, void **addr,
9486     vm_memattr_t mattr)
9487 {
9488         pdp_entry_t *pdpe;
9489         pd_entry_t *pde;
9490         pt_entry_t *pte;
9491         vm_offset_t va, inc;
9492         vmem_addr_t vmem_res;
9493         vm_paddr_t pa;
9494         int error;
9495
9496         if (len == 0 || spa + len < spa)
9497                 return (EINVAL);
9498
9499         /* See if DMAP can serve. */
9500         if (spa + len <= dmaplimit) {
9501                 va = PHYS_TO_DMAP(spa);
9502                 *addr = (void *)va;
9503                 return (pmap_change_attr(va, len, mattr));
9504         }
9505
9506         /*
9507          * No, allocate KVA.  Fit the address with best possible
9508          * alignment for superpages.  Fall back to worse align if
9509          * failed.
9510          */
9511         error = ENOMEM;
9512         if ((amd_feature & AMDID_PAGE1GB) != 0 && rounddown2(spa + len,
9513             NBPDP) >= roundup2(spa, NBPDP) + NBPDP)
9514                 error = pmap_large_map_getva(len, NBPDP, spa & PDPMASK,
9515                     &vmem_res);
9516         if (error != 0 && rounddown2(spa + len, NBPDR) >= roundup2(spa,
9517             NBPDR) + NBPDR)
9518                 error = pmap_large_map_getva(len, NBPDR, spa & PDRMASK,
9519                     &vmem_res);
9520         if (error != 0)
9521                 error = pmap_large_map_getva(len, PAGE_SIZE, 0, &vmem_res);
9522         if (error != 0)
9523                 return (error);
9524
9525         /*
9526          * Fill pagetable.  PG_M is not pre-set, we scan modified bits
9527          * in the pagetable to minimize flushing.  No need to
9528          * invalidate TLB, since we only update invalid entries.
9529          */
9530         PMAP_LOCK(kernel_pmap);
9531         for (pa = spa, va = vmem_res; len > 0; pa += inc, va += inc,
9532             len -= inc) {
9533                 if ((amd_feature & AMDID_PAGE1GB) != 0 && len >= NBPDP &&
9534                     (pa & PDPMASK) == 0 && (va & PDPMASK) == 0) {
9535                         pdpe = pmap_large_map_pdpe(va);
9536                         MPASS(*pdpe == 0);
9537                         *pdpe = pa | pg_g | X86_PG_PS | X86_PG_RW |
9538                             X86_PG_V | X86_PG_A | pg_nx |
9539                             pmap_cache_bits(kernel_pmap, mattr, TRUE);
9540                         inc = NBPDP;
9541                 } else if (len >= NBPDR && (pa & PDRMASK) == 0 &&
9542                     (va & PDRMASK) == 0) {
9543                         pde = pmap_large_map_pde(va);
9544                         MPASS(*pde == 0);
9545                         *pde = pa | pg_g | X86_PG_PS | X86_PG_RW |
9546                             X86_PG_V | X86_PG_A | pg_nx |
9547                             pmap_cache_bits(kernel_pmap, mattr, TRUE);
9548                         PHYS_TO_VM_PAGE(DMAP_TO_PHYS((uintptr_t)pde))->
9549                             ref_count++;
9550                         inc = NBPDR;
9551                 } else {
9552                         pte = pmap_large_map_pte(va);
9553                         MPASS(*pte == 0);
9554                         *pte = pa | pg_g | X86_PG_RW | X86_PG_V |
9555                             X86_PG_A | pg_nx | pmap_cache_bits(kernel_pmap,
9556                             mattr, FALSE);
9557                         PHYS_TO_VM_PAGE(DMAP_TO_PHYS((uintptr_t)pte))->
9558                             ref_count++;
9559                         inc = PAGE_SIZE;
9560                 }
9561         }
9562         PMAP_UNLOCK(kernel_pmap);
9563         MPASS(len == 0);
9564
9565         *addr = (void *)vmem_res;
9566         return (0);
9567 }
9568
9569 void
9570 pmap_large_unmap(void *svaa, vm_size_t len)
9571 {
9572         vm_offset_t sva, va;
9573         vm_size_t inc;
9574         pdp_entry_t *pdpe, pdp;
9575         pd_entry_t *pde, pd;
9576         pt_entry_t *pte;
9577         vm_page_t m;
9578         struct spglist spgf;
9579
9580         sva = (vm_offset_t)svaa;
9581         if (len == 0 || sva + len < sva || (sva >= DMAP_MIN_ADDRESS &&
9582             sva + len <= DMAP_MIN_ADDRESS + dmaplimit))
9583                 return;
9584
9585         SLIST_INIT(&spgf);
9586         KASSERT(PMAP_ADDRESS_IN_LARGEMAP(sva) &&
9587             PMAP_ADDRESS_IN_LARGEMAP(sva + len - 1),
9588             ("not largemap range %#lx %#lx", (u_long)svaa, (u_long)svaa + len));
9589         PMAP_LOCK(kernel_pmap);
9590         for (va = sva; va < sva + len; va += inc) {
9591                 pdpe = pmap_large_map_pdpe(va);
9592                 pdp = *pdpe;
9593                 KASSERT((pdp & X86_PG_V) != 0,
9594                     ("invalid pdp va %#lx pdpe %#lx pdp %#lx", va,
9595                     (u_long)pdpe, pdp));
9596                 if ((pdp & X86_PG_PS) != 0) {
9597                         KASSERT((amd_feature & AMDID_PAGE1GB) != 0,
9598                             ("no 1G pages, va %#lx pdpe %#lx pdp %#lx", va,
9599                             (u_long)pdpe, pdp));
9600                         KASSERT((va & PDPMASK) == 0,
9601                             ("PDPMASK bit set, va %#lx pdpe %#lx pdp %#lx", va,
9602                             (u_long)pdpe, pdp));
9603                         KASSERT(va + NBPDP <= sva + len,
9604                             ("unmap covers partial 1GB page, sva %#lx va %#lx "
9605                             "pdpe %#lx pdp %#lx len %#lx", sva, va,
9606                             (u_long)pdpe, pdp, len));
9607                         *pdpe = 0;
9608                         inc = NBPDP;
9609                         continue;
9610                 }
9611                 pde = pmap_pdpe_to_pde(pdpe, va);
9612                 pd = *pde;
9613                 KASSERT((pd & X86_PG_V) != 0,
9614                     ("invalid pd va %#lx pde %#lx pd %#lx", va,
9615                     (u_long)pde, pd));
9616                 if ((pd & X86_PG_PS) != 0) {
9617                         KASSERT((va & PDRMASK) == 0,
9618                             ("PDRMASK bit set, va %#lx pde %#lx pd %#lx", va,
9619                             (u_long)pde, pd));
9620                         KASSERT(va + NBPDR <= sva + len,
9621                             ("unmap covers partial 2MB page, sva %#lx va %#lx "
9622                             "pde %#lx pd %#lx len %#lx", sva, va, (u_long)pde,
9623                             pd, len));
9624                         pde_store(pde, 0);
9625                         inc = NBPDR;
9626                         m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((vm_offset_t)pde));
9627                         m->ref_count--;
9628                         if (m->ref_count == 0) {
9629                                 *pdpe = 0;
9630                                 SLIST_INSERT_HEAD(&spgf, m, plinks.s.ss);
9631                         }
9632                         continue;
9633                 }
9634                 pte = pmap_pde_to_pte(pde, va);
9635                 KASSERT((*pte & X86_PG_V) != 0,
9636                     ("invalid pte va %#lx pte %#lx pt %#lx", va,
9637                     (u_long)pte, *pte));
9638                 pte_clear(pte);
9639                 inc = PAGE_SIZE;
9640                 m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((vm_offset_t)pte));
9641                 m->ref_count--;
9642                 if (m->ref_count == 0) {
9643                         *pde = 0;
9644                         SLIST_INSERT_HEAD(&spgf, m, plinks.s.ss);
9645                         m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((vm_offset_t)pde));
9646                         m->ref_count--;
9647                         if (m->ref_count == 0) {
9648                                 *pdpe = 0;
9649                                 SLIST_INSERT_HEAD(&spgf, m, plinks.s.ss);
9650                         }
9651                 }
9652         }
9653         pmap_invalidate_range(kernel_pmap, sva, sva + len);
9654         PMAP_UNLOCK(kernel_pmap);
9655         vm_page_free_pages_toq(&spgf, false);
9656         vmem_free(large_vmem, sva, len);
9657 }
9658
9659 static void
9660 pmap_large_map_wb_fence_mfence(void)
9661 {
9662
9663         mfence();
9664 }
9665
9666 static void
9667 pmap_large_map_wb_fence_atomic(void)
9668 {
9669
9670         atomic_thread_fence_seq_cst();
9671 }
9672
9673 static void
9674 pmap_large_map_wb_fence_nop(void)
9675 {
9676 }
9677
9678 DEFINE_IFUNC(static, void, pmap_large_map_wb_fence, (void))
9679 {
9680
9681         if (cpu_vendor_id != CPU_VENDOR_INTEL)
9682                 return (pmap_large_map_wb_fence_mfence);
9683         else if ((cpu_stdext_feature & (CPUID_STDEXT_CLWB |
9684             CPUID_STDEXT_CLFLUSHOPT)) == 0)
9685                 return (pmap_large_map_wb_fence_atomic);
9686         else
9687                 /* clflush is strongly enough ordered */
9688                 return (pmap_large_map_wb_fence_nop);
9689 }
9690
9691 static void
9692 pmap_large_map_flush_range_clwb(vm_offset_t va, vm_size_t len)
9693 {
9694
9695         for (; len > 0; len -= cpu_clflush_line_size,
9696             va += cpu_clflush_line_size)
9697                 clwb(va);
9698 }
9699
9700 static void
9701 pmap_large_map_flush_range_clflushopt(vm_offset_t va, vm_size_t len)
9702 {
9703
9704         for (; len > 0; len -= cpu_clflush_line_size,
9705             va += cpu_clflush_line_size)
9706                 clflushopt(va);
9707 }
9708
9709 static void
9710 pmap_large_map_flush_range_clflush(vm_offset_t va, vm_size_t len)
9711 {
9712
9713         for (; len > 0; len -= cpu_clflush_line_size,
9714             va += cpu_clflush_line_size)
9715                 clflush(va);
9716 }
9717
9718 static void
9719 pmap_large_map_flush_range_nop(vm_offset_t sva __unused, vm_size_t len __unused)
9720 {
9721 }
9722
9723 DEFINE_IFUNC(static, void, pmap_large_map_flush_range, (vm_offset_t, vm_size_t))
9724 {
9725
9726         if ((cpu_stdext_feature & CPUID_STDEXT_CLWB) != 0)
9727                 return (pmap_large_map_flush_range_clwb);
9728         else if ((cpu_stdext_feature & CPUID_STDEXT_CLFLUSHOPT) != 0)
9729                 return (pmap_large_map_flush_range_clflushopt);
9730         else if ((cpu_feature & CPUID_CLFSH) != 0)
9731                 return (pmap_large_map_flush_range_clflush);
9732         else
9733                 return (pmap_large_map_flush_range_nop);
9734 }
9735
9736 static void
9737 pmap_large_map_wb_large(vm_offset_t sva, vm_offset_t eva)
9738 {
9739         volatile u_long *pe;
9740         u_long p;
9741         vm_offset_t va;
9742         vm_size_t inc;
9743         bool seen_other;
9744
9745         for (va = sva; va < eva; va += inc) {
9746                 inc = 0;
9747                 if ((amd_feature & AMDID_PAGE1GB) != 0) {
9748                         pe = (volatile u_long *)pmap_large_map_pdpe(va);
9749                         p = *pe;
9750                         if ((p & X86_PG_PS) != 0)
9751                                 inc = NBPDP;
9752                 }
9753                 if (inc == 0) {
9754                         pe = (volatile u_long *)pmap_large_map_pde(va);
9755                         p = *pe;
9756                         if ((p & X86_PG_PS) != 0)
9757                                 inc = NBPDR;
9758                 }
9759                 if (inc == 0) {
9760                         pe = (volatile u_long *)pmap_large_map_pte(va);
9761                         p = *pe;
9762                         inc = PAGE_SIZE;
9763                 }
9764                 seen_other = false;
9765                 for (;;) {
9766                         if ((p & X86_PG_AVAIL1) != 0) {
9767                                 /*
9768                                  * Spin-wait for the end of a parallel
9769                                  * write-back.
9770                                  */
9771                                 cpu_spinwait();
9772                                 p = *pe;
9773
9774                                 /*
9775                                  * If we saw other write-back
9776                                  * occuring, we cannot rely on PG_M to
9777                                  * indicate state of the cache.  The
9778                                  * PG_M bit is cleared before the
9779                                  * flush to avoid ignoring new writes,
9780                                  * and writes which are relevant for
9781                                  * us might happen after.
9782                                  */
9783                                 seen_other = true;
9784                                 continue;
9785                         }
9786
9787                         if ((p & X86_PG_M) != 0 || seen_other) {
9788                                 if (!atomic_fcmpset_long(pe, &p,
9789                                     (p & ~X86_PG_M) | X86_PG_AVAIL1))
9790                                         /*
9791                                          * If we saw PG_M without
9792                                          * PG_AVAIL1, and then on the
9793                                          * next attempt we do not
9794                                          * observe either PG_M or
9795                                          * PG_AVAIL1, the other
9796                                          * write-back started after us
9797                                          * and finished before us.  We
9798                                          * can rely on it doing our
9799                                          * work.
9800                                          */
9801                                         continue;
9802                                 pmap_large_map_flush_range(va, inc);
9803                                 atomic_clear_long(pe, X86_PG_AVAIL1);
9804                         }
9805                         break;
9806                 }
9807                 maybe_yield();
9808         }
9809 }
9810
9811 /*
9812  * Write-back cache lines for the given address range.
9813  *
9814  * Must be called only on the range or sub-range returned from
9815  * pmap_large_map().  Must not be called on the coalesced ranges.
9816  *
9817  * Does nothing on CPUs without CLWB, CLFLUSHOPT, or CLFLUSH
9818  * instructions support.
9819  */
9820 void
9821 pmap_large_map_wb(void *svap, vm_size_t len)
9822 {
9823         vm_offset_t eva, sva;
9824
9825         sva = (vm_offset_t)svap;
9826         eva = sva + len;
9827         pmap_large_map_wb_fence();
9828         if (sva >= DMAP_MIN_ADDRESS && eva <= DMAP_MIN_ADDRESS + dmaplimit) {
9829                 pmap_large_map_flush_range(sva, len);
9830         } else {
9831                 KASSERT(sva >= LARGEMAP_MIN_ADDRESS &&
9832                     eva <= LARGEMAP_MIN_ADDRESS + lm_ents * NBPML4,
9833                     ("pmap_large_map_wb: not largemap %#lx %#lx", sva, len));
9834                 pmap_large_map_wb_large(sva, eva);
9835         }
9836         pmap_large_map_wb_fence();
9837 }
9838
9839 static vm_page_t
9840 pmap_pti_alloc_page(void)
9841 {
9842         vm_page_t m;
9843
9844         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
9845         m = vm_page_grab(pti_obj, pti_pg_idx++, VM_ALLOC_NOBUSY |
9846             VM_ALLOC_WIRED | VM_ALLOC_ZERO);
9847         return (m);
9848 }
9849
9850 static bool
9851 pmap_pti_free_page(vm_page_t m)
9852 {
9853
9854         KASSERT(m->ref_count > 0, ("page %p not referenced", m));
9855         if (!vm_page_unwire_noq(m))
9856                 return (false);
9857         vm_page_free_zero(m);
9858         return (true);
9859 }
9860
9861 static void
9862 pmap_pti_init(void)
9863 {
9864         vm_page_t pml4_pg;
9865         pdp_entry_t *pdpe;
9866         vm_offset_t va;
9867         int i;
9868
9869         if (!pti)
9870                 return;
9871         pti_obj = vm_pager_allocate(OBJT_PHYS, NULL, 0, VM_PROT_ALL, 0, NULL);
9872         VM_OBJECT_WLOCK(pti_obj);
9873         pml4_pg = pmap_pti_alloc_page();
9874         pti_pml4 = (pml4_entry_t *)PHYS_TO_DMAP(VM_PAGE_TO_PHYS(pml4_pg));
9875         for (va = VM_MIN_KERNEL_ADDRESS; va <= VM_MAX_KERNEL_ADDRESS &&
9876             va >= VM_MIN_KERNEL_ADDRESS && va > NBPML4; va += NBPML4) {
9877                 pdpe = pmap_pti_pdpe(va);
9878                 pmap_pti_wire_pte(pdpe);
9879         }
9880         pmap_pti_add_kva_locked((vm_offset_t)&__pcpu[0],
9881             (vm_offset_t)&__pcpu[0] + sizeof(__pcpu[0]) * MAXCPU, false);
9882         pmap_pti_add_kva_locked((vm_offset_t)idt, (vm_offset_t)idt +
9883             sizeof(struct gate_descriptor) * NIDT, false);
9884         CPU_FOREACH(i) {
9885                 /* Doublefault stack IST 1 */
9886                 va = __pcpu[i].pc_common_tss.tss_ist1;
9887                 pmap_pti_add_kva_locked(va - PAGE_SIZE, va, false);
9888                 /* NMI stack IST 2 */
9889                 va = __pcpu[i].pc_common_tss.tss_ist2 + sizeof(struct nmi_pcpu);
9890                 pmap_pti_add_kva_locked(va - PAGE_SIZE, va, false);
9891                 /* MC# stack IST 3 */
9892                 va = __pcpu[i].pc_common_tss.tss_ist3 +
9893                     sizeof(struct nmi_pcpu);
9894                 pmap_pti_add_kva_locked(va - PAGE_SIZE, va, false);
9895                 /* DB# stack IST 4 */
9896                 va = __pcpu[i].pc_common_tss.tss_ist4 + sizeof(struct nmi_pcpu);
9897                 pmap_pti_add_kva_locked(va - PAGE_SIZE, va, false);
9898         }
9899         pmap_pti_add_kva_locked((vm_offset_t)kernphys + KERNBASE,
9900             (vm_offset_t)etext, true);
9901         pti_finalized = true;
9902         VM_OBJECT_WUNLOCK(pti_obj);
9903 }
9904 SYSINIT(pmap_pti, SI_SUB_CPU + 1, SI_ORDER_ANY, pmap_pti_init, NULL);
9905
9906 static pdp_entry_t *
9907 pmap_pti_pdpe(vm_offset_t va)
9908 {
9909         pml4_entry_t *pml4e;
9910         pdp_entry_t *pdpe;
9911         vm_page_t m;
9912         vm_pindex_t pml4_idx;
9913         vm_paddr_t mphys;
9914
9915         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
9916
9917         pml4_idx = pmap_pml4e_index(va);
9918         pml4e = &pti_pml4[pml4_idx];
9919         m = NULL;
9920         if (*pml4e == 0) {
9921                 if (pti_finalized)
9922                         panic("pml4 alloc after finalization\n");
9923                 m = pmap_pti_alloc_page();
9924                 if (*pml4e != 0) {
9925                         pmap_pti_free_page(m);
9926                         mphys = *pml4e & ~PAGE_MASK;
9927                 } else {
9928                         mphys = VM_PAGE_TO_PHYS(m);
9929                         *pml4e = mphys | X86_PG_RW | X86_PG_V;
9930                 }
9931         } else {
9932                 mphys = *pml4e & ~PAGE_MASK;
9933         }
9934         pdpe = (pdp_entry_t *)PHYS_TO_DMAP(mphys) + pmap_pdpe_index(va);
9935         return (pdpe);
9936 }
9937
9938 static void
9939 pmap_pti_wire_pte(void *pte)
9940 {
9941         vm_page_t m;
9942
9943         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
9944         m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((uintptr_t)pte));
9945         m->ref_count++;
9946 }
9947
9948 static void
9949 pmap_pti_unwire_pde(void *pde, bool only_ref)
9950 {
9951         vm_page_t m;
9952
9953         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
9954         m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((uintptr_t)pde));
9955         MPASS(m->ref_count > 0);
9956         MPASS(only_ref || m->ref_count > 1);
9957         pmap_pti_free_page(m);
9958 }
9959
9960 static void
9961 pmap_pti_unwire_pte(void *pte, vm_offset_t va)
9962 {
9963         vm_page_t m;
9964         pd_entry_t *pde;
9965
9966         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
9967         m = PHYS_TO_VM_PAGE(DMAP_TO_PHYS((uintptr_t)pte));
9968         MPASS(m->ref_count > 0);
9969         if (pmap_pti_free_page(m)) {
9970                 pde = pmap_pti_pde(va);
9971                 MPASS((*pde & (X86_PG_PS | X86_PG_V)) == X86_PG_V);
9972                 *pde = 0;
9973                 pmap_pti_unwire_pde(pde, false);
9974         }
9975 }
9976
9977 static pd_entry_t *
9978 pmap_pti_pde(vm_offset_t va)
9979 {
9980         pdp_entry_t *pdpe;
9981         pd_entry_t *pde;
9982         vm_page_t m;
9983         vm_pindex_t pd_idx;
9984         vm_paddr_t mphys;
9985
9986         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
9987
9988         pdpe = pmap_pti_pdpe(va);
9989         if (*pdpe == 0) {
9990                 m = pmap_pti_alloc_page();
9991                 if (*pdpe != 0) {
9992                         pmap_pti_free_page(m);
9993                         MPASS((*pdpe & X86_PG_PS) == 0);
9994                         mphys = *pdpe & ~PAGE_MASK;
9995                 } else {
9996                         mphys =  VM_PAGE_TO_PHYS(m);
9997                         *pdpe = mphys | X86_PG_RW | X86_PG_V;
9998                 }
9999         } else {
10000                 MPASS((*pdpe & X86_PG_PS) == 0);
10001                 mphys = *pdpe & ~PAGE_MASK;
10002         }
10003
10004         pde = (pd_entry_t *)PHYS_TO_DMAP(mphys);
10005         pd_idx = pmap_pde_index(va);
10006         pde += pd_idx;
10007         return (pde);
10008 }
10009
10010 static pt_entry_t *
10011 pmap_pti_pte(vm_offset_t va, bool *unwire_pde)
10012 {
10013         pd_entry_t *pde;
10014         pt_entry_t *pte;
10015         vm_page_t m;
10016         vm_paddr_t mphys;
10017
10018         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
10019
10020         pde = pmap_pti_pde(va);
10021         if (unwire_pde != NULL) {
10022                 *unwire_pde = true;
10023                 pmap_pti_wire_pte(pde);
10024         }
10025         if (*pde == 0) {
10026                 m = pmap_pti_alloc_page();
10027                 if (*pde != 0) {
10028                         pmap_pti_free_page(m);
10029                         MPASS((*pde & X86_PG_PS) == 0);
10030                         mphys = *pde & ~(PAGE_MASK | pg_nx);
10031                 } else {
10032                         mphys = VM_PAGE_TO_PHYS(m);
10033                         *pde = mphys | X86_PG_RW | X86_PG_V;
10034                         if (unwire_pde != NULL)
10035                                 *unwire_pde = false;
10036                 }
10037         } else {
10038                 MPASS((*pde & X86_PG_PS) == 0);
10039                 mphys = *pde & ~(PAGE_MASK | pg_nx);
10040         }
10041
10042         pte = (pt_entry_t *)PHYS_TO_DMAP(mphys);
10043         pte += pmap_pte_index(va);
10044
10045         return (pte);
10046 }
10047
10048 static void
10049 pmap_pti_add_kva_locked(vm_offset_t sva, vm_offset_t eva, bool exec)
10050 {
10051         vm_paddr_t pa;
10052         pd_entry_t *pde;
10053         pt_entry_t *pte, ptev;
10054         bool unwire_pde;
10055
10056         VM_OBJECT_ASSERT_WLOCKED(pti_obj);
10057
10058         sva = trunc_page(sva);
10059         MPASS(sva > VM_MAXUSER_ADDRESS);
10060         eva = round_page(eva);
10061         MPASS(sva < eva);
10062         for (; sva < eva; sva += PAGE_SIZE) {
10063                 pte = pmap_pti_pte(sva, &unwire_pde);
10064                 pa = pmap_kextract(sva);
10065                 ptev = pa | X86_PG_RW | X86_PG_V | X86_PG_A | X86_PG_G |
10066                     (exec ? 0 : pg_nx) | pmap_cache_bits(kernel_pmap,
10067                     VM_MEMATTR_DEFAULT, FALSE);
10068                 if (*pte == 0) {
10069                         pte_store(pte, ptev);
10070                         pmap_pti_wire_pte(pte);
10071                 } else {
10072                         KASSERT(!pti_finalized,
10073                             ("pti overlap after fin %#lx %#lx %#lx",
10074                             sva, *pte, ptev));
10075                         KASSERT(*pte == ptev,
10076                             ("pti non-identical pte after fin %#lx %#lx %#lx",
10077                             sva, *pte, ptev));
10078                 }
10079                 if (unwire_pde) {
10080                         pde = pmap_pti_pde(sva);
10081                         pmap_pti_unwire_pde(pde, true);
10082                 }
10083         }
10084 }
10085
10086 void
10087 pmap_pti_add_kva(vm_offset_t sva, vm_offset_t eva, bool exec)
10088 {
10089
10090         if (!pti)
10091                 return;
10092         VM_OBJECT_WLOCK(pti_obj);
10093         pmap_pti_add_kva_locked(sva, eva, exec);
10094         VM_OBJECT_WUNLOCK(pti_obj);
10095 }
10096
10097 void
10098 pmap_pti_remove_kva(vm_offset_t sva, vm_offset_t eva)
10099 {
10100         pt_entry_t *pte;
10101         vm_offset_t va;
10102
10103         if (!pti)
10104                 return;
10105         sva = rounddown2(sva, PAGE_SIZE);
10106         MPASS(sva > VM_MAXUSER_ADDRESS);
10107         eva = roundup2(eva, PAGE_SIZE);
10108         MPASS(sva < eva);
10109         VM_OBJECT_WLOCK(pti_obj);
10110         for (va = sva; va < eva; va += PAGE_SIZE) {
10111                 pte = pmap_pti_pte(va, NULL);
10112                 KASSERT((*pte & X86_PG_V) != 0,
10113                     ("invalid pte va %#lx pte %#lx pt %#lx", va,
10114                     (u_long)pte, *pte));
10115                 pte_clear(pte);
10116                 pmap_pti_unwire_pte(pte, va);
10117         }
10118         pmap_invalidate_range(kernel_pmap, sva, eva);
10119         VM_OBJECT_WUNLOCK(pti_obj);
10120 }
10121
10122 static void *
10123 pkru_dup_range(void *ctx __unused, void *data)
10124 {
10125         struct pmap_pkru_range *node, *new_node;
10126
10127         new_node = uma_zalloc(pmap_pkru_ranges_zone, M_NOWAIT);
10128         if (new_node == NULL)
10129                 return (NULL);
10130         node = data;
10131         memcpy(new_node, node, sizeof(*node));
10132         return (new_node);
10133 }
10134
10135 static void
10136 pkru_free_range(void *ctx __unused, void *node)
10137 {
10138
10139         uma_zfree(pmap_pkru_ranges_zone, node);
10140 }
10141
10142 static int
10143 pmap_pkru_assign(pmap_t pmap, vm_offset_t sva, vm_offset_t eva, u_int keyidx,
10144     int flags)
10145 {
10146         struct pmap_pkru_range *ppr;
10147         int error;
10148
10149         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
10150         MPASS(pmap->pm_type == PT_X86);
10151         MPASS((cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0);
10152         if ((flags & AMD64_PKRU_EXCL) != 0 &&
10153             !rangeset_check_empty(&pmap->pm_pkru, sva, eva))
10154                 return (EBUSY);
10155         ppr = uma_zalloc(pmap_pkru_ranges_zone, M_NOWAIT);
10156         if (ppr == NULL)
10157                 return (ENOMEM);
10158         ppr->pkru_keyidx = keyidx;
10159         ppr->pkru_flags = flags & AMD64_PKRU_PERSIST;
10160         error = rangeset_insert(&pmap->pm_pkru, sva, eva, ppr);
10161         if (error != 0)
10162                 uma_zfree(pmap_pkru_ranges_zone, ppr);
10163         return (error);
10164 }
10165
10166 static int
10167 pmap_pkru_deassign(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
10168 {
10169
10170         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
10171         MPASS(pmap->pm_type == PT_X86);
10172         MPASS((cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0);
10173         return (rangeset_remove(&pmap->pm_pkru, sva, eva));
10174 }
10175
10176 static void
10177 pmap_pkru_deassign_all(pmap_t pmap)
10178 {
10179
10180         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
10181         if (pmap->pm_type == PT_X86 &&
10182             (cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0)
10183                 rangeset_remove_all(&pmap->pm_pkru);
10184 }
10185
10186 static bool
10187 pmap_pkru_same(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
10188 {
10189         struct pmap_pkru_range *ppr, *prev_ppr;
10190         vm_offset_t va;
10191
10192         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
10193         if (pmap->pm_type != PT_X86 ||
10194             (cpu_stdext_feature2 & CPUID_STDEXT2_PKU) == 0 ||
10195             sva >= VM_MAXUSER_ADDRESS)
10196                 return (true);
10197         MPASS(eva <= VM_MAXUSER_ADDRESS);
10198         for (va = sva, prev_ppr = NULL; va < eva;) {
10199                 ppr = rangeset_lookup(&pmap->pm_pkru, va);
10200                 if ((ppr == NULL) ^ (prev_ppr == NULL))
10201                         return (false);
10202                 if (ppr == NULL) {
10203                         va += PAGE_SIZE;
10204                         continue;
10205                 }
10206                 if (prev_ppr->pkru_keyidx != ppr->pkru_keyidx)
10207                         return (false);
10208                 va = ppr->pkru_rs_el.re_end;
10209         }
10210         return (true);
10211 }
10212
10213 static pt_entry_t
10214 pmap_pkru_get(pmap_t pmap, vm_offset_t va)
10215 {
10216         struct pmap_pkru_range *ppr;
10217
10218         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
10219         if (pmap->pm_type != PT_X86 ||
10220             (cpu_stdext_feature2 & CPUID_STDEXT2_PKU) == 0 ||
10221             va >= VM_MAXUSER_ADDRESS)
10222                 return (0);
10223         ppr = rangeset_lookup(&pmap->pm_pkru, va);
10224         if (ppr != NULL)
10225                 return (X86_PG_PKU(ppr->pkru_keyidx));
10226         return (0);
10227 }
10228
10229 static bool
10230 pred_pkru_on_remove(void *ctx __unused, void *r)
10231 {
10232         struct pmap_pkru_range *ppr;
10233
10234         ppr = r;
10235         return ((ppr->pkru_flags & AMD64_PKRU_PERSIST) == 0);
10236 }
10237
10238 static void
10239 pmap_pkru_on_remove(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
10240 {
10241
10242         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
10243         if (pmap->pm_type == PT_X86 &&
10244             (cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0) {
10245                 rangeset_remove_pred(&pmap->pm_pkru, sva, eva,
10246                     pred_pkru_on_remove);
10247         }
10248 }
10249
10250 static int
10251 pmap_pkru_copy(pmap_t dst_pmap, pmap_t src_pmap)
10252 {
10253
10254         PMAP_LOCK_ASSERT(dst_pmap, MA_OWNED);
10255         PMAP_LOCK_ASSERT(src_pmap, MA_OWNED);
10256         MPASS(dst_pmap->pm_type == PT_X86);
10257         MPASS(src_pmap->pm_type == PT_X86);
10258         MPASS((cpu_stdext_feature2 & CPUID_STDEXT2_PKU) != 0);
10259         if (src_pmap->pm_pkru.rs_data_ctx == NULL)
10260                 return (0);
10261         return (rangeset_copy(&dst_pmap->pm_pkru, &src_pmap->pm_pkru));
10262 }
10263
10264 static void
10265 pmap_pkru_update_range(pmap_t pmap, vm_offset_t sva, vm_offset_t eva,
10266     u_int keyidx)
10267 {
10268         pml4_entry_t *pml4e;
10269         pdp_entry_t *pdpe;
10270         pd_entry_t newpde, ptpaddr, *pde;
10271         pt_entry_t newpte, *ptep, pte;
10272         vm_offset_t va, va_next;
10273         bool changed;
10274
10275         PMAP_LOCK_ASSERT(pmap, MA_OWNED);
10276         MPASS(pmap->pm_type == PT_X86);
10277         MPASS(keyidx <= PMAP_MAX_PKRU_IDX);
10278
10279         for (changed = false, va = sva; va < eva; va = va_next) {
10280                 pml4e = pmap_pml4e(pmap, va);
10281                 if ((*pml4e & X86_PG_V) == 0) {
10282                         va_next = (va + NBPML4) & ~PML4MASK;
10283                         if (va_next < va)
10284                                 va_next = eva;
10285                         continue;
10286                 }
10287
10288                 pdpe = pmap_pml4e_to_pdpe(pml4e, va);
10289                 if ((*pdpe & X86_PG_V) == 0) {
10290                         va_next = (va + NBPDP) & ~PDPMASK;
10291                         if (va_next < va)
10292                                 va_next = eva;
10293                         continue;
10294                 }
10295
10296                 va_next = (va + NBPDR) & ~PDRMASK;
10297                 if (va_next < va)
10298                         va_next = eva;
10299
10300                 pde = pmap_pdpe_to_pde(pdpe, va);
10301                 ptpaddr = *pde;
10302                 if (ptpaddr == 0)
10303                         continue;
10304
10305                 MPASS((ptpaddr & X86_PG_V) != 0);
10306                 if ((ptpaddr & PG_PS) != 0) {
10307                         if (va + NBPDR == va_next && eva >= va_next) {
10308                                 newpde = (ptpaddr & ~X86_PG_PKU_MASK) |
10309                                     X86_PG_PKU(keyidx);
10310                                 if (newpde != ptpaddr) {
10311                                         *pde = newpde;
10312                                         changed = true;
10313                                 }
10314                                 continue;
10315                         } else if (!pmap_demote_pde(pmap, pde, va)) {
10316                                 continue;
10317                         }
10318                 }
10319
10320                 if (va_next > eva)
10321                         va_next = eva;
10322
10323                 for (ptep = pmap_pde_to_pte(pde, va); va != va_next;
10324                     ptep++, va += PAGE_SIZE) {
10325                         pte = *ptep;
10326                         if ((pte & X86_PG_V) == 0)
10327                                 continue;
10328                         newpte = (pte & ~X86_PG_PKU_MASK) | X86_PG_PKU(keyidx);
10329                         if (newpte != pte) {
10330                                 *ptep = newpte;
10331                                 changed = true;
10332                         }
10333                 }
10334         }
10335         if (changed)
10336                 pmap_invalidate_range(pmap, sva, eva);
10337 }
10338
10339 static int
10340 pmap_pkru_check_uargs(pmap_t pmap, vm_offset_t sva, vm_offset_t eva,
10341     u_int keyidx, int flags)
10342 {
10343
10344         if (pmap->pm_type != PT_X86 || keyidx > PMAP_MAX_PKRU_IDX ||
10345             (flags & ~(AMD64_PKRU_PERSIST | AMD64_PKRU_EXCL)) != 0)
10346                 return (EINVAL);
10347         if (eva <= sva || eva > VM_MAXUSER_ADDRESS)
10348                 return (EFAULT);
10349         if ((cpu_stdext_feature2 & CPUID_STDEXT2_PKU) == 0)
10350                 return (ENOTSUP);
10351         return (0);
10352 }
10353
10354 int
10355 pmap_pkru_set(pmap_t pmap, vm_offset_t sva, vm_offset_t eva, u_int keyidx,
10356     int flags)
10357 {
10358         int error;
10359
10360         sva = trunc_page(sva);
10361         eva = round_page(eva);
10362         error = pmap_pkru_check_uargs(pmap, sva, eva, keyidx, flags);
10363         if (error != 0)
10364                 return (error);
10365         for (;;) {
10366                 PMAP_LOCK(pmap);
10367                 error = pmap_pkru_assign(pmap, sva, eva, keyidx, flags);
10368                 if (error == 0)
10369                         pmap_pkru_update_range(pmap, sva, eva, keyidx);
10370                 PMAP_UNLOCK(pmap);
10371                 if (error != ENOMEM)
10372                         break;
10373                 vm_wait(NULL);
10374         }
10375         return (error);
10376 }
10377
10378 int
10379 pmap_pkru_clear(pmap_t pmap, vm_offset_t sva, vm_offset_t eva)
10380 {
10381         int error;
10382
10383         sva = trunc_page(sva);
10384         eva = round_page(eva);
10385         error = pmap_pkru_check_uargs(pmap, sva, eva, 0, 0);
10386         if (error != 0)
10387                 return (error);
10388         for (;;) {
10389                 PMAP_LOCK(pmap);
10390                 error = pmap_pkru_deassign(pmap, sva, eva);
10391                 if (error == 0)
10392                         pmap_pkru_update_range(pmap, sva, eva, 0);
10393                 PMAP_UNLOCK(pmap);
10394                 if (error != ENOMEM)
10395                         break;
10396                 vm_wait(NULL);
10397         }
10398         return (error);
10399 }
10400
10401 /*
10402  * Track a range of the kernel's virtual address space that is contiguous
10403  * in various mapping attributes.
10404  */
10405 struct pmap_kernel_map_range {
10406         vm_offset_t sva;
10407         pt_entry_t attrs;
10408         int ptes;
10409         int pdes;
10410         int pdpes;
10411 };
10412
10413 static void
10414 sysctl_kmaps_dump(struct sbuf *sb, struct pmap_kernel_map_range *range,
10415     vm_offset_t eva)
10416 {
10417         const char *mode;
10418         int i, pat_idx;
10419
10420         if (eva <= range->sva)
10421                 return;
10422
10423         pat_idx = pmap_pat_index(kernel_pmap, range->attrs, true);
10424         for (i = 0; i < PAT_INDEX_SIZE; i++)
10425                 if (pat_index[i] == pat_idx)
10426                         break;
10427
10428         switch (i) {
10429         case PAT_WRITE_BACK:
10430                 mode = "WB";
10431                 break;
10432         case PAT_WRITE_THROUGH:
10433                 mode = "WT";
10434                 break;
10435         case PAT_UNCACHEABLE:
10436                 mode = "UC";
10437                 break;
10438         case PAT_UNCACHED:
10439                 mode = "U-";
10440                 break;
10441         case PAT_WRITE_PROTECTED:
10442                 mode = "WP";
10443                 break;
10444         case PAT_WRITE_COMBINING:
10445                 mode = "WC";
10446                 break;
10447         default:
10448                 printf("%s: unknown PAT mode %#x for range 0x%016lx-0x%016lx\n",
10449                     __func__, pat_idx, range->sva, eva);
10450                 mode = "??";
10451                 break;
10452         }
10453
10454         sbuf_printf(sb, "0x%016lx-0x%016lx r%c%c%c%c %s %d %d %d\n",
10455             range->sva, eva,
10456             (range->attrs & X86_PG_RW) != 0 ? 'w' : '-',
10457             (range->attrs & pg_nx) != 0 ? '-' : 'x',
10458             (range->attrs & X86_PG_U) != 0 ? 'u' : 's',
10459             (range->attrs & X86_PG_G) != 0 ? 'g' : '-',
10460             mode, range->pdpes, range->pdes, range->ptes);
10461
10462         /* Reset to sentinel value. */
10463         range->sva = KVADDR(NPML4EPG - 1, NPDPEPG - 1, NPDEPG - 1, NPTEPG - 1);
10464 }
10465
10466 /*
10467  * Determine whether the attributes specified by a page table entry match those
10468  * being tracked by the current range.  This is not quite as simple as a direct
10469  * flag comparison since some PAT modes have multiple representations.
10470  */
10471 static bool
10472 sysctl_kmaps_match(struct pmap_kernel_map_range *range, pt_entry_t attrs)
10473 {
10474         pt_entry_t diff, mask;
10475
10476         mask = X86_PG_G | X86_PG_RW | X86_PG_U | X86_PG_PDE_CACHE | pg_nx;
10477         diff = (range->attrs ^ attrs) & mask;
10478         if (diff == 0)
10479                 return (true);
10480         if ((diff & ~X86_PG_PDE_PAT) == 0 &&
10481             pmap_pat_index(kernel_pmap, range->attrs, true) ==
10482             pmap_pat_index(kernel_pmap, attrs, true))
10483                 return (true);
10484         return (false);
10485 }
10486
10487 static void
10488 sysctl_kmaps_reinit(struct pmap_kernel_map_range *range, vm_offset_t va,
10489     pt_entry_t attrs)
10490 {
10491
10492         memset(range, 0, sizeof(*range));
10493         range->sva = va;
10494         range->attrs = attrs;
10495 }
10496
10497 /*
10498  * Given a leaf PTE, derive the mapping's attributes.  If they do not match
10499  * those of the current run, dump the address range and its attributes, and
10500  * begin a new run.
10501  */
10502 static void
10503 sysctl_kmaps_check(struct sbuf *sb, struct pmap_kernel_map_range *range,
10504     vm_offset_t va, pml4_entry_t pml4e, pdp_entry_t pdpe, pd_entry_t pde,
10505     pt_entry_t pte)
10506 {
10507         pt_entry_t attrs;
10508
10509         attrs = pml4e & (X86_PG_RW | X86_PG_U | pg_nx);
10510
10511         attrs |= pdpe & pg_nx;
10512         attrs &= pg_nx | (pdpe & (X86_PG_RW | X86_PG_U));
10513         if ((pdpe & PG_PS) != 0) {
10514                 attrs |= pdpe & (X86_PG_G | X86_PG_PDE_CACHE);
10515         } else if (pde != 0) {
10516                 attrs |= pde & pg_nx;
10517                 attrs &= pg_nx | (pde & (X86_PG_RW | X86_PG_U));
10518         }
10519         if ((pde & PG_PS) != 0) {
10520                 attrs |= pde & (X86_PG_G | X86_PG_PDE_CACHE);
10521         } else if (pte != 0) {
10522                 attrs |= pte & pg_nx;
10523                 attrs &= pg_nx | (pte & (X86_PG_RW | X86_PG_U));
10524                 attrs |= pte & (X86_PG_G | X86_PG_PTE_CACHE);
10525
10526                 /* Canonicalize by always using the PDE PAT bit. */
10527                 if ((attrs & X86_PG_PTE_PAT) != 0)
10528                         attrs ^= X86_PG_PDE_PAT | X86_PG_PTE_PAT;
10529         }
10530
10531         if (range->sva > va || !sysctl_kmaps_match(range, attrs)) {
10532                 sysctl_kmaps_dump(sb, range, va);
10533                 sysctl_kmaps_reinit(range, va, attrs);
10534         }
10535 }
10536
10537 static int
10538 sysctl_kmaps(SYSCTL_HANDLER_ARGS)
10539 {
10540         struct pmap_kernel_map_range range;
10541         struct sbuf sbuf, *sb;
10542         pml4_entry_t pml4e;
10543         pdp_entry_t *pdp, pdpe;
10544         pd_entry_t *pd, pde;
10545         pt_entry_t *pt, pte;
10546         vm_offset_t sva;
10547         vm_paddr_t pa;
10548         int error, i, j, k, l;
10549
10550         error = sysctl_wire_old_buffer(req, 0);
10551         if (error != 0)
10552                 return (error);
10553         sb = &sbuf;
10554         sbuf_new_for_sysctl(sb, NULL, PAGE_SIZE, req);
10555
10556         /* Sentinel value. */
10557         range.sva = KVADDR(NPML4EPG - 1, NPDPEPG - 1, NPDEPG - 1, NPTEPG - 1);
10558
10559         /*
10560          * Iterate over the kernel page tables without holding the kernel pmap
10561          * lock.  Outside of the large map, kernel page table pages are never
10562          * freed, so at worst we will observe inconsistencies in the output.
10563          * Within the large map, ensure that PDP and PD page addresses are
10564          * valid before descending.
10565          */
10566         for (sva = 0, i = pmap_pml4e_index(sva); i < NPML4EPG; i++) {
10567                 switch (i) {
10568                 case PML4PML4I:
10569                         sbuf_printf(sb, "\nRecursive map:\n");
10570                         break;
10571                 case DMPML4I:
10572                         sbuf_printf(sb, "\nDirect map:\n");
10573                         break;
10574                 case KPML4BASE:
10575                         sbuf_printf(sb, "\nKernel map:\n");
10576                         break;
10577                 case LMSPML4I:
10578                         sbuf_printf(sb, "\nLarge map:\n");
10579                         break;
10580                 }
10581
10582                 /* Convert to canonical form. */
10583                 if (sva == 1ul << 47)
10584                         sva |= -1ul << 48;
10585
10586 restart:
10587                 pml4e = kernel_pmap->pm_pml4[i];
10588                 if ((pml4e & X86_PG_V) == 0) {
10589                         sva = rounddown2(sva, NBPML4);
10590                         sysctl_kmaps_dump(sb, &range, sva);
10591                         sva += NBPML4;
10592                         continue;
10593                 }
10594                 pa = pml4e & PG_FRAME;
10595                 pdp = (pdp_entry_t *)PHYS_TO_DMAP(pa);
10596
10597                 for (j = pmap_pdpe_index(sva); j < NPDPEPG; j++) {
10598                         pdpe = pdp[j];
10599                         if ((pdpe & X86_PG_V) == 0) {
10600                                 sva = rounddown2(sva, NBPDP);
10601                                 sysctl_kmaps_dump(sb, &range, sva);
10602                                 sva += NBPDP;
10603                                 continue;
10604                         }
10605                         pa = pdpe & PG_FRAME;
10606                         if (PMAP_ADDRESS_IN_LARGEMAP(sva) &&
10607                             vm_phys_paddr_to_vm_page(pa) == NULL)
10608                                 goto restart;
10609                         if ((pdpe & PG_PS) != 0) {
10610                                 sva = rounddown2(sva, NBPDP);
10611                                 sysctl_kmaps_check(sb, &range, sva, pml4e, pdpe,
10612                                     0, 0);
10613                                 range.pdpes++;
10614                                 sva += NBPDP;
10615                                 continue;
10616                         }
10617                         pd = (pd_entry_t *)PHYS_TO_DMAP(pa);
10618
10619                         for (k = pmap_pde_index(sva); k < NPDEPG; k++) {
10620                                 pde = pd[k];
10621                                 if ((pde & X86_PG_V) == 0) {
10622                                         sva = rounddown2(sva, NBPDR);
10623                                         sysctl_kmaps_dump(sb, &range, sva);
10624                                         sva += NBPDR;
10625                                         continue;
10626                                 }
10627                                 pa = pde & PG_FRAME;
10628                                 if (PMAP_ADDRESS_IN_LARGEMAP(sva) &&
10629                                     vm_phys_paddr_to_vm_page(pa) == NULL)
10630                                         goto restart;
10631                                 if ((pde & PG_PS) != 0) {
10632                                         sva = rounddown2(sva, NBPDR);
10633                                         sysctl_kmaps_check(sb, &range, sva,
10634                                             pml4e, pdpe, pde, 0);
10635                                         range.pdes++;
10636                                         sva += NBPDR;
10637                                         continue;
10638                                 }
10639                                 pt = (pt_entry_t *)PHYS_TO_DMAP(pa);
10640
10641                                 for (l = pmap_pte_index(sva); l < NPTEPG; l++,
10642                                     sva += PAGE_SIZE) {
10643                                         pte = pt[l];
10644                                         if ((pte & X86_PG_V) == 0) {
10645                                                 sysctl_kmaps_dump(sb, &range,
10646                                                     sva);
10647                                                 continue;
10648                                         }
10649                                         sysctl_kmaps_check(sb, &range, sva,
10650                                             pml4e, pdpe, pde, pte);
10651                                         range.ptes++;
10652                                 }
10653                         }
10654                 }
10655         }
10656
10657         error = sbuf_finish(sb);
10658         sbuf_delete(sb);
10659         return (error);
10660 }
10661 SYSCTL_OID(_vm_pmap, OID_AUTO, kernel_maps,
10662     CTLTYPE_STRING | CTLFLAG_RD | CTLFLAG_MPSAFE,
10663     NULL, 0, sysctl_kmaps, "A",
10664     "Dump kernel address layout");
10665
10666 #ifdef DDB
10667 DB_SHOW_COMMAND(pte, pmap_print_pte)
10668 {
10669         pmap_t pmap;
10670         pml4_entry_t *pml4;
10671         pdp_entry_t *pdp;
10672         pd_entry_t *pde;
10673         pt_entry_t *pte, PG_V;
10674         vm_offset_t va;
10675
10676         if (!have_addr) {
10677                 db_printf("show pte addr\n");
10678                 return;
10679         }
10680         va = (vm_offset_t)addr;
10681
10682         if (kdb_thread != NULL)
10683                 pmap = vmspace_pmap(kdb_thread->td_proc->p_vmspace);
10684         else
10685                 pmap = PCPU_GET(curpmap);
10686
10687         PG_V = pmap_valid_bit(pmap);
10688         pml4 = pmap_pml4e(pmap, va);
10689         db_printf("VA 0x%016lx pml4e 0x%016lx", va, *pml4);
10690         if ((*pml4 & PG_V) == 0) {
10691                 db_printf("\n");
10692                 return;
10693         }
10694         pdp = pmap_pml4e_to_pdpe(pml4, va);
10695         db_printf(" pdpe 0x%016lx", *pdp);
10696         if ((*pdp & PG_V) == 0 || (*pdp & PG_PS) != 0) {
10697                 db_printf("\n");
10698                 return;
10699         }
10700         pde = pmap_pdpe_to_pde(pdp, va);
10701         db_printf(" pde 0x%016lx", *pde);
10702         if ((*pde & PG_V) == 0 || (*pde & PG_PS) != 0) {
10703                 db_printf("\n");
10704                 return;
10705         }
10706         pte = pmap_pde_to_pte(pde, va);
10707         db_printf(" pte 0x%016lx\n", *pte);
10708 }
10709
10710 DB_SHOW_COMMAND(phys2dmap, pmap_phys2dmap)
10711 {
10712         vm_paddr_t a;
10713
10714         if (have_addr) {
10715                 a = (vm_paddr_t)addr;
10716                 db_printf("0x%jx\n", (uintmax_t)PHYS_TO_DMAP(a));
10717         } else {
10718                 db_printf("show phys2dmap addr\n");
10719         }
10720 }
10721 #endif