]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/arm64/arm64/trap.c
Upgrade Unbound to 1.7.1.
[FreeBSD/FreeBSD.git] / sys / arm64 / arm64 / trap.c
1 /*-
2  * Copyright (c) 2014 Andrew Turner
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  *
14  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
15  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
16  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
17  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
18  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
19  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
20  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
21  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
22  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
23  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
24  * SUCH DAMAGE.
25  *
26  */
27
28 #include <sys/cdefs.h>
29 __FBSDID("$FreeBSD$");
30
31 #include <sys/param.h>
32 #include <sys/systm.h>
33 #include <sys/kernel.h>
34 #include <sys/lock.h>
35 #include <sys/mutex.h>
36 #include <sys/pioctl.h>
37 #include <sys/proc.h>
38 #include <sys/ptrace.h>
39 #include <sys/syscall.h>
40 #include <sys/sysent.h>
41 #ifdef KDB
42 #include <sys/kdb.h>
43 #endif
44
45 #include <vm/vm.h>
46 #include <vm/pmap.h>
47 #include <vm/vm_kern.h>
48 #include <vm/vm_map.h>
49 #include <vm/vm_param.h>
50 #include <vm/vm_extern.h>
51
52 #include <machine/frame.h>
53 #include <machine/pcb.h>
54 #include <machine/pcpu.h>
55 #include <machine/undefined.h>
56
57 #ifdef KDTRACE_HOOKS
58 #include <sys/dtrace_bsd.h>
59 #endif
60
61 #ifdef VFP
62 #include <machine/vfp.h>
63 #endif
64
65 #ifdef KDB
66 #include <machine/db_machdep.h>
67 #endif
68
69 #ifdef DDB
70 #include <ddb/db_output.h>
71 #endif
72
73 extern register_t fsu_intr_fault;
74
75 /* Called from exception.S */
76 void do_el1h_sync(struct thread *, struct trapframe *);
77 void do_el0_sync(struct thread *, struct trapframe *);
78 void do_el0_error(struct trapframe *);
79 static void print_registers(struct trapframe *frame);
80
81 int (*dtrace_invop_jump_addr)(struct trapframe *);
82
83 static __inline void
84 call_trapsignal(struct thread *td, int sig, int code, void *addr)
85 {
86         ksiginfo_t ksi;
87
88         ksiginfo_init_trap(&ksi);
89         ksi.ksi_signo = sig;
90         ksi.ksi_code = code;
91         ksi.ksi_addr = addr;
92         trapsignal(td, &ksi);
93 }
94
95 int
96 cpu_fetch_syscall_args(struct thread *td)
97 {
98         struct proc *p;
99         register_t *ap;
100         struct syscall_args *sa;
101         int nap;
102
103         nap = 8;
104         p = td->td_proc;
105         ap = td->td_frame->tf_x;
106         sa = &td->td_sa;
107
108         sa->code = td->td_frame->tf_x[8];
109
110         if (sa->code == SYS_syscall || sa->code == SYS___syscall) {
111                 sa->code = *ap++;
112                 nap--;
113         }
114
115         if (p->p_sysent->sv_mask)
116                 sa->code &= p->p_sysent->sv_mask;
117         if (sa->code >= p->p_sysent->sv_size)
118                 sa->callp = &p->p_sysent->sv_table[0];
119         else
120                 sa->callp = &p->p_sysent->sv_table[sa->code];
121
122         sa->narg = sa->callp->sy_narg;
123         memcpy(sa->args, ap, nap * sizeof(register_t));
124         if (sa->narg > nap)
125                 panic("ARM64TODO: Could we have more than 8 args?");
126
127         td->td_retval[0] = 0;
128         td->td_retval[1] = 0;
129
130         return (0);
131 }
132
133 #include "../../kern/subr_syscall.c"
134
135 static void
136 svc_handler(struct thread *td, struct trapframe *frame)
137 {
138         int error;
139
140         if ((frame->tf_esr & ESR_ELx_ISS_MASK) == 0) {
141                 error = syscallenter(td);
142                 syscallret(td, error);
143         } else {
144                 call_trapsignal(td, SIGILL, ILL_ILLOPN, (void *)frame->tf_elr);
145                 userret(td, frame);
146         }
147 }
148
149 static void
150 data_abort(struct thread *td, struct trapframe *frame, uint64_t esr,
151     uint64_t far, int lower)
152 {
153         struct vm_map *map;
154         struct proc *p;
155         struct pcb *pcb;
156         vm_prot_t ftype;
157         vm_offset_t va;
158         int error, sig, ucode;
159
160         /*
161          * According to the ARMv8-A rev. A.g, B2.10.5 "Load-Exclusive
162          * and Store-Exclusive instruction usage restrictions", state
163          * of the exclusive monitors after data abort exception is unknown.
164          */
165         clrex();
166
167 #ifdef KDB
168         if (kdb_active) {
169                 kdb_reenter();
170                 return;
171         }
172 #endif
173
174         pcb = td->td_pcb;
175         p = td->td_proc;
176         if (lower)
177                 map = &p->p_vmspace->vm_map;
178         else {
179                 /* The top bit tells us which range to use */
180                 if (far >= VM_MAXUSER_ADDRESS) {
181                         map = kernel_map;
182                 } else {
183                         map = &p->p_vmspace->vm_map;
184                         if (map == NULL)
185                                 map = kernel_map;
186                 }
187         }
188
189         if (pmap_fault(map->pmap, esr, far) == KERN_SUCCESS)
190                 return;
191
192         KASSERT(td->td_md.md_spinlock_count == 0,
193             ("data abort with spinlock held"));
194         if (td->td_critnest != 0 || WITNESS_CHECK(WARN_SLEEPOK |
195             WARN_GIANTOK, NULL, "Kernel page fault") != 0) {
196                 print_registers(frame);
197                 printf(" far: %16lx\n", far);
198                 printf(" esr:         %.8lx\n", esr);
199                 panic("data abort in critical section or under mutex");
200         }
201
202         va = trunc_page(far);
203         ftype = ((esr >> 6) & 1) ? VM_PROT_READ | VM_PROT_WRITE : VM_PROT_READ;
204
205         /* Fault in the page. */
206         error = vm_fault(map, va, ftype, VM_FAULT_NORMAL);
207         if (error != KERN_SUCCESS) {
208                 if (lower) {
209                         sig = SIGSEGV;
210                         if (error == KERN_PROTECTION_FAILURE)
211                                 ucode = SEGV_ACCERR;
212                         else
213                                 ucode = SEGV_MAPERR;
214                         call_trapsignal(td, sig, ucode, (void *)far);
215                 } else {
216                         if (td->td_intr_nesting_level == 0 &&
217                             pcb->pcb_onfault != 0) {
218                                 frame->tf_x[0] = error;
219                                 frame->tf_elr = pcb->pcb_onfault;
220                                 return;
221                         }
222
223                         printf("Fatal data abort:\n");
224                         print_registers(frame);
225                         printf(" far: %16lx\n", far);
226                         printf(" esr:         %.8lx\n", esr);
227
228 #ifdef KDB
229                         if (debugger_on_panic || kdb_active)
230                                 if (kdb_trap(ESR_ELx_EXCEPTION(esr), 0, frame))
231                                         return;
232 #endif
233                         panic("vm_fault failed: %lx", frame->tf_elr);
234                 }
235         }
236
237         if (lower)
238                 userret(td, frame);
239 }
240
241 static void
242 print_registers(struct trapframe *frame)
243 {
244         u_int reg;
245
246         for (reg = 0; reg < nitems(frame->tf_x); reg++) {
247                 printf(" %sx%d: %16lx\n", (reg < 10) ? " " : "", reg,
248                     frame->tf_x[reg]);
249         }
250         printf("  sp: %16lx\n", frame->tf_sp);
251         printf("  lr: %16lx\n", frame->tf_lr);
252         printf(" elr: %16lx\n", frame->tf_elr);
253         printf("spsr:         %8x\n", frame->tf_spsr);
254 }
255
256 void
257 do_el1h_sync(struct thread *td, struct trapframe *frame)
258 {
259         struct trapframe *oframe;
260         uint32_t exception;
261         uint64_t esr, far;
262
263         /* Read the esr register to get the exception details */
264         esr = frame->tf_esr;
265         exception = ESR_ELx_EXCEPTION(esr);
266
267 #ifdef KDTRACE_HOOKS
268         if (dtrace_trap_func != NULL && (*dtrace_trap_func)(frame, exception))
269                 return;
270 #endif
271
272         CTR4(KTR_TRAP,
273             "do_el1_sync: curthread: %p, esr %lx, elr: %lx, frame: %p", td,
274             esr, frame->tf_elr, frame);
275
276         oframe = td->td_frame;
277
278         switch (exception) {
279         case EXCP_BRK:
280         case EXCP_WATCHPT_EL1:
281         case EXCP_SOFTSTP_EL1:
282                 break;
283         default:
284                 td->td_frame = frame;
285                 break;
286         }
287
288         switch(exception) {
289         case EXCP_FP_SIMD:
290         case EXCP_TRAP_FP:
291 #ifdef VFP
292                 if ((td->td_pcb->pcb_fpflags & PCB_FP_KERN) != 0) {
293                         vfp_restore_state();
294                 } else
295 #endif
296                 {
297                         print_registers(frame);
298                         printf(" esr:         %.8lx\n", esr);
299                         panic("VFP exception in the kernel");
300                 }
301                 break;
302         case EXCP_INSN_ABORT:
303         case EXCP_DATA_ABORT:
304                 far = READ_SPECIALREG(far_el1);
305                 intr_enable();
306                 data_abort(td, frame, esr, far, 0);
307                 break;
308         case EXCP_BRK:
309 #ifdef KDTRACE_HOOKS
310                 if ((esr & ESR_ELx_ISS_MASK) == 0x40d && \
311                     dtrace_invop_jump_addr != 0) {
312                         dtrace_invop_jump_addr(frame);
313                         break;
314                 }
315 #endif
316 #ifdef KDB
317                 kdb_trap(exception, 0,
318                     (td->td_frame != NULL) ? td->td_frame : frame);
319 #else
320                 panic("No debugger in kernel.\n");
321 #endif
322                 frame->tf_elr += 4;
323                 break;
324         case EXCP_WATCHPT_EL1:
325         case EXCP_SOFTSTP_EL1:
326 #ifdef KDB
327                 kdb_trap(exception, 0,
328                     (td->td_frame != NULL) ? td->td_frame : frame);
329 #else
330                 panic("No debugger in kernel.\n");
331 #endif
332                 break;
333         case EXCP_UNKNOWN:
334                 if (undef_insn(1, frame))
335                         break;
336                 /* FALLTHROUGH */
337         default:
338                 print_registers(frame);
339                 panic("Unknown kernel exception %x esr_el1 %lx\n", exception,
340                     esr);
341         }
342
343         td->td_frame = oframe;
344 }
345
346 void
347 do_el0_sync(struct thread *td, struct trapframe *frame)
348 {
349         pcpu_bp_harden bp_harden;
350         uint32_t exception;
351         uint64_t esr, far;
352
353         /* Check we have a sane environment when entering from userland */
354         KASSERT((uintptr_t)get_pcpu() >= VM_MIN_KERNEL_ADDRESS,
355             ("Invalid pcpu address from userland: %p (tpidr %lx)",
356              get_pcpu(), READ_SPECIALREG(tpidr_el1)));
357
358         esr = frame->tf_esr;
359         exception = ESR_ELx_EXCEPTION(esr);
360         switch (exception) {
361         case EXCP_INSN_ABORT_L:
362                 far = READ_SPECIALREG(far_el1);
363
364                 /*
365                  * Userspace may be trying to train the branch predictor to
366                  * attack the kernel. If we are on a CPU affected by this
367                  * call the handler to clear the branch predictor state.
368                  */
369                 if (far > VM_MAXUSER_ADDRESS) {
370                         bp_harden = PCPU_GET(bp_harden);
371                         if (bp_harden != NULL)
372                                 bp_harden();
373                 }
374                 break;
375         case EXCP_UNKNOWN:
376         case EXCP_DATA_ABORT_L:
377         case EXCP_DATA_ABORT:
378                 far = READ_SPECIALREG(far_el1);
379                 break;
380         }
381         intr_enable();
382
383         CTR4(KTR_TRAP,
384             "do_el0_sync: curthread: %p, esr %lx, elr: %lx, frame: %p", td, esr,
385             frame->tf_elr, frame);
386
387         switch(exception) {
388         case EXCP_FP_SIMD:
389         case EXCP_TRAP_FP:
390 #ifdef VFP
391                 vfp_restore_state();
392 #else
393                 panic("VFP exception in userland");
394 #endif
395                 break;
396         case EXCP_SVC32:
397         case EXCP_SVC64:
398                 svc_handler(td, frame);
399                 break;
400         case EXCP_INSN_ABORT_L:
401         case EXCP_DATA_ABORT_L:
402         case EXCP_DATA_ABORT:
403                 data_abort(td, frame, esr, far, 1);
404                 break;
405         case EXCP_UNKNOWN:
406                 if (!undef_insn(0, frame))
407                         call_trapsignal(td, SIGILL, ILL_ILLTRP, (void *)far);
408                 userret(td, frame);
409                 break;
410         case EXCP_SP_ALIGN:
411                 call_trapsignal(td, SIGBUS, BUS_ADRALN, (void *)frame->tf_sp);
412                 userret(td, frame);
413                 break;
414         case EXCP_PC_ALIGN:
415                 call_trapsignal(td, SIGBUS, BUS_ADRALN, (void *)frame->tf_elr);
416                 userret(td, frame);
417                 break;
418         case EXCP_BRK:
419                 call_trapsignal(td, SIGTRAP, TRAP_BRKPT, (void *)frame->tf_elr);
420                 userret(td, frame);
421                 break;
422         case EXCP_MSR:
423                 call_trapsignal(td, SIGILL, ILL_PRVOPC, (void *)frame->tf_elr); 
424                 userret(td, frame);
425                 break;
426         case EXCP_SOFTSTP_EL0:
427                 td->td_frame->tf_spsr &= ~PSR_SS;
428                 td->td_pcb->pcb_flags &= ~PCB_SINGLE_STEP;
429                 WRITE_SPECIALREG(MDSCR_EL1,
430                     READ_SPECIALREG(MDSCR_EL1) & ~DBG_MDSCR_SS);
431                 call_trapsignal(td, SIGTRAP, TRAP_TRACE,
432                     (void *)frame->tf_elr);
433                 userret(td, frame);
434                 break;
435         default:
436                 call_trapsignal(td, SIGBUS, BUS_OBJERR, (void *)frame->tf_elr);
437                 userret(td, frame);
438                 break;
439         }
440
441         KASSERT((td->td_pcb->pcb_fpflags & ~PCB_FP_USERMASK) == 0,
442             ("Kernel VFP flags set while entering userspace"));
443         KASSERT(
444             td->td_pcb->pcb_fpusaved == &td->td_pcb->pcb_fpustate,
445             ("Kernel VFP state in use when entering userspace"));
446 }
447
448 void
449 do_el0_error(struct trapframe *frame)
450 {
451
452         panic("ARM64TODO: do_el0_error");
453 }
454