]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/x86/x86/intr_machdep.c
Merge llvm, clang, lld, lldb, compiler-rt and libc++ r308421, and update
[FreeBSD/FreeBSD.git] / sys / x86 / x86 / intr_machdep.c
1 /*-
2  * Copyright (c) 2003 John Baldwin <jhb@FreeBSD.org>
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  *
14  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
15  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
16  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
17  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
18  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
19  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
20  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
21  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
22  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
23  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
24  * SUCH DAMAGE.
25  *
26  * $FreeBSD$
27  */
28
29 /*
30  * Machine dependent interrupt code for x86.  For x86, we have to
31  * deal with different PICs.  Thus, we use the passed in vector to lookup
32  * an interrupt source associated with that vector.  The interrupt source
33  * describes which PIC the source belongs to and includes methods to handle
34  * that source.
35  */
36
37 #include "opt_atpic.h"
38 #include "opt_ddb.h"
39
40 #include <sys/param.h>
41 #include <sys/bus.h>
42 #include <sys/interrupt.h>
43 #include <sys/ktr.h>
44 #include <sys/kernel.h>
45 #include <sys/lock.h>
46 #include <sys/mutex.h>
47 #include <sys/proc.h>
48 #include <sys/smp.h>
49 #include <sys/sx.h>
50 #include <sys/syslog.h>
51 #include <sys/systm.h>
52 #include <sys/vmmeter.h>
53 #include <machine/clock.h>
54 #include <machine/intr_machdep.h>
55 #include <machine/smp.h>
56 #ifdef DDB
57 #include <ddb/ddb.h>
58 #endif
59
60 #ifndef DEV_ATPIC
61 #include <machine/segments.h>
62 #include <machine/frame.h>
63 #include <dev/ic/i8259.h>
64 #include <x86/isa/icu.h>
65 #include <isa/isareg.h>
66 #endif
67
68 #define MAX_STRAY_LOG   5
69
70 typedef void (*mask_fn)(void *);
71
72 static int intrcnt_index;
73 static struct intsrc *interrupt_sources[NUM_IO_INTS];
74 static struct sx intrsrc_lock;
75 static struct mtx intrpic_lock;
76 static struct mtx intrcnt_lock;
77 static TAILQ_HEAD(pics_head, pic) pics;
78
79 #if defined(SMP) && !defined(EARLY_AP_STARTUP)
80 static int assign_cpu;
81 #endif
82
83 u_long intrcnt[INTRCNT_COUNT];
84 char intrnames[INTRCNT_COUNT * (MAXCOMLEN + 1)];
85 size_t sintrcnt = sizeof(intrcnt);
86 size_t sintrnames = sizeof(intrnames);
87
88 static int      intr_assign_cpu(void *arg, int cpu);
89 static void     intr_disable_src(void *arg);
90 static void     intr_init(void *__dummy);
91 static int      intr_pic_registered(struct pic *pic);
92 static void     intrcnt_setname(const char *name, int index);
93 static void     intrcnt_updatename(struct intsrc *is);
94 static void     intrcnt_register(struct intsrc *is);
95
96 static int
97 intr_pic_registered(struct pic *pic)
98 {
99         struct pic *p;
100
101         TAILQ_FOREACH(p, &pics, pics) {
102                 if (p == pic)
103                         return (1);
104         }
105         return (0);
106 }
107
108 /*
109  * Register a new interrupt controller (PIC).  This is to support suspend
110  * and resume where we suspend/resume controllers rather than individual
111  * sources.  This also allows controllers with no active sources (such as
112  * 8259As in a system using the APICs) to participate in suspend and resume.
113  */
114 int
115 intr_register_pic(struct pic *pic)
116 {
117         int error;
118
119         mtx_lock(&intrpic_lock);
120         if (intr_pic_registered(pic))
121                 error = EBUSY;
122         else {
123                 TAILQ_INSERT_TAIL(&pics, pic, pics);
124                 error = 0;
125         }
126         mtx_unlock(&intrpic_lock);
127         return (error);
128 }
129
130 /*
131  * Register a new interrupt source with the global interrupt system.
132  * The global interrupts need to be disabled when this function is
133  * called.
134  */
135 int
136 intr_register_source(struct intsrc *isrc)
137 {
138         int error, vector;
139
140         KASSERT(intr_pic_registered(isrc->is_pic), ("unregistered PIC"));
141         vector = isrc->is_pic->pic_vector(isrc);
142         if (interrupt_sources[vector] != NULL)
143                 return (EEXIST);
144         error = intr_event_create(&isrc->is_event, isrc, 0, vector,
145             intr_disable_src, (mask_fn)isrc->is_pic->pic_enable_source,
146             (mask_fn)isrc->is_pic->pic_eoi_source, intr_assign_cpu, "irq%d:",
147             vector);
148         if (error)
149                 return (error);
150         sx_xlock(&intrsrc_lock);
151         if (interrupt_sources[vector] != NULL) {
152                 sx_xunlock(&intrsrc_lock);
153                 intr_event_destroy(isrc->is_event);
154                 return (EEXIST);
155         }
156         intrcnt_register(isrc);
157         interrupt_sources[vector] = isrc;
158         isrc->is_handlers = 0;
159         sx_xunlock(&intrsrc_lock);
160         return (0);
161 }
162
163 struct intsrc *
164 intr_lookup_source(int vector)
165 {
166
167         return (interrupt_sources[vector]);
168 }
169
170 int
171 intr_add_handler(const char *name, int vector, driver_filter_t filter,
172     driver_intr_t handler, void *arg, enum intr_type flags, void **cookiep)
173 {
174         struct intsrc *isrc;
175         int error;
176
177         isrc = intr_lookup_source(vector);
178         if (isrc == NULL)
179                 return (EINVAL);
180         error = intr_event_add_handler(isrc->is_event, name, filter, handler,
181             arg, intr_priority(flags), flags, cookiep);
182         if (error == 0) {
183                 sx_xlock(&intrsrc_lock);
184                 intrcnt_updatename(isrc);
185                 isrc->is_handlers++;
186                 if (isrc->is_handlers == 1) {
187                         isrc->is_pic->pic_enable_intr(isrc);
188                         isrc->is_pic->pic_enable_source(isrc);
189                 }
190                 sx_xunlock(&intrsrc_lock);
191         }
192         return (error);
193 }
194
195 int
196 intr_remove_handler(void *cookie)
197 {
198         struct intsrc *isrc;
199         int error;
200
201         isrc = intr_handler_source(cookie);
202         error = intr_event_remove_handler(cookie);
203         if (error == 0) {
204                 sx_xlock(&intrsrc_lock);
205                 isrc->is_handlers--;
206                 if (isrc->is_handlers == 0) {
207                         isrc->is_pic->pic_disable_source(isrc, PIC_NO_EOI);
208                         isrc->is_pic->pic_disable_intr(isrc);
209                 }
210                 intrcnt_updatename(isrc);
211                 sx_xunlock(&intrsrc_lock);
212         }
213         return (error);
214 }
215
216 int
217 intr_config_intr(int vector, enum intr_trigger trig, enum intr_polarity pol)
218 {
219         struct intsrc *isrc;
220
221         isrc = intr_lookup_source(vector);
222         if (isrc == NULL)
223                 return (EINVAL);
224         return (isrc->is_pic->pic_config_intr(isrc, trig, pol));
225 }
226
227 static void
228 intr_disable_src(void *arg)
229 {
230         struct intsrc *isrc;
231
232         isrc = arg;
233         isrc->is_pic->pic_disable_source(isrc, PIC_EOI);
234 }
235
236 void
237 intr_execute_handlers(struct intsrc *isrc, struct trapframe *frame)
238 {
239         struct intr_event *ie;
240         int vector;
241
242         /*
243          * We count software interrupts when we process them.  The
244          * code here follows previous practice, but there's an
245          * argument for counting hardware interrupts when they're
246          * processed too.
247          */
248         (*isrc->is_count)++;
249         VM_CNT_INC(v_intr);
250
251         ie = isrc->is_event;
252
253         /*
254          * XXX: We assume that IRQ 0 is only used for the ISA timer
255          * device (clk).
256          */
257         vector = isrc->is_pic->pic_vector(isrc);
258         if (vector == 0)
259                 clkintr_pending = 1;
260
261         /*
262          * For stray interrupts, mask and EOI the source, bump the
263          * stray count, and log the condition.
264          */
265         if (intr_event_handle(ie, frame) != 0) {
266                 isrc->is_pic->pic_disable_source(isrc, PIC_EOI);
267                 (*isrc->is_straycount)++;
268                 if (*isrc->is_straycount < MAX_STRAY_LOG)
269                         log(LOG_ERR, "stray irq%d\n", vector);
270                 else if (*isrc->is_straycount == MAX_STRAY_LOG)
271                         log(LOG_CRIT,
272                             "too many stray irq %d's: not logging anymore\n",
273                             vector);
274         }
275 }
276
277 void
278 intr_resume(bool suspend_cancelled)
279 {
280         struct pic *pic;
281
282 #ifndef DEV_ATPIC
283         atpic_reset();
284 #endif
285         mtx_lock(&intrpic_lock);
286         TAILQ_FOREACH(pic, &pics, pics) {
287                 if (pic->pic_resume != NULL)
288                         pic->pic_resume(pic, suspend_cancelled);
289         }
290         mtx_unlock(&intrpic_lock);
291 }
292
293 void
294 intr_suspend(void)
295 {
296         struct pic *pic;
297
298         mtx_lock(&intrpic_lock);
299         TAILQ_FOREACH_REVERSE(pic, &pics, pics_head, pics) {
300                 if (pic->pic_suspend != NULL)
301                         pic->pic_suspend(pic);
302         }
303         mtx_unlock(&intrpic_lock);
304 }
305
306 static int
307 intr_assign_cpu(void *arg, int cpu)
308 {
309 #ifdef SMP
310         struct intsrc *isrc;
311         int error;
312
313 #ifdef EARLY_AP_STARTUP
314         MPASS(mp_ncpus == 1 || smp_started);
315
316         /* Nothing to do if there is only a single CPU. */
317         if (mp_ncpus > 1 && cpu != NOCPU) {
318 #else
319         /*
320          * Don't do anything during early boot.  We will pick up the
321          * assignment once the APs are started.
322          */
323         if (assign_cpu && cpu != NOCPU) {
324 #endif
325                 isrc = arg;
326                 sx_xlock(&intrsrc_lock);
327                 error = isrc->is_pic->pic_assign_cpu(isrc, cpu_apic_ids[cpu]);
328                 sx_xunlock(&intrsrc_lock);
329         } else
330                 error = 0;
331         return (error);
332 #else
333         return (EOPNOTSUPP);
334 #endif
335 }
336
337 static void
338 intrcnt_setname(const char *name, int index)
339 {
340
341         snprintf(intrnames + (MAXCOMLEN + 1) * index, MAXCOMLEN + 1, "%-*s",
342             MAXCOMLEN, name);
343 }
344
345 static void
346 intrcnt_updatename(struct intsrc *is)
347 {
348
349         intrcnt_setname(is->is_event->ie_fullname, is->is_index);
350 }
351
352 static void
353 intrcnt_register(struct intsrc *is)
354 {
355         char straystr[MAXCOMLEN + 1];
356
357         KASSERT(is->is_event != NULL, ("%s: isrc with no event", __func__));
358         mtx_lock_spin(&intrcnt_lock);
359         is->is_index = intrcnt_index;
360         intrcnt_index += 2;
361         snprintf(straystr, MAXCOMLEN + 1, "stray irq%d",
362             is->is_pic->pic_vector(is));
363         intrcnt_updatename(is);
364         is->is_count = &intrcnt[is->is_index];
365         intrcnt_setname(straystr, is->is_index + 1);
366         is->is_straycount = &intrcnt[is->is_index + 1];
367         mtx_unlock_spin(&intrcnt_lock);
368 }
369
370 void
371 intrcnt_add(const char *name, u_long **countp)
372 {
373
374         mtx_lock_spin(&intrcnt_lock);
375         *countp = &intrcnt[intrcnt_index];
376         intrcnt_setname(name, intrcnt_index);
377         intrcnt_index++;
378         mtx_unlock_spin(&intrcnt_lock);
379 }
380
381 static void
382 intr_init(void *dummy __unused)
383 {
384
385         intrcnt_setname("???", 0);
386         intrcnt_index = 1;
387         TAILQ_INIT(&pics);
388         mtx_init(&intrpic_lock, "intrpic", NULL, MTX_DEF);
389         sx_init(&intrsrc_lock, "intrsrc");
390         mtx_init(&intrcnt_lock, "intrcnt", NULL, MTX_SPIN);
391 }
392 SYSINIT(intr_init, SI_SUB_INTR, SI_ORDER_FIRST, intr_init, NULL);
393
394 static void
395 intr_init_final(void *dummy __unused)
396 {
397
398         /*
399          * Enable interrupts on the BSP after all of the interrupt
400          * controllers are initialized.  Device interrupts are still
401          * disabled in the interrupt controllers until interrupt
402          * handlers are registered.  Interrupts are enabled on each AP
403          * after their first context switch.
404          */
405         enable_intr();
406 }
407 SYSINIT(intr_init_final, SI_SUB_INTR, SI_ORDER_ANY, intr_init_final, NULL);
408
409 #ifndef DEV_ATPIC
410 /* Initialize the two 8259A's to a known-good shutdown state. */
411 void
412 atpic_reset(void)
413 {
414
415         outb(IO_ICU1, ICW1_RESET | ICW1_IC4);
416         outb(IO_ICU1 + ICU_IMR_OFFSET, IDT_IO_INTS);
417         outb(IO_ICU1 + ICU_IMR_OFFSET, IRQ_MASK(ICU_SLAVEID));
418         outb(IO_ICU1 + ICU_IMR_OFFSET, MASTER_MODE);
419         outb(IO_ICU1 + ICU_IMR_OFFSET, 0xff);
420         outb(IO_ICU1, OCW3_SEL | OCW3_RR);
421
422         outb(IO_ICU2, ICW1_RESET | ICW1_IC4);
423         outb(IO_ICU2 + ICU_IMR_OFFSET, IDT_IO_INTS + 8);
424         outb(IO_ICU2 + ICU_IMR_OFFSET, ICU_SLAVEID);
425         outb(IO_ICU2 + ICU_IMR_OFFSET, SLAVE_MODE);
426         outb(IO_ICU2 + ICU_IMR_OFFSET, 0xff);
427         outb(IO_ICU2, OCW3_SEL | OCW3_RR);
428 }
429 #endif
430
431 /* Add a description to an active interrupt handler. */
432 int
433 intr_describe(u_int vector, void *ih, const char *descr)
434 {
435         struct intsrc *isrc;
436         int error;
437
438         isrc = intr_lookup_source(vector);
439         if (isrc == NULL)
440                 return (EINVAL);
441         error = intr_event_describe_handler(isrc->is_event, ih, descr);
442         if (error)
443                 return (error);
444         intrcnt_updatename(isrc);
445         return (0);
446 }
447
448 void
449 intr_reprogram(void)
450 {
451         struct intsrc *is;
452         int v;
453
454         sx_xlock(&intrsrc_lock);
455         for (v = 0; v < NUM_IO_INTS; v++) {
456                 is = interrupt_sources[v];
457                 if (is == NULL)
458                         continue;
459                 if (is->is_pic->pic_reprogram_pin != NULL)
460                         is->is_pic->pic_reprogram_pin(is);
461         }
462         sx_xunlock(&intrsrc_lock);
463 }
464
465 #ifdef DDB
466 /*
467  * Dump data about interrupt handlers
468  */
469 DB_SHOW_COMMAND(irqs, db_show_irqs)
470 {
471         struct intsrc **isrc;
472         int i, verbose;
473
474         if (strcmp(modif, "v") == 0)
475                 verbose = 1;
476         else
477                 verbose = 0;
478         isrc = interrupt_sources;
479         for (i = 0; i < NUM_IO_INTS && !db_pager_quit; i++, isrc++)
480                 if (*isrc != NULL)
481                         db_dump_intr_event((*isrc)->is_event, verbose);
482 }
483 #endif
484
485 #ifdef SMP
486 /*
487  * Support for balancing interrupt sources across CPUs.  For now we just
488  * allocate CPUs round-robin.
489  */
490
491 cpuset_t intr_cpus = CPUSET_T_INITIALIZER(0x1);
492 static int current_cpu;
493
494 /*
495  * Return the CPU that the next interrupt source should use.  For now
496  * this just returns the next local APIC according to round-robin.
497  */
498 u_int
499 intr_next_cpu(void)
500 {
501         u_int apic_id;
502
503 #ifdef EARLY_AP_STARTUP
504         MPASS(mp_ncpus == 1 || smp_started);
505         if (mp_ncpus == 1)
506                 return (PCPU_GET(apic_id));
507 #else
508         /* Leave all interrupts on the BSP during boot. */
509         if (!assign_cpu)
510                 return (PCPU_GET(apic_id));
511 #endif
512
513         mtx_lock_spin(&icu_lock);
514         apic_id = cpu_apic_ids[current_cpu];
515         do {
516                 current_cpu++;
517                 if (current_cpu > mp_maxid)
518                         current_cpu = 0;
519         } while (!CPU_ISSET(current_cpu, &intr_cpus));
520         mtx_unlock_spin(&icu_lock);
521         return (apic_id);
522 }
523
524 /* Attempt to bind the specified IRQ to the specified CPU. */
525 int
526 intr_bind(u_int vector, u_char cpu)
527 {
528         struct intsrc *isrc;
529
530         isrc = intr_lookup_source(vector);
531         if (isrc == NULL)
532                 return (EINVAL);
533         return (intr_event_bind(isrc->is_event, cpu));
534 }
535
536 /*
537  * Add a CPU to our mask of valid CPUs that can be destinations of
538  * interrupts.
539  */
540 void
541 intr_add_cpu(u_int cpu)
542 {
543
544         if (cpu >= MAXCPU)
545                 panic("%s: Invalid CPU ID", __func__);
546         if (bootverbose)
547                 printf("INTR: Adding local APIC %d as a target\n",
548                     cpu_apic_ids[cpu]);
549
550         CPU_SET(cpu, &intr_cpus);
551 }
552
553 #ifndef EARLY_AP_STARTUP
554 /*
555  * Distribute all the interrupt sources among the available CPUs once the
556  * AP's have been launched.
557  */
558 static void
559 intr_shuffle_irqs(void *arg __unused)
560 {
561         struct intsrc *isrc;
562         int i;
563
564         /* Don't bother on UP. */
565         if (mp_ncpus == 1)
566                 return;
567
568         /* Round-robin assign a CPU to each enabled source. */
569         sx_xlock(&intrsrc_lock);
570         assign_cpu = 1;
571         for (i = 0; i < NUM_IO_INTS; i++) {
572                 isrc = interrupt_sources[i];
573                 if (isrc != NULL && isrc->is_handlers > 0) {
574                         /*
575                          * If this event is already bound to a CPU,
576                          * then assign the source to that CPU instead
577                          * of picking one via round-robin.  Note that
578                          * this is careful to only advance the
579                          * round-robin if the CPU assignment succeeds.
580                          */
581                         if (isrc->is_event->ie_cpu != NOCPU)
582                                 (void)isrc->is_pic->pic_assign_cpu(isrc,
583                                     cpu_apic_ids[isrc->is_event->ie_cpu]);
584                         else if (isrc->is_pic->pic_assign_cpu(isrc,
585                                 cpu_apic_ids[current_cpu]) == 0)
586                                 (void)intr_next_cpu();
587
588                 }
589         }
590         sx_xunlock(&intrsrc_lock);
591 }
592 SYSINIT(intr_shuffle_irqs, SI_SUB_SMP, SI_ORDER_SECOND, intr_shuffle_irqs,
593     NULL);
594 #endif
595 #else
596 /*
597  * Always route interrupts to the current processor in the UP case.
598  */
599 u_int
600 intr_next_cpu(void)
601 {
602
603         return (PCPU_GET(apic_id));
604 }
605 #endif