]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - sys/i386/i386/intr_machdep.c
This commit was generated by cvs2svn to compensate for changes in r168609,
[FreeBSD/FreeBSD.git] / sys / i386 / i386 / intr_machdep.c
1 /*-
2  * Copyright (c) 2003 John Baldwin <jhb@FreeBSD.org>
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  * 3. Neither the name of the author nor the names of any co-contributors
14  *    may be used to endorse or promote products derived from this software
15  *    without specific prior written permission.
16  *
17  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
18  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
19  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
20  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
21  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
22  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
23  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
24  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
25  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
26  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
27  * SUCH DAMAGE.
28  *
29  * $FreeBSD$
30  */
31
32 /*
33  * Machine dependent interrupt code for i386.  For the i386, we have to
34  * deal with different PICs.  Thus, we use the passed in vector to lookup
35  * an interrupt source associated with that vector.  The interrupt source
36  * describes which PIC the source belongs to and includes methods to handle
37  * that source.
38  */
39
40 #include "opt_ddb.h"
41
42 #include <sys/param.h>
43 #include <sys/bus.h>
44 #include <sys/interrupt.h>
45 #include <sys/lock.h>
46 #include <sys/ktr.h>
47 #include <sys/kernel.h>
48 #include <sys/mutex.h>
49 #include <sys/proc.h>
50 #include <sys/syslog.h>
51 #include <sys/systm.h>
52 #include <machine/clock.h>
53 #include <machine/intr_machdep.h>
54 #include <machine/smp.h>
55 #ifdef DDB
56 #include <ddb/ddb.h>
57 #endif
58
59 #define MAX_STRAY_LOG   5
60
61 typedef void (*mask_fn)(void *);
62
63 static int intrcnt_index;
64 static struct intsrc *interrupt_sources[NUM_IO_INTS];
65 static struct mtx intr_table_lock;
66 static STAILQ_HEAD(, pic) pics;
67
68 #ifdef SMP
69 static int assign_cpu;
70
71 static void     intr_assign_next_cpu(struct intsrc *isrc);
72 #endif
73
74 static void     intr_init(void *__dummy);
75 static int      intr_pic_registered(struct pic *pic);
76 static void     intrcnt_setname(const char *name, int index);
77 static void     intrcnt_updatename(struct intsrc *is);
78 static void     intrcnt_register(struct intsrc *is);
79
80 static int
81 intr_pic_registered(struct pic *pic)
82 {
83         struct pic *p;
84
85         STAILQ_FOREACH(p, &pics, pics) {
86                 if (p == pic)
87                         return (1);
88         }
89         return (0);
90 }
91
92 /*
93  * Register a new interrupt controller (PIC).  This is to support suspend
94  * and resume where we suspend/resume controllers rather than individual
95  * sources.  This also allows controllers with no active sources (such as
96  * 8259As in a system using the APICs) to participate in suspend and resume.
97  */
98 int
99 intr_register_pic(struct pic *pic)
100 {
101         int error;
102
103         mtx_lock_spin(&intr_table_lock);
104         if (intr_pic_registered(pic))
105                 error = EBUSY;
106         else {
107                 STAILQ_INSERT_TAIL(&pics, pic, pics);
108                 error = 0;
109         }
110         mtx_unlock_spin(&intr_table_lock);
111         return (error);
112 }
113
114 /*
115  * Register a new interrupt source with the global interrupt system.
116  * The global interrupts need to be disabled when this function is
117  * called.
118  */
119 int
120 intr_register_source(struct intsrc *isrc)
121 {
122         int error, vector;
123
124         KASSERT(intr_pic_registered(isrc->is_pic), ("unregistered PIC"));
125         vector = isrc->is_pic->pic_vector(isrc);
126         if (interrupt_sources[vector] != NULL)
127                 return (EEXIST);
128         error = intr_event_create(&isrc->is_event, isrc, 0,
129             (mask_fn)isrc->is_pic->pic_enable_source, "irq%d:", vector);
130         if (error)
131                 return (error);
132         mtx_lock_spin(&intr_table_lock);
133         if (interrupt_sources[vector] != NULL) {
134                 mtx_unlock_spin(&intr_table_lock);
135                 intr_event_destroy(isrc->is_event);
136                 return (EEXIST);
137         }
138         intrcnt_register(isrc);
139         interrupt_sources[vector] = isrc;
140         isrc->is_enabled = 0;
141         mtx_unlock_spin(&intr_table_lock);
142         return (0);
143 }
144
145 struct intsrc *
146 intr_lookup_source(int vector)
147 {
148
149         return (interrupt_sources[vector]);
150 }
151
152 int
153 intr_add_handler(const char *name, int vector, driver_filter_t filter,
154     driver_intr_t handler, void *arg, enum intr_type flags, void **cookiep)
155 {
156         struct intsrc *isrc;
157         int error;
158
159         isrc = intr_lookup_source(vector);
160         if (isrc == NULL)
161                 return (EINVAL);
162         error = intr_event_add_handler(isrc->is_event, name, filter, handler,
163              arg, intr_priority(flags), flags, cookiep);
164         if (error == 0) {
165                 intrcnt_updatename(isrc);
166                 mtx_lock_spin(&intr_table_lock);
167                 if (!isrc->is_enabled) {
168                         isrc->is_enabled = 1;
169 #ifdef SMP
170                         if (assign_cpu)
171                                 intr_assign_next_cpu(isrc);
172 #endif
173                         mtx_unlock_spin(&intr_table_lock);
174                         isrc->is_pic->pic_enable_intr(isrc);
175                 } else
176                         mtx_unlock_spin(&intr_table_lock);
177                 isrc->is_pic->pic_enable_source(isrc);
178         }
179         return (error);
180 }
181
182 int
183 intr_remove_handler(void *cookie)
184 {
185         struct intsrc *isrc;
186         int error;
187
188         isrc = intr_handler_source(cookie);
189         error = intr_event_remove_handler(cookie);
190         if (error == 0)
191                 intrcnt_updatename(isrc);
192         return (error);
193 }
194
195 int
196 intr_config_intr(int vector, enum intr_trigger trig, enum intr_polarity pol)
197 {
198         struct intsrc *isrc;
199
200         isrc = intr_lookup_source(vector);
201         if (isrc == NULL)
202                 return (EINVAL);
203         return (isrc->is_pic->pic_config_intr(isrc, trig, pol));
204 }
205
206 void
207 intr_execute_handlers(struct intsrc *isrc, struct trapframe *frame)
208 {
209         struct thread *td;
210         struct intr_event *ie;
211         struct intr_handler *ih;
212         int error, vector, thread;
213
214         td = curthread;
215
216         /*
217          * We count software interrupts when we process them.  The
218          * code here follows previous practice, but there's an
219          * argument for counting hardware interrupts when they're
220          * processed too.
221          */
222         (*isrc->is_count)++;
223         PCPU_LAZY_INC(cnt.v_intr);
224
225         ie = isrc->is_event;
226
227         /*
228          * XXX: We assume that IRQ 0 is only used for the ISA timer
229          * device (clk).
230          */
231         vector = isrc->is_pic->pic_vector(isrc);
232         if (vector == 0)
233                 clkintr_pending = 1;
234
235         /*
236          * For stray interrupts, mask and EOI the source, bump the
237          * stray count, and log the condition.
238          */
239         if (ie == NULL || TAILQ_EMPTY(&ie->ie_handlers)) {
240                 isrc->is_pic->pic_disable_source(isrc, PIC_EOI);
241                 (*isrc->is_straycount)++;
242                 if (*isrc->is_straycount < MAX_STRAY_LOG)
243                         log(LOG_ERR, "stray irq%d\n", vector);
244                 else if (*isrc->is_straycount == MAX_STRAY_LOG)
245                         log(LOG_CRIT,
246                             "too many stray irq %d's: not logging anymore\n",
247                             vector);
248                 return;
249         }
250
251         /*
252          * Execute fast interrupt handlers directly.
253          * To support clock handlers, if a handler registers
254          * with a NULL argument, then we pass it a pointer to
255          * a trapframe as its argument.
256          */
257         td->td_intr_nesting_level++;
258         thread = 0;
259         critical_enter();
260         TAILQ_FOREACH(ih, &ie->ie_handlers, ih_next) {
261                 if (ih->ih_filter == NULL) {
262                         thread = 1;
263                         continue;
264                 }
265                 CTR4(KTR_INTR, "%s: exec %p(%p) for %s", __func__,
266                     ih->ih_filter, ih->ih_argument == NULL ? frame :
267                     ih->ih_argument, ih->ih_name);
268                 if (ih->ih_argument == NULL)
269                         ih->ih_filter(frame);
270                 else
271                         ih->ih_filter(ih->ih_argument);
272         }
273
274         /*
275          * If there are any threaded handlers that need to run,
276          * mask the source as well as sending it an EOI.  Otherwise,
277          * just send it an EOI but leave it unmasked.
278          */
279         if (thread)
280                 isrc->is_pic->pic_disable_source(isrc, PIC_EOI);
281         else
282                 isrc->is_pic->pic_eoi_source(isrc);
283         critical_exit();
284
285         /* Schedule the ithread if needed. */
286         if (thread) {
287                 error = intr_event_schedule_thread(ie);
288                 KASSERT(error == 0, ("bad stray interrupt"));
289         }
290         td->td_intr_nesting_level--;
291 }
292
293 void
294 intr_resume(void)
295 {
296         struct pic *pic;
297
298         mtx_lock_spin(&intr_table_lock);
299         STAILQ_FOREACH(pic, &pics, pics) {
300                 if (pic->pic_resume != NULL)
301                         pic->pic_resume(pic);
302         }
303         mtx_unlock_spin(&intr_table_lock);
304 }
305
306 void
307 intr_suspend(void)
308 {
309         struct pic *pic;
310
311         mtx_lock_spin(&intr_table_lock);
312         STAILQ_FOREACH(pic, &pics, pics) {
313                 if (pic->pic_suspend != NULL)
314                         pic->pic_suspend(pic);
315         }
316         mtx_unlock_spin(&intr_table_lock);
317 }
318
319 static void
320 intrcnt_setname(const char *name, int index)
321 {
322
323         snprintf(intrnames + (MAXCOMLEN + 1) * index, MAXCOMLEN + 1, "%-*s",
324             MAXCOMLEN, name);
325 }
326
327 static void
328 intrcnt_updatename(struct intsrc *is)
329 {
330
331         intrcnt_setname(is->is_event->ie_fullname, is->is_index);
332 }
333
334 static void
335 intrcnt_register(struct intsrc *is)
336 {
337         char straystr[MAXCOMLEN + 1];
338
339         /* mtx_assert(&intr_table_lock, MA_OWNED); */
340         KASSERT(is->is_event != NULL, ("%s: isrc with no event", __func__));
341         is->is_index = intrcnt_index;
342         intrcnt_index += 2;
343         snprintf(straystr, MAXCOMLEN + 1, "stray irq%d",
344             is->is_pic->pic_vector(is));
345         intrcnt_updatename(is);
346         is->is_count = &intrcnt[is->is_index];
347         intrcnt_setname(straystr, is->is_index + 1);
348         is->is_straycount = &intrcnt[is->is_index + 1];
349 }
350
351 void
352 intrcnt_add(const char *name, u_long **countp)
353 {
354
355         mtx_lock_spin(&intr_table_lock);
356         *countp = &intrcnt[intrcnt_index];
357         intrcnt_setname(name, intrcnt_index);
358         intrcnt_index++;
359         mtx_unlock_spin(&intr_table_lock);
360 }
361
362 static void
363 intr_init(void *dummy __unused)
364 {
365
366         intrcnt_setname("???", 0);
367         intrcnt_index = 1;
368         STAILQ_INIT(&pics);
369         mtx_init(&intr_table_lock, "intr table", NULL, MTX_SPIN);
370 }
371 SYSINIT(intr_init, SI_SUB_INTR, SI_ORDER_FIRST, intr_init, NULL)
372
373 #ifdef DDB
374 /*
375  * Dump data about interrupt handlers
376  */
377 DB_SHOW_COMMAND(irqs, db_show_irqs)
378 {
379         struct intsrc **isrc;
380         int i, verbose;
381
382         if (strcmp(modif, "v") == 0)
383                 verbose = 1;
384         else
385                 verbose = 0;
386         isrc = interrupt_sources;
387         for (i = 0; i < NUM_IO_INTS && !db_pager_quit; i++, isrc++)
388                 if (*isrc != NULL)
389                         db_dump_intr_event((*isrc)->is_event, verbose);
390 }
391 #endif
392
393 #ifdef SMP
394 /*
395  * Support for balancing interrupt sources across CPUs.  For now we just
396  * allocate CPUs round-robin.
397  */
398
399 /* The BSP is always a valid target. */
400 static cpumask_t intr_cpus = (1 << 0);
401 static int current_cpu, num_cpus = 1;
402
403 static void
404 intr_assign_next_cpu(struct intsrc *isrc)
405 {
406         struct pic *pic;
407         u_int apic_id;
408
409         /*
410          * Assign this source to a local APIC in a round-robin fashion.
411          */
412         pic = isrc->is_pic;
413         apic_id = cpu_apic_ids[current_cpu];
414         pic->pic_assign_cpu(isrc, apic_id);
415         do {
416                 current_cpu++;
417                 if (current_cpu >= num_cpus)
418                         current_cpu = 0;
419         } while (!(intr_cpus & (1 << current_cpu)));
420 }
421
422 /*
423  * Add a CPU to our mask of valid CPUs that can be destinations of
424  * interrupts.
425  */
426 void
427 intr_add_cpu(u_int cpu)
428 {
429
430         if (cpu >= MAXCPU)
431                 panic("%s: Invalid CPU ID", __func__);
432         if (bootverbose)
433                 printf("INTR: Adding local APIC %d as a target\n",
434                     cpu_apic_ids[cpu]);
435
436         intr_cpus |= (1 << cpu);
437         num_cpus++;
438 }
439
440 /*
441  * Distribute all the interrupt sources among the available CPUs once the
442  * AP's have been launched.
443  */
444 static void
445 intr_shuffle_irqs(void *arg __unused)
446 {
447         struct intsrc *isrc;
448         int i;
449
450         /* Don't bother on UP. */
451         if (num_cpus <= 1)
452                 return;
453
454         /* Round-robin assign a CPU to each enabled source. */
455         mtx_lock_spin(&intr_table_lock);
456         assign_cpu = 1;
457         for (i = 0; i < NUM_IO_INTS; i++) {
458                 isrc = interrupt_sources[i];
459                 if (isrc != NULL && isrc->is_enabled)
460                         intr_assign_next_cpu(isrc);
461         }
462         mtx_unlock_spin(&intr_table_lock);
463 }
464 SYSINIT(intr_shuffle_irqs, SI_SUB_SMP, SI_ORDER_SECOND, intr_shuffle_irqs, NULL)
465 #endif