跳到主要內容

disable_irq() might be lazy in Linux kernel

在 Linux kernel 中,如果要 diable 某個 irq,會使用disable_irq(irq) 這個 API ,而這個 API 有一個有趣的實作:它有可能不會"真的"馬上在硬體上關閉該 irq ,而是到了下一次真的有該 irq 觸發時,才在 flow handler 中進行 disable。相關代碼如下:

252 void irq_disable(struct irq_desc *desc)
253 {
254         irq_state_set_disabled(desc); /* set SW status as disabled */
255         if (desc->irq_data.chip->irq_disable) {
256                 desc->irq_data.chip->irq_disable(&desc->irq_data); /* if registered irq_disable() callback, use it */
257                 irq_state_set_masked(desc);
258         } else if (irq_settings_disable_unlazy(desc)) {
259                 mask_irq(desc); /* if not disable lazy, mask it */
260         }
261 }
525 void handle_fasteoi_irq(struct irq_desc *desc)
526 {
527         struct irq_chip *chip = desc->irq_data.chip;
528 
529         raw_spin_lock(&desc->lock);
530 
531         if (!irq_may_run(desc))
532                 goto out;
533 
534         desc->istate &= ~(IRQS_REPLAY | IRQS_WAITING);
535 
536         /*
537          * If its disabled or no action available
538          * then mask it and get out of here:
539          */
540         if (unlikely(!desc->action || irqd_irq_disabled(&desc->irq_data))) {
541                 desc->istate |= IRQS_PENDING;
542                 mask_irq(desc);
543                 goto out;
544         }
545 
546         kstat_incr_irqs_this_cpu(desc);
547         if (desc->istate & IRQS_ONESHOT)
548                 mask_irq(desc);
549 
550         preflow_handler(desc);
551         handle_irq_event(desc);
552 
553         cond_unmask_eoi_irq(desc, chip);
554 
555         raw_spin_unlock(&desc->lock);
556         return;
557 out:
558         if (!(chip->flags & IRQCHIP_EOI_IF_HANDLED))
559                 chip->irq_eoi(&desc->irq_data);
560         raw_spin_unlock(&desc->lock);
561 }
562 EXPORT_SYMBOL_GPL(handle_fasteoi_irq);
一般情況下不會有問題,因為 ISR 被沒有被喚起,但是對於 suspend/resume flow就會有了影響。在 suspend flow,kernel 除了已經設定為 wakeup source 的 irq 外,都會透過 disable_irq() 將所有 irq 關閉:
 71 static bool suspend_device_irq(struct irq_desc *desc)
 72 {
 73         if (!desc->action || irq_desc_is_chained(desc) ||
 74             desc->no_suspend_depth)
 75                 return false;
 76 
 77         if (irqd_is_wakeup_set(&desc->irq_data)) {
 78                 irqd_set(&desc->irq_data, IRQD_WAKEUP_ARMED);
 79                 /*
 80                  * We return true here to force the caller to issue
 81                  * synchronize_irq(). We need to make sure that the
 82                  * IRQD_WAKEUP_ARMED is visible before we return from
 83                  * suspend_device_irqs().
 84                  */
 85                 return true;
 86         }
 87 
 88         desc->istate |= IRQS_SUSPENDED;
 89         __disable_irq(desc);
 90 
 91         /*
 92          * Hardware which has no wakeup source configuration facility
 93          * requires that the non wakeup interrupts are masked at the
 94          * chip level. The chip implementation indicates that with
 95          * IRQCHIP_MASK_ON_SUSPEND.
 96          */
 97         if (irq_desc_get_chip(desc)->flags & IRQCHIP_MASK_ON_SUSPEND)
 98                 mask_irq(desc);
 99         return true;
100 }
然而此時該 irq 沒有並真的 disabled,進而造成系統不斷被喚醒。解決方法倒也不難,就是在 intc driver 補 disable_irq() callback,或者per irq設定UNLAZY即可。這個設計應該是為了節省write intc register的時間,因為通常register access會比memory access多上一個數量級,所以只在真的還有下一次irq發生時再進行 disable 即可。不過我是很好奇到底可以省多少啊... @@

留言

這個網誌中的熱門文章

誰在呼叫我?不同的backtrace實作說明好文章

今天下班前一個同事問到:如何在Linux kernel的function中主動印出backtrace以方便除錯? 寫過kernel module的人都知道,基本上就是用dump_stack()之類的function就可以作到了。但是dump_stack()的功能是如何作到的呢?概念上其實並不難,慣用手法就是先觀察stack在function call時的變化(一般OS或計組教科書都有很好的說明,如果不想翻書,可以參考 這篇 ),然後將對應的return address一層一層找出來後,再將對應的function名稱印出即可(透過執行檔中的section去讀取函式名稱即可,所以要將KALLSYM選項打開)。在userspace的實作可參考Jserv介紹過的 whocallme 或對岸好手實作過的 backtrace() ,都是針對x86架構的很好說明文章。 不過從前面兩篇文章可以知道,只要知道編譯器的calling convention,就可以實作出backtrace,所以是否GCC有提供現成的機制呢?Yes, that is what __builtin_return_address() for!! 可以參考這篇 文章 。該篇文章還提到了其他可以拿來實作功能更齊全的backtrace的 程式庫 ,在了解了運作原理後,用那些東西還蠻方便的。 OK,那Linux kernel是怎麼做的呢?就是用頭兩篇文章的方式啦~ 每個不同的CPU架構各自手工實作一份dump_stack()。 為啥不用GCC的機制?畢竟...嗯,我猜想,除了backtrace以外,開發者還會想看其他register的值,還有一些有的沒的,所以光是GCC提供的介面是很難印出全部所要的資訊,與其用半套GCC的機制,不如全都自己來~ arm的實作 大致上長這樣,可以看到基本上就只是透過迭代fp, lr, pc來完成: 352 void unwind_backtrace (struct pt_regs * regs , struct task_struct *tsk) 353 { 354 struct stackframe frame ; 355 register unsigned long current_sp asm ( "...

淺讀Linux root file system初始化流程

在Unix的世界中,file system佔據一個極重要的抽象化地位。其中,/ 所代表的rootfs更是所有後續新增file system所必須依賴前提條件。以Linux為例,黑客 Jserv 就曾經詳細說明過 initramfs的背後設計考量 。本篇文章不再重複背景知識,主要將追蹤rootfs初始化的流程作點整理,免得自己日後忘記。 :-) file system與特定CPU架構無關,所以我觀察的起點從init/main.c的start_kernel()開始,這是Linux作完基本CPU初始化後首先跳進的C function(我閱讀的版本為 3.12 )。跟root file system有關的流程羅列如下: start_kernel()         -> vfs_caches_init_early()         -> vfs_caches_init()                 -> mnt_init()                         -> init_rootfs()                         -> init_mount_tree()         -> rest_init()                 -> kernel_thread(kernel_init,...) 其中比較重要的是mnt_int()中的init_rootfs()與init_mout_tree()。init_rootfs()實作如下: int __init init_root...

kernel panic之後怎麼辦?

今天同事在處理一個陌生的模組時遇到kernel panic,Linux印出了backtrace,同事大致上可以知道是在哪個function中,但該function的長度頗長,短時間無法定位在哪個位置,在這種情況下,要如何收斂除錯範圍呢?更糟的是,由於加入printk會改變模組行為,所以printk基本上無法拿來檢查參數的值是否正常。 一般這樣的問題會backtrace的資訊來著手。從這個資訊我們可以知道在function中的多少offset發生錯誤,以x86為例(從 LDD3 借來的例子): Unable to handle kernel NULL pointer dereference at virtual address 00000000 printing eip: d083a064 Oops: 0002 [#1] SMP CPU:    0 EIP:    0060:[<d083a064>]    Not tainted EFLAGS: 00010246   (2.6.6) EIP is at faulty_write+0x4/0x10 [faulty] eax: 00000000   ebx: 00000000   ecx: 00000000   edx: 00000000 esi: cf8b2460   edi: cf8b2480   ebp: 00000005   esp: c31c5f74 ds: 007b   es: 007b   ss: 0068 Process bash (pid: 2086, threadinfo=c31c4000 task=cfa0a6c0) Stack: c0150558 cf8b2460 080e9408 00000005 cf8b2480 00000000 cf8b2460 cf8b2460        fffffff7 080e9408 c31c4000 c0150682 cf8b2460 080e9408 00000005 cf8b2480       ...