跳到主要內容

bug、慣性與旁觀者


工程人員最怕遇到隨機出現的bug,尤其是IC廠的軟體工程師,既要懷疑自己的軟體流程,又要同時有能力區分是否為IC bug(因為硬體出錯的機率相較於PC平台來說高出很多...)。最近面對一個bug,竟然花了兩週的時間才整個釐清並解決...事後自己反省,覺得有很多值得改善的地方。

問題是這樣的:當系統開機時,發現我負責的模組在約40s~50s左右會隨機的timeout,或遭遇奇怪的錯誤情況,最後讓整個系統當掉。

由於單獨模組都已經通過了壓力測試,所以我第一個反應就是先檢查硬體。觀察了外部訊號,但沒有發現任何異樣。接著觀察相關registers,發現掛掉的時候讀到了非常奇怪的數值。由於該數值是controller直接從DRAM獲得,所以有可能是DRAM不穩嗎?不對,因為幾乎每次都掛在我這邊,如果是DRAM不穩,那應該到處都會著火。

那麼,是bus上出問題嗎?一想到這,心就涼了半截...但還是硬著頭皮觀察IC內部bus訊號(AHB signal,嗯,你不用在乎這是什麼 XD)結果,真的發現在發生問題時,bus signal非常的異常。這下designer緊張了,這可能會影響到是否已下單的wafer是否全部泡湯的問題。於是,一堆人開始出主意:有沒有試過ooo、有沒有試過xxx、#$%︿&**(!...

由於出意見的人都是有掛頭銜的,所以往往都要先確認他們的意見是否成立。嗯,這是我犯的第一個大錯:

花了太多時間應付長官的要求,而非處理事情的本質。

由於長官並不那麼清楚整個始末,但又因為可能是大問題,所以自然吸引人們出意見。但是我應該在當時就說明清楚,而不是默默承受無釐頭的要求(懂得何時說"No"就跟懂得何時說"Yes"一樣重要)。嗯...總之,這樣一個禮拜就過去了,客戶也開始著急了起來,質疑什麼問題需要一週還沒任何結論。

接著,長官們沒想法後,總算可以開始自己的實驗,很快地發現某個模組只要一發生錯誤,我的部份再過幾秒後就出問題。所以將重點移到該模組。詢問該模組負責人相關流程後,對於為何會出錯也很納悶,畢竟...嗯,他自己單獨跑也是經過了好幾天的測試...好了,所以問題是出在兩者間的交互作用導致bus出問題嗎?於是我們開始了這兩個模組的co-sim, FPGA CVT...這邊則是我的第二個錯誤:

在進行之前已作過的實驗之前,應先確認目前流程與之前的差異。

笨蛋往往會重複已經重複過的事情,但有趣的是:程式設計師有時會自動變笨蛋。XD

又過了幾天,依然無法在單純的環境複製出來,在無計可施的情況下,於是我抓了對方的code來研究一下,不看還好,一看暈倒...原來在他的模組發生問題時(某種有趣的條件下),過了一段時間,driver對bus bridge做了reset...只因為該模組的名稱與bridge的名稱差幾個字母,於是敲錯了...對bus bridge reset自然就會讓當時在bus動作的模組死得奇奇怪怪...這邊我犯了第三個錯誤:

基於莫名的code所有權觀念,我自覺不該隨意質疑別人的code。

但是這在健康的團體中,是不應該存在的。code是大家共有的。尤其在發生問題時,應該透過理性,並且客氣的方式進行討論與review。如果我們能更早地向對方簡述自己的程式流程(小鴨debug法?),這種問題應該在第一時間就抓到。

隨著工作經驗的增長,發現自己仍然需要針對許多處理事情的行動細節加以改善。這次的失誤,就當作給自己的警惕,並且為久旱的blog添點水分。 :-)

留言

這個網誌中的熱門文章

誰在呼叫我?不同的backtrace實作說明好文章

今天下班前一個同事問到:如何在Linux kernel的function中主動印出backtrace以方便除錯? 寫過kernel module的人都知道,基本上就是用dump_stack()之類的function就可以作到了。但是dump_stack()的功能是如何作到的呢?概念上其實並不難,慣用手法就是先觀察stack在function call時的變化(一般OS或計組教科書都有很好的說明,如果不想翻書,可以參考 這篇 ),然後將對應的return address一層一層找出來後,再將對應的function名稱印出即可(透過執行檔中的section去讀取函式名稱即可,所以要將KALLSYM選項打開)。在userspace的實作可參考Jserv介紹過的 whocallme 或對岸好手實作過的 backtrace() ,都是針對x86架構的很好說明文章。 不過從前面兩篇文章可以知道,只要知道編譯器的calling convention,就可以實作出backtrace,所以是否GCC有提供現成的機制呢?Yes, that is what __builtin_return_address() for!! 可以參考這篇 文章 。該篇文章還提到了其他可以拿來實作功能更齊全的backtrace的 程式庫 ,在了解了運作原理後,用那些東西還蠻方便的。 OK,那Linux kernel是怎麼做的呢?就是用頭兩篇文章的方式啦~ 每個不同的CPU架構各自手工實作一份dump_stack()。 為啥不用GCC的機制?畢竟...嗯,我猜想,除了backtrace以外,開發者還會想看其他register的值,還有一些有的沒的,所以光是GCC提供的介面是很難印出全部所要的資訊,與其用半套GCC的機制,不如全都自己來~ arm的實作 大致上長這樣,可以看到基本上就只是透過迭代fp, lr, pc來完成: 352 void unwind_backtrace (struct pt_regs * regs , struct task_struct *tsk) 353 { 354 struct stackframe frame ; 355 register unsigned long current_sp asm ( "

淺讀Linux root file system初始化流程

在Unix的世界中,file system佔據一個極重要的抽象化地位。其中,/ 所代表的rootfs更是所有後續新增file system所必須依賴前提條件。以Linux為例,黑客 Jserv 就曾經詳細說明過 initramfs的背後設計考量 。本篇文章不再重複背景知識,主要將追蹤rootfs初始化的流程作點整理,免得自己日後忘記。 :-) file system與特定CPU架構無關,所以我觀察的起點從init/main.c的start_kernel()開始,這是Linux作完基本CPU初始化後首先跳進的C function(我閱讀的版本為 3.12 )。跟root file system有關的流程羅列如下: start_kernel()         -> vfs_caches_init_early()         -> vfs_caches_init()                 -> mnt_init()                         -> init_rootfs()                         -> init_mount_tree()         -> rest_init()                 -> kernel_thread(kernel_init,...) 其中比較重要的是mnt_int()中的init_rootfs()與init_mout_tree()。init_rootfs()實作如下: int __init init_rootfs(void) {         int err = register_filesystem(&rootfs_fs_type);         if (err)                 return err;         if (IS_ENABLED(CONFIG_TMPFS) && !saved_root_name[0] &&                 (!root_fs_names || strstr(root_fs_names, "tmpfs"))) {          

kernel panic之後怎麼辦?

今天同事在處理一個陌生的模組時遇到kernel panic,Linux印出了backtrace,同事大致上可以知道是在哪個function中,但該function的長度頗長,短時間無法定位在哪個位置,在這種情況下,要如何收斂除錯範圍呢?更糟的是,由於加入printk會改變模組行為,所以printk基本上無法拿來檢查參數的值是否正常。 一般這樣的問題會backtrace的資訊來著手。從這個資訊我們可以知道在function中的多少offset發生錯誤,以x86為例(從 LDD3 借來的例子): Unable to handle kernel NULL pointer dereference at virtual address 00000000 printing eip: d083a064 Oops: 0002 [#1] SMP CPU:    0 EIP:    0060:[<d083a064>]    Not tainted EFLAGS: 00010246   (2.6.6) EIP is at faulty_write+0x4/0x10 [faulty] eax: 00000000   ebx: 00000000   ecx: 00000000   edx: 00000000 esi: cf8b2460   edi: cf8b2480   ebp: 00000005   esp: c31c5f74 ds: 007b   es: 007b   ss: 0068 Process bash (pid: 2086, threadinfo=c31c4000 task=cfa0a6c0) Stack: c0150558 cf8b2460 080e9408 00000005 cf8b2480 00000000 cf8b2460 cf8b2460        fffffff7 080e9408 c31c4000 c0150682 cf8b2460 080e9408 00000005 cf8b2480        00000000 00000001 00000005 c0103f8f 00000001 080e9408 00000005 00000005 Call Trace:  [<c0150558>] vfs