跳到主要內容

Performance tuning in Python

最近與同事教調了一個自製的小型分散式系統的效能,該系統以 Python + Gearman 兜成,所以使用了幾個 Python 的工具去作 profiling。雖然用到的工具對 Python hacker 來說很基本,但我覺得有幾點記錄下來頗有價值:

  • 首先,這個系統有好幾台機器,其中一台是 gearman job server ,作為 job queue 的控管中心,其他台機器上有多個獨立的 process(gearman 中稱為 worker),每個 worker 從 job sever 收到要處裡的工作與資料,處理完後傳回給 job sever ,然後 job server 再繼續決定下一個 worker,概念上就跟 pipe 一樣, 只是分散到多台機器上同時執行而已,有興趣的朋友可以參考 gearman 的文件說明。問題來了,當 worker 的效能低落時,瓶頸在哪?要如何系統地判斷?
  • 一開始我們試著先簡化測試用例,以方便快速複製與測試。 首先,設計一個只從 job server 收資料,但完全不作事的 worker。從這個實驗我們發現,在我們的網路環境下,數MB的 raw data 便可能造成很大的延遲。所以應該修正這點就能改善。
  • 在 Python-gearman (gearman client 端的 Python 實現)中,我們發現每次從單一 job server 收取 4KB 的資料後,client 就會遷換到另一個 job server 收取另外一個 task 的 4KB 資料。這在資料量小時很合理,可以避免單一 worker 因服務某特定 job server 過久,而讓其他 job server 上的 task 飢餓。但在資料量的 throughput 為主要應用情境下,不斷地切換,只會造成不必要的浪費。所以我們將這個值往上調整到 64KB。
  • 在我們的簡單 worker 中,這個調整帶來十幾倍的改進,但套用複雜的 worker 時,依然沒有明顯改善,可見得瓶頸在我們的 worker 本身。所以便祭出 cProfile 來量測。量測結果發現,除了網路 IO 以外,其他多個 function 很平均地佔了數個百分比,但是多數是個位數,似乎沒有哪個是主要的瓶頸?
  • 有時,一圖值千金。我們為不好閱讀的 profile 檔案畫出 callgraph (推薦 Gprof2dot ),從圖形就可以很明顯地看出主要的問題集中在兩個以上的 functions,而那兩個 functions 底下分別呼叫的其他 functions 雖然都沒有佔據大比例的時間,但累加的效果卻相當驚人。針對個別 functions 以不同機制改善後,效能顯著提升數倍。
這次的經驗讓我再次確認幾個原則:
  1. 測試數據,不要用猜的。
  2. 不要輕易假定效能瓶頸只在一處。
  3. 簡單的測試用例有好處,但是並不能代表實際狀況。
  4. 善用成熟的工具。
當效能瓶頸在多處出現時,簡單的"一次僅改變一個地方"的原則需要調整,否則無法在修改一處後看到改善,就可能會誤以為修改到錯誤地方。善用工具可以幫助我們系統地進行此項工作,而不至於胡亂猜測。

留言

這個網誌中的熱門文章

誰在呼叫我?不同的backtrace實作說明好文章

今天下班前一個同事問到:如何在Linux kernel的function中主動印出backtrace以方便除錯? 寫過kernel module的人都知道,基本上就是用dump_stack()之類的function就可以作到了。但是dump_stack()的功能是如何作到的呢?概念上其實並不難,慣用手法就是先觀察stack在function call時的變化(一般OS或計組教科書都有很好的說明,如果不想翻書,可以參考 這篇 ),然後將對應的return address一層一層找出來後,再將對應的function名稱印出即可(透過執行檔中的section去讀取函式名稱即可,所以要將KALLSYM選項打開)。在userspace的實作可參考Jserv介紹過的 whocallme 或對岸好手實作過的 backtrace() ,都是針對x86架構的很好說明文章。 不過從前面兩篇文章可以知道,只要知道編譯器的calling convention,就可以實作出backtrace,所以是否GCC有提供現成的機制呢?Yes, that is what __builtin_return_address() for!! 可以參考這篇 文章 。該篇文章還提到了其他可以拿來實作功能更齊全的backtrace的 程式庫 ,在了解了運作原理後,用那些東西還蠻方便的。 OK,那Linux kernel是怎麼做的呢?就是用頭兩篇文章的方式啦~ 每個不同的CPU架構各自手工實作一份dump_stack()。 為啥不用GCC的機制?畢竟...嗯,我猜想,除了backtrace以外,開發者還會想看其他register的值,還有一些有的沒的,所以光是GCC提供的介面是很難印出全部所要的資訊,與其用半套GCC的機制,不如全都自己來~ arm的實作 大致上長這樣,可以看到基本上就只是透過迭代fp, lr, pc來完成: 352 void unwind_backtrace (struct pt_regs * regs , struct task_struct *tsk) 353 { 354 struct stackframe frame ; 355 register unsigned long current_sp asm ( "...

淺讀Linux root file system初始化流程

在Unix的世界中,file system佔據一個極重要的抽象化地位。其中,/ 所代表的rootfs更是所有後續新增file system所必須依賴前提條件。以Linux為例,黑客 Jserv 就曾經詳細說明過 initramfs的背後設計考量 。本篇文章不再重複背景知識,主要將追蹤rootfs初始化的流程作點整理,免得自己日後忘記。 :-) file system與特定CPU架構無關,所以我觀察的起點從init/main.c的start_kernel()開始,這是Linux作完基本CPU初始化後首先跳進的C function(我閱讀的版本為 3.12 )。跟root file system有關的流程羅列如下: start_kernel()         -> vfs_caches_init_early()         -> vfs_caches_init()                 -> mnt_init()                         -> init_rootfs()                         -> init_mount_tree()         -> rest_init()                 -> kernel_thread(kernel_init,...) 其中比較重要的是mnt_int()中的init_rootfs()與init_mout_tree()。init_rootfs()實作如下: int __init init_root...

kernel panic之後怎麼辦?

今天同事在處理一個陌生的模組時遇到kernel panic,Linux印出了backtrace,同事大致上可以知道是在哪個function中,但該function的長度頗長,短時間無法定位在哪個位置,在這種情況下,要如何收斂除錯範圍呢?更糟的是,由於加入printk會改變模組行為,所以printk基本上無法拿來檢查參數的值是否正常。 一般這樣的問題會backtrace的資訊來著手。從這個資訊我們可以知道在function中的多少offset發生錯誤,以x86為例(從 LDD3 借來的例子): Unable to handle kernel NULL pointer dereference at virtual address 00000000 printing eip: d083a064 Oops: 0002 [#1] SMP CPU:    0 EIP:    0060:[<d083a064>]    Not tainted EFLAGS: 00010246   (2.6.6) EIP is at faulty_write+0x4/0x10 [faulty] eax: 00000000   ebx: 00000000   ecx: 00000000   edx: 00000000 esi: cf8b2460   edi: cf8b2480   ebp: 00000005   esp: c31c5f74 ds: 007b   es: 007b   ss: 0068 Process bash (pid: 2086, threadinfo=c31c4000 task=cfa0a6c0) Stack: c0150558 cf8b2460 080e9408 00000005 cf8b2480 00000000 cf8b2460 cf8b2460        fffffff7 080e9408 c31c4000 c0150682 cf8b2460 080e9408 00000005 cf8b2480       ...