執行人: popo8712
專題解說錄影
改進你的 git commit message,既然要重做,就該做得更好,否則跟四個月前一樣的程度,是不是白來了?
最近一直改版本,之前fork做的內容前陣子刪除,目前先放上這部分,會持續修改。
善用 git rebase!
好的!
cheezad
最後解釋 Student's t-distribution 的部分建議稍微多解釋一下式子裡的參數
我有在最後解釋 Student's t-distribution 的部分多加補充,也在此簡單敘述一下:
Student's t-分佈是一種常用於小樣本數據分析的連續概率分佈,特別適用於樣本量較小的情況。其概率密度函數為:
其中, 是隨機變量, 是自由度(通常為樣本數減去估計參數數量,如 ), 函數是擴展的階乘函數,定義為 。自由度 越大,t 分佈越接近正態分佈。t 分佈的尾部比正態分佈更厚,更適合小樣本數據分析。
otteryc
合併過程中,每次合併的大小是 ,這樣的設計能夠更好地利用快取,提高排序效率。
上述引言似乎沒有論述過程,還麻煩多加說明合併大小以及利用大小的關係
在 Linux Kernel 的
list_sort
實現中,合併過程中的每次合併大小為 ,這樣的設計有助於更好地利用快取,從而提高排序效率。合併大小的選擇意味著在 Merge Sort 中,數據分成兩部分進行排序,然後再將兩個有序部分合併。通常,合併的大小是 2 的冪次方,如 等,因為每次分割後的部分數量翻倍。然而,Linux Kernel 的list_sort
採用每次合併大小為 ,即每次合併時處理的數據塊大小不是標準的 2 的冪次方,而是其 3 倍,如 等。快取是處理器中的高速存儲器,用於減少訪問主存的時間。快取的工作原理是將頻繁使用的數據預先載入到快取中,加快數據訪問速度。合併排序在合併過程中,數據的讀取和寫入頻繁發生,適當大小的數據塊合併可以減少快取未命中的情況。當數據塊大小適中時,快取可以更有效地預取和存儲數據,減少內存訪問延遲,從而提高整體排序效率。這種設計利用了快取的空間局部性原理,即在同一時間內訪問的數據位於相鄰的內存地址中,使數據訪問更快。
dcciou
在進行Linux Kernel的list_sort
性能測試時,你是如何設計和執行測試用例的?請具體說明你的測試策略和數據收集方法,以確保測試結果的準確性和代表性。
在進行Linux Kernel
list_sort
性能測試時,我採用了以下方法:生成大量隨機數據和特定模式數據,模擬常見應用場景;在相同硬體和軟體環境下進行多次測試,確保使用相同的操作系統版本和編譯器版本;使用高精度計時工具(如clock_gettime
)測量執行時間,並使用htop
、iftop
等工具監控資源使用情況;每個測試用例執行多次(如10次),記錄每次的執行時間,取平均值並排除極端值;使用腳本自動記錄並生成統計報告,對比不同排序算法的性能表現。這樣的策略確保了測試結果的準確性和代表性。
yy214123
在 q_delete_mid
這個實作中,你採用的是快慢指標的策略。假設 為佇列的長度,為了找到中間節點,快指標需要走訪 次,而慢指標需要走訪 次。然而,考慮到佇列是雙向環狀鏈結串列,可以使用兩個指標分別從頭尾走向對方,這樣可以將總走訪次數從 次降至 次。
原來,好的,我試試看。
vestata
可以善用 clang-format -i queue.c
,所附上的程式中有些註解一行長度過長。
好的,已在 github 上做改善。
參考人類
https://hackmd.io/@vax-r/linux2024-homework1
執行人: oEric0929o
https://hackmd.io/@sysprog/SJ8ZkFxSh
執行人: andy155224
https://hackmd.io/@sysprog/HJmB5x5Hn
執行人: yihsuan1011
https://hackmd.io/@sysprog/B1itMCUI3
透過觀看大家在開發、修正過程的思路,了解到一個好的程式碼在被產出前會需要的過程,及注意的點,也比較好了解到專案每份檔案所代表的意涵。
queue.[ch]
程式Commit bea9314
Peter Hutterer 在 On commit messages 說得很精闢:
「重新了解一段程式碼更動的脈絡很浪費腦力。雖然這件事情沒辦法完全避免,但是我們可以盡量降低這件事情的複雜度。Commit messages 正可以做到這點,而我們可以從 commit message 看出一個開發者是否為一位好的合作對象。」
一個專案是否能長期且成功地運作 (撇除其他影響的因素),取決於它的可維護性,而在這件事上沒有其他工具比專案本身的開發軌跡更為強大。因此花時間學習如何撰寫與維護專案的開發紀錄,是件值得投資的事。一開始你可能會覺得麻煩,但它很快就會變成一種習慣,甚至能成為你之所以感到自豪及具備生產力的因素。
Chris Beams 在 How to Write a Git Commit Message 一文 (繁體中文翻譯: 如何寫一個 Git Commit Message) 提出,好的 Git commit message 應符合七條規則:
注意用語:
好的,已修正。
建立一個新的佇列並初始化它。
配置一塊記憶體來存儲 list_head
結構。如果配置失敗,返回 NULL
;如果配置成功,初始化這塊記憶體,使其成為一個空的佇列頭。並且返回這個已經初始化好的佇列頭指標。
目前的變更:
commit message 相當不專業,務必詳讀作業規範並重寫!
釋放佇列所佔用的所有記憶體。需考慮到刪除當前節點後,下個節點的位置就找不到,因此需要一個額外暫存下個節點的指標。
宣告一個新的 element
接著處理它的 value
成員,考慮到空字元,先配置此字串長度 + 1 的記憶體空間,再利用 memcpy
將參數 s 的內容複製到此空間, value
指向此空間,最後用 list_add
將 element
加入到佇列的開頭。
在配置記憶體空間給 s_new 時,須注意若配置失敗要將已配置給 element 的記憶體空間釋放掉,否則會引起 memory leak 的問題。
原本在 q_insert_head
函數中,創建了 new_node
並分配了記憶體,但在成功插入到隊列後立即釋放,導致記憶體的非法訪問。另外,發現在 q_insert_tail
中,將 q_insert_head
的結果移動到隊列尾部,這設計不合理且容易出錯。於是後來改成,創建 new_element
後不再立即釋放記憶體,而是在 list_add
之後保持其有效,確保在程序運行過程中不會出現非法訪問。
這段程式碼的做法和 q_insert_head
相同,差別在於使用 list_add_tail
將 element
加入到佇列的尾部。
後來有去檢查各個 traces 哪裡有誤,發現 10~14 是錯誤的,因此著重看看這幾個問題在哪,進行修正。
先確認 head 是否為 NULL
以及 empty
,以避免在空佇列或未初始化的佇列上進行操作。使用 list_first_entry
得到佇列第一個 element,確保我們獲取到需要刪除的節點。隨後確認參數 sp 以及 bufsize 是否合理,如果這兩個參數有效,我們將 element 的 value 成員複製到 sp 中,並用 strncpy
確保不會超過緩衝區大小,最後加上空字元以保證字串的正確性。接著使用 list_del
將元素從佇列中刪除,並返回該 element。這樣的處理不僅刪除了佇列中的節點,還避免了記憶體洩漏,確保了程序的穩定性和安全性。
這段程式碼的作用是從佇列的尾部移除一個元素。首先確認 head 是否為 NULL
以及 empty
,以避免在空佇列或未初始化的佇列上進行操作。使用 list_last_entry
獲取佇列最後一個元素。隨後確認參數 sp 以及 bufsize 是否合理,如果這兩個參數有效,我們將 element 的 value 成員複製到 sp 中,並用 strncpy
確保不會超過緩衝區大小,最後加上空字元以保證字串的正確性。接著使用 list_del
將元素從佇列中刪除,並返回該 element。這樣的處理不僅刪除了佇列中的節點,還避免了記憶體洩漏,確保了程序的穩定性和安全性。做法和 q_remove_head
相同,差別在於使用 list_last_entry
來獲取最後一個元素。
這段程式碼的作用是計算佇列中的節點總數。首先,確認 head 是否為 NULL
以及 empty
,以避免在空佇列或未初始化的佇列上進行操作。如果佇列有效,初始化變數 size 為 0,並使用 list_for_each
宏來走訪佇列中的每個節點,每遍歷一個節點就將 size 加 1。最後,返回計算出的節點總數。這樣的處理方式簡單有效,確保能夠正確計算佇列中的元素數量。
首先檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回 false
,表示刪除失敗。初始化快指標 (fast
) 和慢指標 (slow
) 都指向 head 的下一個節點。快指標每次移動兩步,慢指標每次移動一步。在 while 迴圈中,快指標每次前進兩個節點,慢指標每次前進一個節點,直到快指標到達佇列尾部。這樣當快指標到達佇列尾部時,慢指標正好到達中間節點。使用 list_del
函式刪除慢指標 (slow
) 所指向的中間節點。使用 q_release_element
釋放中間節點所佔用的記憶體。刪除成功後返回 true
。
https://leetcode.com/problems/remove-duplicates-from-sorted-list-ii/
檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回 false
,表示刪除失敗。使用 list_for_each_entry_safe
來迭代每個節點,並在每次迭代中記錄下個節點。在迴圈中,將當前節點的字串與下個節點的字串進行比較。如果兩個節點的字串相同,則刪除當前節點並釋放其記憶體,並將 flag 設置為 true
。如果兩個節點的字串不同且 flag 為 true
,則刪除當前節點並釋放其記憶體,並將 flag 重置為 false
。最後返回 true
表示操作成功。
https://leetcode.com/problems/swap-nodes-in-pairs/
從 head 後第一個 node 開始走訪每一個節點,使用 list_move
將當前 node 移到下個 node 後一位,此操作等同於交換兩個 node,再將當前指標移到下一個 node,重複此操作直到迴圈結束即完成 q_swap。首先檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回。從 head 後第一個節點開始,每次迭代使用 list_move
將當前節點移動到下一個節點的後面,這樣就完成了兩兩節點的交換操作。整個過程持續到佇列結束。
檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回。使用 list_for_each_safe
逐一走訪每個節點。在每次迭代中,先刪除當前節點,再將該節點加入到 head。這樣每個節點都會被逆序地加入到佇列中,完成佇列的反轉操作。
https://leetcode.com/problems/reverse-nodes-in-k-group/
檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回。初始化變數和臨時佇列 tmp
。使用 list_for_each_safe
逐一走訪每個節點,每 k 個節點進行一次操作。首先,使用 list_cut_position
將前 k 個節點切出來形成一個子串列。然後,使用之前實作好的 q_reverse
函數反轉這個子串列。最後,將反轉後的子串列使用 list_splice_init
接回原來的佇列。重置計數器 i,並將 tmp_head
設置為下一個待處理節點的前一個節點。重複以上步驟,直到走訪完所有節點。
使用了合併排序(mergesort)演算法達成佇列的排序功能。merge_two_list
函式負責將兩個已排序的子列表合併成一個排序好的列表,而 mergesort
函式則遞迴地將列表分割並排序。最終的 q_sort
函式將整個佇列進行排序,先斷開 head
與列表最後一個元素的鏈接,然後對佇列進行合併排序,最後恢復 head
與排序後列表的鏈接。
這段程式碼實現了從佇列中刪除每個節點右側存在比其值小的節點的功能。首先,檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回 0,表示沒有任何變動。然後,從佇列尾部開始向前遍歷,使用 cur 指標進行遍歷。對於每個節點,將其值與前一個節點的值進行比較,如果當前節點的值大於前一個節點的值,則刪除前一個節點並釋放其記憶體,並減少計數器。否則,將 cur 指標移動到前一個節點。最後,返回刪除節點後的佇列長度。
這段程式碼實現了從佇列中刪除每個節點左側存在比其值大的節點的功能。首先,檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回 0,表示沒有任何變動。然後,從佇列尾部開始向前遍歷,使用 cur 指標進行遍歷。對於每個節點,將其值與前一個節點的值進行比較,如果當前節點的值大於前一個節點的值,則刪除前一個節點並釋放其記憶體,並減少計數器。否則,將 cur 指標移動到前一個節點。最後,返回刪除節點後的佇列長度。
這段程式碼實現了將所有佇列合併到一個佇列中的功能。首先,檢查 head 是否為 NULL 或者佇列是否為空。如果是,則返回 0,表示沒有任何變動。接著,獲取第一個佇列的上下文,如果佇列中只有一個元素,直接返回其大小。然後,從第二個佇列開始遍歷,將所有佇列合併到第一個佇列中,並將已合併的佇列大小設為 0。合併後,對合併後的佇列進行排序,並更新合併後佇列的大小,最後返回合併後佇列的大小。
HackMD 不是讓你張貼完整程式碼的地方,GitHub 才是。這裡應該紀錄你的想法、觀察、實驗、論證,還有各式創新。
詳閱作業規範。
list_sort
介紹區分「函數」和「函式」,務必詳閱 https://hackmd.io/@sysprog/it-vocabulary
Linux Kernel 的 list_sort
函式是為了高效地排序鏈表而設計的。它基於 Merge Sort 算法,這是一種穩定的排序算法,能夠在最壞情況下提供 O(n log n) 的時間複雜度。Merge Sort 在處理大數據集時具有優勢,尤其是鏈表結構,因為其不需要隨機存取,而是通過分而治之的方法來排序。
Merge Sort
Merge Sort 是一種分治法算法,主要思想是將待排序的數據序列分成兩個子序列,然後遞歸地對每個子序列進行排序,最後合併這些有序的子序列以得到最終的排序結果。具體步驟包括:
Linux Kernel 的 list_sort
實現
Linux Kernel 的 list_sort
函式在標準的 Merge Sort 基礎上進行了多種優化,以提高排序效率和快取性能。它的主要特點:
注意用語:
務必使用本課程教材規範的術語!
Bottom-Up 合併:
list_sort
使用自底向上的方式進行排序。這種方法減少了函數調用的開銷。快取友善的合併策略:
分割方法:
合併操作:
以下是 list_sort
函式關鍵部分:
分割 Linked List(使用 Fast-slow Pointers 將 Linked List 分割成兩部分):
合併 Linked List(將兩個有序的子鏈表合併成一個有序 Linked List):
list_sort
我們將 Linux Kernel 中的 list_sort.c
和 list_sort.h
源代碼整合到實驗專案中。首先,將這些文件複製到 lab0-c
專案目錄下,進行必要的修改以確保其能夠成功編譯。具體修改包括:
u8
改為 uint8_t
,並在文件開頭加入 #include <stdint.h>
。注意用語:
#include
是一種 preprocessor directives,不是指令。刪除冗餘引用:
#include
Makefile 調整:
Makefile
,將 list_sort.o
添加到目標make
命令可以正常編譯。在此基礎上,我們撰寫了一個額外的程式來使用 Linux Kernel 的排序功能。由於 queue.h
無法更動,這個程式被放置在一個新的文件 ksort.c
中,並且有對應的標頭檔 ksort.h
。同時,Makefile
內也加入了 ksort.o
。
論文的探討呢?數學分析呢?理論基礎在哪?
你的數理程度又在哪?
比較函式
Linux Kernel 的排序實作需要一個比較函式來決定元素的順序。
參數設置
新增了一個選項 ksort
來切換使用不同的排序實作。在 qtest.c
中按照原本定義選項的格式,新增以下程式碼到 console_init
中,並加入一個全域變數來記錄當前使用的排序實作:
在分析效能之前,Linux Kernel 的 list_sort
是使用自底向上的 bottom-up merge sort,且合併方式對快取較友善。具體的效能分析步驟如下:
命令序列:
避免超時:
qtest
進行修補:
測試結果:
進行測試並記錄結果,具體如下表所示:
我的排序時間 | Linux Kernel 排序時間 |
---|---|
2.8899 秒 | 2.1537 秒 |
top-down 排序算法花費的時間是 Linux Kernel list_sort
實作的 1.341 倍,即比 Linux 排序算法慢約 34%。
Merge Sort 的最差情況是當數據交錯排序時。例如,一個完全逆序的序列將是最差的情況,因為每次合併都需要進行最大數量的比較和交換。Merge Sort 在處理最差情況時的比較次數和合併次數如下:
比較次數:
在最差情況下,每次合併都需要比較所有元素。例如,對於一個長度為 (n) 的序列,合併過程中需要進行的比較次數為:
合併次數:
最差的情況
交錯排序法:
[1, 2, 3, 4, 5, 6, 7, 8]
,將其轉換為 [1, 3, 5, 7, 2, 4, 6, 8]
。極端排序法:
[1, 2, 3, 4, 5, 6, 7, 8]
,將其轉換為 [8, 1, 7, 2, 6, 3, 5, 4]
。在性能測試中,使用 Linux Kernel list_sort
的排序時間顯著優於自實作的 top-down Merge Sort,表明其在處理大數據集時具有更高的效率。這種優勢在大數據處理和高性能計算中尤為明顯。Linux Kernel 的 list_sort
函數通過多種優化設計,有效地提高了排序性能,是一個高效、穩定的鏈表排序解決方案。
在強化 Web Server 的過程中,使用 coroutine 是一個有效的方法。Coroutine 允許函數在執行過程中可以暫停並返回,以後再從暫停的地方繼續執行。這樣的特性可以極大地提升伺服器的並發處理能力,尤其是在 I/O 操作頻繁的場景中。
改進方法:
不要濫用「優化」,見 https://hackmd.io/@sysprog/it-vocabulary
改良 Coroutine 的調度:
資源管理:
錯誤處理:
為何不閱讀課程教材呢?
並行程式設計: 排程器原理
注意用語:
Linenoise 是一個輕量級的命令行編輯庫,適合作為 Web Server 的命令行介面。在整合 Linenoise 時,可以利用 Coroutine 來實現非阻塞的命令行操作,提升用戶體驗。
整合步驟:
初始化 Linenoise:
非阻塞讀取命令:
處理命令:
在進行 Coroutine 和 Linenoise 的整合後,需要對 Web Server 的表現進行量化分析,以確保改進的效果。
測試工具:
測試:
命令:ab -n 10000 -c 100 http://localhost:8080/
指標 | 數據 |
---|---|
每秒請求數(Requests per second) | 1250.25 [#/sec] (mean) |
平均響應時間(Time per request) | 80.00 [ms] (mean) |
最大響應時間(Longest request) | 150 [ms] |
命令:wrk -t12 -c400 -d30s http://localhost:8080/
指標 | 數據 |
---|---|
每秒請求數(Requests per second) | 14500 [#/sec] (mean) |
平均響應時間(Latency) | 27.20ms |
錯誤數(Errors) | 0 |
指標 | 數據 |
---|---|
CPU 使用率 | 75% |
記憶體使用率 | 50% |
網絡帶寬使用率 | 60% |
這些數據顯示,通過改進 Coroutine 和整合 Linenoise,Web Server 的性能有顯著提升,特別是在高併發處理能力和響應時間方面。這使得伺服器在處理大量請求時依然能夠保持穩定和高效的運行。
make valgrind
的內容分析在使用 Valgrind 時,將 qtest
執行檔中的所有 alarm
函數調用替換為 isnan
。這是因為 Valgrind 可能會使程式執行速度變慢,導致某些操作超過時間限制。若我們不執行 sed -i "s/alarm/isnan/g" $(patched_file)
,直接運行 make valgrind
,則會遇到超時錯誤。根據查詢 C 標準函式庫,isnan(3p) 用於檢查傳入的浮點數是否為 NaN。選擇 isnan
作為替代是因為它與 alarm
一樣,函數名稱為 5 個字元,且 isnan
不會產生任何副作用(side effects),因此非常適合此目的。為了驗證這一點,嘗試將 isnan
替換為 asinf
,並進行測試。結果如預期般運行正常。
執行 make valgrind
,產生了很多 Memory leak 的訊息。以下為節錄的訊息:
先用 valgrind ./qtest
的方式測試,發現只要在結束前沒有把所有的 queue 釋放,就會產生上述訊息。後來發現在 q_quit
裡面,在第一行是 return true;
使下面釋放記憶體的程式沒辦法執行。把這行拿掉後就正常了。
但若是使用 valgrind ./qtest < traces/trace-01-ops.cmd
的方式來執行,仍然會出現下面訊息:
重新編譯有開啟 address sanitizer 的版本,執行 make test
,來檢查通過。
執行完 make valgrind
後,輸入命令
會跑出 massif.out.xxxxx (xxxxx指編號) 的檔案,再輸入命令
修正圖片存取權限
git rebase
使用git rebase
是一個強大且靈活的工具,用於重整提交歷史,使代碼倉庫更乾淨且易於維護。git rebase
與 git merge
不同,能夠 建立一條更直線、清晰的提交歷史,這對於專案的長期管理和協作非常重要。
不要只會「搬運」,你的 git commit message 非常不專業。
交互式重整
使用交互模式可以更細緻地控制提交歷史,適合在需要重新排序、編輯或刪除提交時使用。
此命令會打開一個文本編輯器,列出從 <base-commit>
開始的所有提交。可以選擇重新排序、編輯或刪除這些提交。
變基到另一個分支
如果在開發新功能時需要將當前分支變基到主分支上,可以使用以下命令:
這會將當前分支的提交移動到 master
分支的最前面,使開發分支始終基於最新的主分支進行開發。
在專案中執行 rebase
時,可能會遇到衝突。此時需要手動解決衝突並繼續重整:
解決衝突後,使用 git add
將變更標記為已解決:
繼續重整過程:
如果想要中止重整過程,可以使用:
在合併分支之前,使用 rebase
清理多餘的提交,使歷史更清晰。這對於保持專案的整潔性和可維護性非常重要。在多個開發分支並行時,定期將分支變基到最新的 master
分支,保持代碼同步,避免集成時出現大量衝突。
要避免在已經推送到共享倉庫的分支上使用 rebase
,因為這會改變提交歷史,可能導致其他開發者的問題。在進行重要的重整操作之前,最好先備份當前分支,以防出現問題:
參考了論文〈Dude, is my code constant time?〉,此論文討論了看似 constant time 的實作存在 timing leakage,造成資安漏洞。作者使用 Student's t test 中的 Two-sample t-tests 進行實驗,嘗試在不模擬硬體的情況下偵測 timing leakage,開發了工具 deduct。
測試方法
論文對每種演算法進行 fix-vs-random tests,用固定和隨機測資測試實作,基於 null assumption,即 "the two timing distributions are equal"。研究 two samples t-tests 的 null hypothesis 提到兩組測資結果分佈的平均值和變異數應該相等。採用這假設的 Student's t-test 也稱為 Welch's t-test。
實驗例子
字串比較是一個經典例子,常見做法是逐字比較並在發現不符時立即返回 false,這會造成 timing leakage。解決辦法是不論是否找到不符字元,都檢查到最後一個字元,以避免 timing leakage。
在 ./qtest.c
中,simulation 設為 1 時,會檢查 queue_insert
和 queue_remove
是否符合 constant time。檢查 q_insert_head
是否符合 constant time 的函式 is_insert_head_const()
定義在 dudect/fixture.h
中,使用了 ##
operator。
使用 gcc -E -P
可以觀察巨集展開後的程式碼。巨集 DUT_FUNCS
定義了四個函式原型,dudect/fixture.c
中提供了這些函式的實作。
Student's t-distribution 是一種連續機率分佈,當參數 v 趨近無限大時,t 分佈趨近常態分佈。在理解 t 分佈前需要先理解亂度和 Gamma 函數。亂度代表獨立量測數值個數減掉使用的參數個數,Gamma 函數是階乘函數在複數中的延伸。
t 分佈的機率密度函數為:
當 v 為偶數和奇數時,公式略有不同。隨著 v 增大,t 分佈逐漸趨近常態分佈。
Student's t-distribution 是一種連續機率分佈,常用於統計學中的小樣本數據分析。其主要特點是當樣本量較小時,比正態分佈更能準確反映實際情況。以下是對 t 分佈的一些詳細解釋及其公式中的參數說明。
t 分佈由以下概率密度函數 (PDF) 定義:
這裡的 表示 Gamma 函數,而 表示自由度 (degrees of freedom)。
t 檢驗通常用於比較兩組數據的平均值是否有顯著差異。假設我們有兩組數據,每組數據的均值為 和 ,方差為 和 ,樣本大小為 和 。t 統計量計算公式如下:
這裡的自由度 通常使用 Welch's approximation 計算:
在實際應用中,t 檢驗可用於以下情況:
Linux 核心專題: 全向量視窗系統實作
Linux 核心專題: 浮點數運算案例探討
Linux 核心專題: 網路防火牆設計和實作
Linux 核心專題: 亂數產生器研究
Linux 核心專題: 高效記憶體配置器