contributed by < charliechiou
>
欲了解如何測試撰寫的程式,第一步便是閱讀原始程式中的內容。
從 Makefile 中可以理解到下列功能:
OBJS
中檔案連結 (Link) 並依照設定編譯成執行檔 qtest
,而 qtest 實際連結的檔案補充於後述。.c
編譯為 .o
檔driver.py
為了充分理解,我們需要進一步閱讀原始檔中所包含的程式,以整理出下手的方向。
作業要求為實做 a chain of circular queues ,從字面上意思可知並非實做單一一個 circular queue 而是使用 linked list 所串起的多個 circular queues ,因此我們大量使用到 list.h 中的 function 來完成 struct list_head
相關的操作,並參考你所不知道的 C 語言: linked list 和非連續記憶體來學習 Linux 核心中 linked list 的操作。
Commit : 8158079
q_new 主要目的是創造一個新的佇列供後續操作,先使用 malloc 分配記憶體空間,大小為sizeof(struct list_head)
。
進一步去了解 malloc 這樣看似操控硬體的程式碼是如何分配記憶體的?
點開 malloc 的定義後發現,原始碼中有將 malloc 定義為 test_malloc 重新導向成自定義的 malloc。
其中,使用了 alloc 來代替 malloc 的操作,原先的 malloc(sizeof(...))
被替換成 alloc(TEST_MALLOC, size)
。進一步查看 alloc 的操作,先確認目前是否是可以 malloc 的模式(i.e., 確認 noallocate_mode
),並使用 fail_allocation
來確認 alloc 是否正常,而 fail_allocation 會使用一個隨機的數字來模擬記憶體分配失敗的情況。
通過測試後便使用 malloc 分配記憶體,而這邊分配的記憶體則額外又分配了 block_element_t
作為其餘資訊使用。
查看 block_element_t
為記憶體附上的額外資訊
Commit : 2b1542c
和 q_new 相反, q_free 需要把所有佇列中的內容正確釋放。由於過程中會刪除目前的節點,因此會使用到前述所提到過的 list_for_each_safe
。
實作的過程中一直遇到本地端可以 make 且 q_free 的功能也正常,但要 git commit 時卻一直無法推送,錯誤訊息如下。
將程式碼做下列更動後便可順利推送至 github 。
分析錯誤原因在於程式碼未通過靜態分析。從改動中可以理解到, cppcheck 偵測到不需要使用 entry 作為變數,直接放在 free 的 function 裡面即可以減少記憶體浪費。
實作這部份時,和 EricccTaiwan 討論 list_del 的用途及 Linux 封裝資料的方式,作為開發過程的討論因此也紀錄於此。參考Linux 核心原始程式碼巨集: container_of 內提及的資料封裝方式,程式碼中 list_head
將 linked list 常用到的 prev
及 next
封裝,再藉由 container_of
巨集得知 list 個別節點的地址。
討論後我們認為,若未使用 list_del 直接 free ,會導致內部的 node 記憶體空間被釋放掉,但 prev 及 next 未被移除。相當於 linked list 中存在一個空的 list_head ,造成 ./qtest 及 make 都可以正常操作,但在需要 commit 時候無法通過 cppcheck 的靜態檢查。
Commit : bd3a1a7
重新檢視原始檔中 test free 的內容,在 free 的過程中已經將 node 移除了。
因此我將 list_del 從 q_free 中移除。
重新討論上述的結論後,發現上述部份的 unlink 是移除 block_element_t 的內容而非 linst_head 的內容,會有此誤解出自於自己沒有仔細閱讀過 test_free 及 test_malloc 的實作方式,以下補充自己閱讀後的理解。
當 queue.c 引入 harness.h 時,會透過 function hooking 把 malloc 及 free 替換成 test_malloc 和 test_free 。其所分配及釋放的記憶體結構如下:
透過結構中的 *next 及 *prev 會把所有分配的記憶體串連,同時利用 payload_size 儲存 payload 的大小,並透過 magic_head 及 magic_footer 標記 payload 的空間 ( magic_head 及 magic_footer 分別為 0xdeadbeef
和 0xbeefdead
)
而使用者也可以透過 find_footer 找到找到 magic number 的位置或透過 find_header 找到所份配記憶體的開頭,而 test_free 也是透過這個方式來將使用者傳入的 payload 位置反推結構體的空間。
因此,上面提到 test_free 已經移除掉 node ,實際上是對於 linst_head 和 block_element 這兩個 linked list 指標混淆導致。
Commit : 14954ff
q_insert_head 和 q_insert_tail 兩者實作細節類似,因此我將兩者開發紀錄一同紀錄並提交至 GitHub 上。前述提及過 malloc 和 INIT_LIST_HEAD 的使用,直接用類似的方式來分配記憶體。分類完成後需要將 function input 的 character 傳給 value 。
然而,這時候我發現自己並不確定應該使用 strcpy 或 strdup ?
分別查看兩者的原始程式碼,和 malloc 相同原始檔中也同樣有將 strdup 做檢查,使用 test_strdup
取代,由於前面敘述過 test_malloc 做檢查後用 memcpy 複製記憶體。
參考 stack overflow 上的討論 : strcpy vs strdup, strcpy 和while(*ptr2++ = *ptr1++)
等價,而 strdup 則和底下這兩行等價。
可以發現,差別僅在於 strdup 會自動分配需要的空間,而 strcpy 單純複製記憶體內容。因此對於這題實作來說,使用 strdup 會較為方便。
檢查完成是否正確複製 char *s
後,依照 insert_head 或 insert_tail 分別使用 list_add
及 list_add_tail 將其插入至 head 或 tail 。
Commit : bd9e352
同樣的, q_remove_head 和 q_remove_tail 兩者實作細節類似,我將兩者的開發紀錄及 Github commit 合併紀錄及推送。
remove_head 及 remove_tail 差別在於使用 list_first_entry 或 list_last_entry 來取得要移除的 element ,並使用 list_de 來移除,要注意的是在這邊是 remove 而非 delete 因此 element 僅是和 list 失去連結了,因此仍可以用於後續操作。(也同時不禁尋思 list_del 是否應該命名為 list_remove 而非 list_del ?)
判斷完需要複製的大小後 copy_size
,前述有提及過 strcpy 及 strdup 的差異,由於此處已經判斷過複製的大小了,因此使用 strcpy 即可。另一方面為了避免超出設定的 buffer size 因此而使用 strncpy 而非 strcpy ,並在最後補上 \0
作為結尾。
Commit : ea6c94d
由於無法通過 Test-17-complexity 的測試,我將 char *sp 的檢查和最一開頭的檢查分開,避免因為 sp 指標錯誤而導致無法移除 node 。
Commit : 501cc9c
雖然這樣能夠通過 Test-17-complexity ,但因為回傳值錯誤而導致無法正確釋放空間,改為回傳 first 後即可通過測試。
Commit : 656f662
q_size的部份參考老師課程講義來實作,原先的構想是使用 for 迴圈遍歷整個 linked list 來統計內部有多少元素。 參考 list.h 中已經定義好的 list_for_each ,可以更精簡的表示遍歷這個行為。同時,也注意到有 list_for_each_safe 及 list_for_each_safe 這兩個差異。
前者單純遍歷迴圈,後者在遍歷的過程中會先儲存下一個元素。對於統計佇列大小而言,使用 list_for_each 便足夠。
以上便完成 queue 基本的操作。
Commit : 913decf
Linked list 常使用快慢指標來完成內部指定位置 node 的查找,其分析可參考分析「快慢指標」一文。由於此處的 linked list 為環狀的,因此中止條件設定為 head 而非 NULL 。
Commit : 6e8c8be
在 cppcheck 的過程中遇到以下兩個問題,分別是 shadowVariable 及 constVariablePointer
shadowVariable 是由於我前面已經定義了 first 而後面 else if 中又重複定義一次,因此無法通過靜態測試。
將其更改為其他參數名稱後即可。
第二個問題是由於我後面並未更改到 second 這個變數,因此需要將其更改成 const 。
Commit : 1dfa41e
在兩個 node 互換時因為會改動到原先的 node ,因此這邊選擇使用 list_for_each_safe ,可以再次見到這個 function 的方便性。
Commit : bb0ae0c
同樣選擇 list_for_each_safe 來遍歷 node ,由於迴圈最後會停在倒數兩個 node ,因此在迴圈外額外再交換一次節點。
Commit : e5c1905
reverseK 最主要的想法是把 list 切成一段一段後把每一段反轉再拼接回去,因此會需要使用到 list.h 內部裁切跟拼接的 function 。先用 list_for_each 來將 tail 設在目標裁切點的後一個 node ,再使用 list_cut_position 做裁切。
裁切完後便使用前面的 q_reverse 做反轉 q_reverse(&tmp);
,接下來的問題便是要如何將 tmp 拼接回去?
在 list.h 中共有三種拼接的方式,列於底下
Commit : 00f619d
在排序的部份我使用了 merge sort,為了方便實作我選擇先把它轉為非環狀的 linked list 。
merge_sort_list 的部份則使用快慢指標來找到中間點,後將第一個及中間的 node 重複傳入 merge_list 來完成。
因此整個的順序為 : q_sort ( 決定 descend 或 ascend ) -> merge_sort (將 list 轉為 non-circular ) -> merge_two_list (遞迴呼叫 merge_list 來合併)
Commit : 4c63a68
類似題目有多種解法,可以用 stack 等方式來完成。因為原先的 linked list 是雙向的結構,因此我這邊選擇從後往前確認是否需要刪除,並額外紀錄最大/最小值。
由於原本 list.h 的操作方向是由前往後,因此參考 list_for_each_safe 的操作自行實作了一個由後往前的版本。
Commit : aab8d8b
q_merge 逐一比對需要合成的兩個佇列
若其中一個要合成的佇列已經空掉,則將剩餘的佇列全部接在尾端。
最後再把合成完成的 tmp 接回去原始的進入點。
在主程式部份,則是先計算需要的次數 int count = (size % 2) ? size / 2 + 1 : size / 2;
後再使用迴圈一個一個將兩個佇列合併。
參考 EricccTaiwan 實作內容,我也嘗試將我 merge_sort所使用到的 sort_list 使用在 q_merge 中,然而由於我在 merge_sort 中所使用到的合併方式是將 linked list 轉為非環狀的再實作,和 q_merge中直接搬移 node 的方法有蠻大落差,需要同時考量 merge_sort 及 q_merge 的使用才能更改,因此先列入 to do list 。
雖然在本地端能夠通過 make test ,但推送到雲端後無法完成檢測。
因此利用 vscode 的搜尋功能查找 const
尋找相關的 function ,發現除了 q_test
及測試 17 的程式碼外 fixture.c 也和常數時間的測量相關,下一步先進行論文的閱讀。
(To be done …)
使用 error 訊息 ERROR: Probably not constant time or wrong implementation
下去搜尋全部檔案,可以找到 is_insert_tail_const
函式會確認 insert 是否是 constant time,進一步點開 define 卻發現並沒有和過往一樣跳轉到函式中,反而跳轉到 define
從命名上可以看出是由 is_##x##_const 帶入 DUT_FUNCS 來完成一條 define 定義四個 function。但這邊又遇到為何是 ##
及為何是 _
的問題。
逐步拆解這邊的 define 方式
首先第一條 #ifndef DUDECT_FIXTURE_H
參考規格書中 6.10.1 關於 #ifndef
的說明
Preprocessing directives of the forms #ifdef identifier new-line groupopt #ifndef identifier new-line groupopt check whether the identifier is or is not currently defined as a macro name. Their conditions are equivalent to #if defined identifier and #if !defined identifier respectively.
可以了解到他是和後面一組的,透過這個 define 可以確認是否正確的使用 identifier並確保只會 define 一次,根據規格書的敘述,其相當於 #if !defined(identifier)
當程式碼已經 define 過一次便不會再重複使用後面的部份 #define DUDECT_FIXTURE_H
。
接著進到最看不懂的部份,先搜尋規格書中關於 ##
的說明,在 6.10.3.3 中寫到
If, in the replacement list of a function-like macro, a parameter is immediately preceded or followed by a ## preprocessing token, the parameter is replaced by the corresponding argument’s preprocessing token sequence; however, if an argument consists of no preprocessing tokens, the parameter is replaced by a placemarker preprocessing token instead.
因此如果某個參數的前面或後面緊接著 ##
,那麼該參數將被對應的 argument 所取代,然後與 ## 另一側的 token 進行拼接。
回頭檢視原本的程式碼才發現 _
其實是定義的 identifier,而 x 是輸入的參數,因此照著前述規格書的說明 ##
會把 is_
, x
, _const(void)
連在一起。
先定義好 _(x)
後,再使用 DUT_FUNCS
來定義每個函式,這邊也可以理解為何是使用 _(insert_head)
的形式了,和一般輸入函式的概念大同小異。
理解了先前不了解的 ##
及 _
後再進一部看是如何完成所有 define 的。
首先在第一行先將所有 DUT_FUNCS 透過 _(x)
解析成為
接著在第七行用同樣的方法定義 DUT(x),並在第十行同樣定義 _(x)
,因此第 11 行會展開成 DUT(insert_head)
,DUT(insert_tail)
,DUT(remove_head)
,DUT(remove_tail)
而每一個又會被第七行的 DUT(x) 展開為 DUT_insert_head
,DUT_insert_tail
, DUT_remove_head
, DUT_remove_tail
,至此完成所有展開。
接著實際測試展開的結果,
先建立一個檔案並在內部定義好前述的內容
按照先前的說明,在 enum 中應該會展開成對應的四個函式,使用指令讓 gcc 編譯過程停在 preprocess 的階段
檢視輸出檔案
可以看見 enum 內部確實被置換成對應的四個 function 。
Commit : d583e8b
論文內將 dudect 的實作分為三步驟
因此照著這個脈絡去查看dudect的原始碼。
程式碼中會先呼叫 dudect_init
作為初始化後再呼叫 dudect_main
來執行測試,以下是 dudect_main
的內容。
先透過 prepare_inputs 完成三步驟中的 measure execution time 。對應到作業原始碼中下列段落。
在 dudect 程式碼中有提到,它會丟棄第一次的執行結果並用 prepare percentile 取而代之。
但在作業原始檔中卻直接進行 update_statics 的測試。 因此我先將 update_statics 中的部份迴圈跳過
並把 dudect 程式碼中的 percentile 部份新增至作業原始檔案中。 由於原先的程式碼中輸入的是它封裝好的 class ,而作業中的 execute_time 則是 int64_t 因此同樣需要做改動。查看程式碼的說明,這段程式碼將 measurements 根據數據的分佈來排除極端值,因此能夠讓 time complexity 的測試更加穩定。
改動完重新推送到 github 便通過測試,但這部份我仍還沒徹底理解為何本地測試會通過但遠端無法。此外,在這部份實作我充分受益於 dudect 作者原始碼中的註解,更加體現了老師在課程講義中所提到的
任何人都可以寫出機器看得懂的程式碼 (在 Windows 檔案總管裡面,隨便選一個 EXE 檔,按右鍵複製,隨後再貼上即可),但我們之所以到資訊工程系接受訓練,為了寫出人看得懂、可持續維護和改進的程式
Valgrind 是一個可以在使用者層級 (user space) 對程式在執行時期的行為提供動態分析的系統軟體框架。
User space 及 Kernel space 差異參考維基百科所述,主要差異在於可存取的記憶體範圍不同,透過 Virtual memory 來區分兩個區塊避免一般程式在執行時修改到核心,而當 user space 中的程式需要使用到系統資源時則必須通過 system call 來達成。
Valgrind 在執行程式時,當程式碼執行到感興趣的階段會透過 just-in-time (JIT) 編譯技術把機械碼轉換成 IR ,在跳到對應的處理工具插入特定的分析程式碼在轉換回機寫碼繼續執行,因此在分析過程中會造成程式碼執行速度下降。
記憶體的處理方式在前述 q_free 有提及因此不再重複記錄,這邊實際使用 valgrind 搭配 mass-if 來實際觀察記憶體分配狀況。
首先先在環境中安裝所需要的視覺化工具 mass-if
並在 Makefile 中新增我們要測試的程式,這邊我們簡單使用 q_insert 來觀察 test_malloc 及 malloc 對記憶體的影響。
並複製並更改 trace-17-complexity.cmd 來製作 trace-massif.cmd 測試用的檔案。
接著便可使用剛剛加入到 Makefile 的命令來測試。
完成後會在資料夾中生成一個輸出檔案 massif.out.xxx
其中 xxx 是隨機的編號。接著便可使用 ms-print 或 massif-visualizer 來查看結果,這邊我們使用 ms-print 來查看。
先測試使用 test_malloc 的方法的輸出
而 mass-if 僅有在 heap allocation/deallocation 時才會 snapshot,參考說明文件三個用來表示得符號分別為
.
: normal snapshot@
: detailed snapshot#
: peak snapshot, only taken after a deallocation happens觀察其他輸出,可以發現 test_malloc 所使用到的記憶體高達 86.42%
而第二高的記憶體消耗為 test_strdup
接著將程式碼中原先 test_malloc 及 test_free 的部份改為 stdlib.h 的 malloc 再同樣確認結果。
同樣觀察前兩高的記憶體使用量,可以發現和前面使用 test_malloc 相比記憶體用量少了許多,這部份是由於 test_malloc 會額外在分配的記憶體前後安插其餘資訊,造成額外的記憶體開銷,詳細分配的原理可以參考前述 q_free 中的敘述。
參考 lab0(B) 中內容理解 linux 中 signal 的應用。
首先在 q_init 會註冊 SIGSEGV 和 SIGALRM 對應的處理常式 (handler),查閱 signal(7) 對應的處理分別是
Signal | Standard | Action | Comment |
---|---|---|---|
SIGSEGV | P1990 | Core | Invalid memory reference |
SIGALRM | P1990 | Term | Timer signal from alarm(2) |
當 precess 接受到 signal 時便必須放下工作執行對應的操作。因此
的操作分別表示若系統發生 Segmentation Fault 時必須跳到 sigsegv_handler 的處理,而系統超時則跳到 sigalrm_handler 處理。而後者的處理函式及對應使用到的函式如下
其中 trigger_exception 會設定 error message 並判斷是否 jmp_ready ,若從 siglongjmp 返回則只呼叫 report_event() 輸出錯誤訊息不終止程式。
這部份主要敘述 web.c 的運作流程。
首先透過 console.c 中 do_web 函式中的 web_fd = web_open(port);
開啟監聽。函式中使用 listenfd = socket(AF_INET, SOCK_STREAM, 0))
來建立一個 TCP (SOCK_STREAM) 的 IPv4 (AF_INET) socket 。
設定好相關的 serveraddr,參考 socket(2) 及 htonl(3p) 查閱這部份設定的內容。其中,AF_INET
表示使用 IPv4 protocal,而 htonl(INADDR_ANY)
則表示接收任何訊息,而htons
則表示接收的 port 。
再透過 bind
來綁定 socket 到特定的 IP 上,並透過 listen
持續監聽。
開啟監聽後透過 web_eventmux 來決定輸入是由終端機輸入或是 web 輸入,參考 select(2)的內容並對照程式碼。fd_set 為一個檔案描述符
fd_set A structure type that can represent a set of file descriptors. According to POSIX, the maximum number of file descriptors in an fd_set structure is the value of the macro FD_SETSIZE.
可透過FD_ZERO(&listenset);
先將其設定為 0
FD_ZERO() This macro clears (removes all file descriptors from) set.It should be employed as the first step in initializing a >file descriptor set.
後續便透過判斷server_fd
是否有來自網路的訊息來決定儲存的資料,並透過 FD_SET
將所要監聽的檔案描述符加入到 fd_set 中。
FD_SET() This macro adds the file descriptor fd to set. Adding a file descriptor that is already present in the set is a no-op, and does not produce an error.
並且透過 select
來監聽多個 fd , 參考 select(2) 的敘述 select 可以接收來自不同的輸入,且會阻塞 (blocking) 直到 listenset
變為 ready,而輸入後面的三個 NULL 則分別表示不監聽可寫入的 fd, 異常事件及超時,因此 result 會一直等到有輸入才繼續下一步。
select() allows a program to monitor multiple file descriptors, waiting until one or more of the file descriptors become "ready" for some class of I/O operation (e.g., input possible). A file descriptor is considered ready if it is possible to perform a corresponding I/O operation (e.g., read(2), or a sufficiently small write(2)) without blocking.
隨後,若判斷有接收到網路的訊息及 fd 已經設定,則透過 web_rev
來解析接收到的 url ,最後透過 wev_sed
回傳訊息,結束一次完整的傳輸。
開啟兩個終端機器後,其中一個執行 ./qtest 並輸入 web 以監聽 web 傳入的命令。
而令一個終端機使用 curl 來傳輸並透過 127.0.0.1:9999
連接到本地端及接口執行 new 命令
可以發現令一個終端機成功接收到 curl 傳來的命令
同樣的方式開啟瀏覽器並在網址列輸入,可以發現輸出錯誤訊息。
參考作業說明中解決 favicon.ico 問題來改進瀏覽器傳送命令所遇到的問題。
Commit : 0ca168e
由於部份網頁會要求 response 需要包含 favicon.ico ,因此 web.h 中需要更改回傳的內容。
從更改後的回傳中 Content-Type 可以了解到我們把它改為回應 html 檔案而非原先單純的回傳文字 ok ,同時我也在回應表單中加入 <h2>Success!</h2>
,當成功的時候則會在網頁顯示 Success !。
Commit : b6b1f27
因為更改了回傳的內容,因此使用終端機也同樣會跳出一大串 html 檔案的內容。
參考 How can I tell a curl request vs browser request 的內容,可以透過判斷 user-agent 來知道是 curl 或是 browser ,因此將原始檔做對應的修改。
將接收的 http_request_t 中增加對應的結構
並判斷接收的 buf 內是否有 User-Agent
,若有的話則存入 req 中
並增加 is_curl 參數判斷是否使使用 curl 並回應相對應的檔案
完成後若是從 curl 傳輸則會回傳
若是 browser 則是回傳
判斷完 user-agent 後,我發現使用 Edge 和 Firefox 網頁所回傳的資訊不相同。若使用 Edge 在網址列輸入 127.0.0.1:9999/it/1
會回傳兩次到 web server 中
而同樣的輸入在 Firefox 則只會回傳一次(第二條為 cache 不會回傳)
這樣的差異也造成如果是使用 Edge 來操作會導致 it 1 指令一次在佇列增加兩個 node ,這邊需要在討論兩個不同瀏覽器的差異。
Commit : 61a461a
使用 Fisher-Yates shuffle 來實作洗牌,每次從剩餘的部份中隨機抽取一個 node 後將其插入到最末端。
在測試過程中,由於 queue.h 不能做改動,因此在推送至 GitHub 時後我將 qtest 中相關的部份註解掉,並將 queue.h 中的定義移除。
Commit : 45f93eb
參考 lab0 提供的測試程式來測試。
將輸入存在變數 input
中並輸入到 subporecess 中,解碼輸出的 completedProcess
後得到 std 的輸出。透過 permute 來取得所有可能的組合並將洗牌後的結果對應的計數加一。
卡方測試期望值 為
後計算卡方值 並累加,其中公式內的 為觀測值
觀察輸出
所計算出的卡方值為 25.0098 ,由於共 24 總組合因此自由度為 23 並將顯著水準 alpha 設為常見的 0.05 ,對照卡方圖查詢 P-value 介於 0.1 至 0.9 大於顯著水準,因此不拒絕虛無假說()意味著樣本資料不拒絕 shuffle 的結果遵循 Uniform distribution。
進一步確認分佈如下,確實遵循 Uniform distribution 。
閱讀作業說明以理解亂度,作業中說明亂度的概念後提及可用 Shannon entropy 來計算資訊含量,公式如下。 其中 Self-information 的期望值為 計算公式如下 可見當一個事件發生的機率 上升,其包含的資訊量 便下降。透過將發生機率與資訊量相乘,便可計算出其期望值 以得知一個系統所攜帶的資訊量。
理解完上述的概念後,我進一步思考平常再做機器學習時所用到的 Cross-Entropy 的概念,其公式如下和 Shannon entropy 類似
對照前述的 Shannon entropy 公式,其中 是模型預測分佈,而 為真實分佈。因此若模型預測 越接近實際分佈,其 Cross-Entropy 會越接近 Shannon entropy ,藉此可得知模型的優劣。
我們可以使用 ent 來測試亂度,分別生成兩個檔案作為測試用的 txt 檔分別為
讀取 linux 內建的 PRNG 前 1024 位元
重複輸出 ABCDEF 的字串並且擷取前 1024 位元。
再使用 ent 測試,可以得到下列結果
File | Entropy | Chi square distribution |
---|---|---|
random.txt | 7.835973 bits per byte | 219.00 |
nonrandom.txt | 2.807348 bits per byte | 36425.50 |
可以了解到 random.txt 因為內容隨機因此每一位元所包含的資料量較大,反應在 Entropy 上,接近 1 byte 包含 8 bits 的資訊量。而 nonrandom.txt 的內容為重複的 6 個數字,因此每一個數字出現機率為 1/6 ,透過公式計算 和實際的測試結果吻合,表示 1 byte 僅攜帶約 2.8 bits 的資訊量。
由於我們使用了 1024 個位元,因此自由度為 參考 P-value from Chi sq test statistic in Python 計算P-value
可以得知前者數據為隨機的,而後者則否。
在 qtest 中執行 option entropy 1
並搭配 ih RAND 10
來觀察亂數的分佈,其輸出結果如下
其熵的計算是透過 shannon_entropy.c
來計算,因此需要檢視其程式碼細節。
計算過程中首先先將字串長度儲存在 count
變數中,並使用 bucket[256]
來儲存 256 個 ASCII 的內容,並初始化為 0 。
隨後計算 Shannon entropy
其公式和先前提及相同
完成計算後在將結果正規化至 100 %
以結果中第一個 fpdwgzckg(35.94%)
為例,計算每個數字出現的機率如下
words | times | probability | ||
---|---|---|---|---|
f | 1 | 1/9 = 0.1111 | -3.17 | 0.3522 |
p | 1 | 1/9 = 0.1111 | -3.17 | 0.3522 |
d | 1 | 1/9 = 0.1111 | -3.17 | 0.3522 |
w | 1 | 1/9 = 0.1111 | -3.17 | 0.3522 |
g | 2 | 2/9 = 0.2222 | -2.17 | 0.4822 |
z | 1 | 1/9 = 0.1111 | -3.17 | 0.3522 |
c | 1 | 1/9 = 0.1111 | -3.17 | 0.3522 |
k | 1 | 1/9 = 0.1111 | -3.17 | 0.3522 |
sum | 1 | 2.9476 |
總和為 2.9476,又因為使用 1byte 編碼 最大可包含的資訊量為 8bits,因此可透過下列公式正規化。
與程式計算大致吻合。
為了讀懂 linux 核心中 list_sort 的內容花了很長的時間研究,主要困難處有以下幾點
list_sort 為了避免 cache thrashing 因此將合併:不合併維持在 2:1,換句話說當有 個節點時,會合併前面兩個 變為 。以 k=3 為例,表示目前有 個節點,會將前面兩組 8 () 個節點的部份合併為 16 () 個節點。而我們以 pending 來儲存已經合併的節點數,因此當 pending 數量來到 時便需要進行合併。
為了判斷合併時機,使用 count 來紀錄 pending 內部的節點數,當節點數為 的時候便需要進行合併。
count 變化 | count 二進位 | merge | pending 上的節點 |
---|---|---|---|
0 1 | 0000 0001 | no() | 1 |
1 2 | 0001 0010 | no() | 1 1 |
2 3 | 0010 0011 | yes | (2) 1 |
3 4 | 0011 0100 | no() | 2 1 1 |
4 5 | 0100 0101 | yes | 2 (2) 1 |
5 6 | 0101 0110 | yes | (4) 1 1 |
6 7 | 0110 0111 | yes | 4 (2) 1 |
7 8 | 0111 1000 | no() | 4 2 1 1 |
8 9 | 1000 1001 | yes | 4 2 (2) 1 |
9 10 | 1001 1010 | yes | 4 (4) 1 1 |
10 11 | 1010 1011 | yes | 4 4 (2) 1 |
11 12 | 1011 1100 | yes | (8) 2 1 1 |
12 13 | 1100 1101 | yes | 8 2 (2) 1 |
13 14 | 1101 1110 | yes | 8 (4) 1 1 |
14 15 | 1110 1111 | yes | 8 4 (2) 1 |
15 16 | 1111 10000 | no() | 8 4 2 1 1 |
觀察上述的表格,當 count = 時即表示 count 是偶數,此時最低位便會是0,而進行合併。因此這邊需要決定兩件事
前者透過確認 count 最低位是否為零決定,而後者則是透過移動 tail 來完成。回頭檢視程式碼如下
for 迴圈中會一次一次的左移 bits 並檢查最低位的是否為 0 ,當移動到最低位變為 0 時便停止迴圈,同時這時候 tail 也走到需要合併的位置。此時再透過確認 bits 是否為 0 來決定是否要合併。
當 count = 3 時,其二進位制為 0011 且不需要合併,for 迴圈會在執行兩次後碰到0,此時 bits 儲存 0 因此不進入 merge 的階段。
當 count = 4 時,其二進位制為 0100 且需要合併,for 迴圈仍未執行時便跳出,此時 bits 儲存 0100 因此進入 merge ,而此時 tail 位於 pending 的位置,因此從 pending 開始合併。
接著查看 merge 的實作,
這部份和過去使用 merge 的方法相同,要注意的便是 __attribute__((nonnull(2,3,4)))
及 cmp
的用法
參考 GCC online document 中 6.33.1 Common Function Attributes提到
The nonnull attribute may be applied to a function that takes at least one argument of a pointer type. It indicates that the referenced arguments must be non-null pointers.
表示 2,3,4 這幾個參數必須是 nonnull 的指標。
而 cmp
部份,實作如下
和平常使用比較不相同的地方,它多了一個 priv
用來傳入額外的資訊做檢查,進一部檢視 check 的內容。
可以發現這邊使用到一系列 KUNIT 的單元測試。(To be done… )
完成 merge 後便將下一個 list 的元素增加到 pending 中等待下一次的合併。
將所有 list 中的元素搬至 pending 後,再從尾端開始把所有 pending 內的元素兩兩合併,最後由 merge_final 建構回原本的雙向鍊結串列,至此完成 list_sort。
Commit : 4458440
理解程式碼後,將其複製至原先的 queue.c 中,並做簡單的修改去除 priv 這樣用於單元測試的參數,並將原先的 u8
改為 unsigned char
,最後保留我原先 merge_sort 所使用到的 compare function 即可在 queue.c 中使用 list_sort 。
TBD
老師於課堂中曾說過,即使是對於文字敘述簡單的修改都有提 Pull Request 的價值,而我過去也不曾提出過 PR。因此趁這次的作業練習提交 PR 的流程,以期待日後能夠在更大的專案做出貢獻。
與 EricccTaiwan 一同討論並提交這次的 patch
當編譯完成的 qtest 連續輸入五次錯誤後,會造成使用者即使輸入 quit 也無法退出終端機。如下圖所示
當輸入錯誤超過次數會將 quit_flag 設置為 true,進而導致 interpret_cmd 因為判斷 quit_flag == True
而直接返回 false。
這樣的錯誤導致程式碼會陷入無法跳出也無法執行其餘指令的困境,而當使用者使用 CTRL + c
則可能導致記憶體洩漏。
確認問題後我們第一個想法便是在指令達到上限後直接呼叫 do_quit
退出程式碼,由於原先的內容 do_quit
在 record_error
後面,因此會需要預先宣告函式。
提交 PR 後面便收到老師的回覆需要引入 helper function 來完成,因此我們引入 force_quit
讓 do_quit
及 record_error
可以做使用。
經過改動後,在使用者超過上限後便會直接退出 console。
同樣與 EricccTaiwan 一同討論並提交這次的 patch
這次的錯誤是在上一個 PR 修改時發現的,原先的 commit-msh.hook
會在 commit message 最後加入 change-id ,但若有 co-authored-by:
出現時會使 change-id 出現在 co-authored-by 之前,進而導致錯誤。
在這次的改動,我們修改了輸出 change-Id 的方法,先判斷 Co-authored-by: 的位置
如果並沒有 Co-authored-by 存在的話會直接輸出 change-Id,如果存在的話則將 footer 先輸出,再輸出 change-ID。
透過這樣的改動便可確保每次產生的 change-Id 都在 Co-authored-by 後面。
接著,我們發現不只 Co-authored-by 會有這樣的情況,其他如 Reported-by 也會有類似的情況,因此我們又提了一次 PR 來修正相關的問題。
前一次的 PR 主要透過 match 來比對是否有對應的字詞產生,
而這次要比對的較多,因此我們用類似的方法來比對所有字詞。
接著便收到老師的回覆
也因此才了解到 git-hook 有使用到正則化的表示方法來對應相關的字詞,我們可以透過修改
build_commit_trailer_regex
的內容來直接對應到要搜尋的詞。
先比對 git config
裡面有沒有設置對應的 trailer 如果有便存為trailers_by
使用它作為我們搜尋字詞的目標。並建立全域變數 TRAILERS_BY_REGEX
。
在測試後確定 Change-Id 會輸出於其他 footer 後方。
在確認我們 PR 的過程中,發現了實際上一般的 git config 是不會預先設定好 trailer 的,因此會導致我的 TRAILERS_BY_REGEX
永遠是空的,而無法正確的排序。
因此在這次的 PR 中我們定義了幾個 trailers 作為預設值
並將在老師的回覆中將原本的 trailer_test 用定義的全域變數擴充
此外,原先的寫法無法讀取到 awk 以外的內容,因此也同樣需要做修改
如此便能夠正確排序 footer,以下舉例修正後的作用。
原先commit message為
由於 Co-authored-by
及 Reported-by
是我們定義過的 trailer ,因此會被放置在最後面,而沒有定義過的 trailer 則會放在前面,在經過 git-hooker 後 commit-message 會如下,為排序過的版本。