contributed by < willwillhi1
>
先閱讀你所不知道的 C 語言: linked list 和非連續記憶體
可以發現程式中的 head
為上圖的 Head
Node0,1,2… 為 element_t
利用 malloc
一個 list_head
並命名為 head
,接著判斷是否成功執行 malloc
後用 INIT_LIST_HEAD
來對 head
初始化,也就是把 head->next
,head->prev
指向 head
用迴圈走訪整個佇列,並且 free 掉走過的點。
改進上述漢語表達
malloc
一個 element_t
物件叫做 node
,然後用 strdup
配置空間給 node->value
後將 s
複製過去,最後用 list_add
把 node
插入到佇列的開頭
與 q_insert_head
相似,把 list_add
改成 list_add_tail
去除佇列的第一個元素,sp
為一個已配置空間的字元陣列,bufsize
為其長度。先用 list_del
去除第一個元素,再用 strncpy
把去除元素的 value
複製到 sp
中。
與 q_remove_head
相似,把 head->next
改成 head->prev
如果佇列為空或只有 head
就回傳 0,之後用 list_for_each
走訪整個佇列計算 node 數量
宣告 first
為 head->next
, second
為 head->prev
,用 while
迴圈判斷 first
和 second
是否相遇,若還沒則兩個各走一步,直到相遇時 first
代表中間點,之後便用 list_del
把其從佇列中去除,然後再 free
掉該 node
先確認佇列是否為空。宣告兩個 element_t
指標 N1
,N2
,N1
代表目前沒有重複的最後一個點,N2
代表目前重複的數的第一個點
接著就是判斷 N2->value
是否等於 N2->next->value
,若是則刪除 N2->next
直到不相同為止,最後再把重複的 N2
刪除
N1
和 N2
並非恰當的命名。if (head == NULL)
改為更簡短的 if (!head)
strcmp(..) == 0
改為更剪短的 !strcmp(...)
isdup
判斷是否需要刪除目前的節點 first
first->value
等於 second->value
所以把 first
刪除 以及把 isdup
設成 true
接著來因為 isdup
等於 true
,所以把 first
刪除後,再把 isdup
改回 false
確認 head
是否為 NULL
或佇列是否為空,用 first
,second
代表要交換的一組 node
,下方第 9 到 14 行進行交換,接著就把 first
,second
指到下一組 node
,直到 first
或 second
等於 head
為止
確認 head
是否為 NULL
或佇列是否為空。初始化 first = head
,second = head->next
,接著互換 first
的 prev
和 next
(8, 9 行),最後 11, 12 行是跳到下兩個節點,直到 first != head
,也就是佇列裡的 prev
,next
都被換過
最初的想法是用之前實作的 q_reverse
來寫,也就是把整個佇列分成每次以 k
個點為單位進行反轉。
首先利用 q_size
找出佇列的長度,然後除以 k
得到 times
代表共要做幾次 q_reverse
。
在每次的反轉裡,都會從原佇列切出來長度為 k+1
的佇列,first
,last
代表該切割出來的佇列的頭尾節點。front
,end
用來記錄該切割下來的佇列在原本佇列的前後節點,用來把反轉後的佇列接回去原佇列。
以下圖為例假設 k = 3,且要反轉點 1
,2
,3
,所以 first
會在 head
上,last
在 3
,front
,end
分別記錄該切割下來的佇列的前後點是 6
跟 4
。
改進你的漢語表達
head_list
: tmp
和 result
,本來想用 malloc
,但是這次作業好像禁止用,所以改用 LIST_HEAD
。k
個節點作反轉,只不過這次會先透過 list_cut_position
把這 k
個節點移到 tmp
上,反轉後把 tmp
用 list_splice_tail_init
接到 result
的尾端且初始化 tmp
。result
用 list_splice_init
接到 head
開頭。參考 你所不知道的 C 語言: linked list 和非連續記憶體 的 merge sort
的實做。
實作共三個函式 q_sort
,mergesort
,mergelist
對 mergesort
輸入的佇列如果只有一個節點或空則直接回傳,接著把輸入的佇列分成兩半,然後對這兩個佇列做 mergesort
,mergesort
會把這兩個佇列排序。
最後對這兩個已排序的佇列用 mergelist
合併。
mergelist
用 pointer to pointer
的概念來做合併,縮短程式碼長度。
避免張貼過長的程式碼,畢竟 HackMD 是紀錄和討論的協作環境,你應該摘錄關鍵程式碼。實作後應提出改進事項。善用 qtest
內建的 time
命令,觀察你撰寫程式的行為。
node
的翻譯是「節點」,而非「點」
q_sort
將原本被拆開的節點重新連結起來
再這之後我利用雙向鏈結串列的特性,改寫 mergesort
用快慢指標找中間節點的作法,改成從頭尾開始去找,這樣便可以從共需要走訪 1.5
次佇列到只需要 1
次即可。
接下來我用 qtest time
去作效能測試,可以發現效能有明顯的提高
改進前 | 改進後 | |
---|---|---|
100000 筆 | 1.140 | 0.123 |
200000 筆 | 0.288 | 0.277 |
300000 筆 | 0.472 | 0.449 |
400000 筆 | 0.652 | 0.622 |
500000 筆 | 0.824 | 0.797 |
600000 筆 | 1.024 | 0.968 |
700000 筆 | 1.219 | 1.189 |
800000 筆 | 1.409 | 1.351 |
如果點 a 的右邊有比它的值還大的點就要把點 a 移除。
關於 q_descend
的回傳值可以去 qtest.c
找,在 do_descend
裡可以看到這行
表示 q_descend
要回傳佇列的長度。
因為是雙向鏈結串列,所以可以從尾端開始走訪,在走訪的過程中若發現下一個點的值小於等於當前的點的值就移除。
用 make test
進行測試時,發現之前的實作有誤,移除的點還要用 q_release_element
釋放空間。
改進漢語表達
queue_contex_t
是用來管理與其他佇列連接的結構,這邊的輸入 list_head *head
代表 list_head chain
的 head
。
實作程式的想法是參考你所不知道的 C 語言: linked list 和非連續記憶體: 案例探討: LeetCode 21. Merge Two Sorted Lists 的 Merge k Sorted Lists 的部分。
因為在文中有提到直觀的想法是用第一條佇列接上剩下的佇列,這樣會導致第一條佇列愈來愈長,立即會遇到的問題是:多數的情況下合併速度會愈來愈慢。
所以我採用的方法是 分段合併
第一層 for
迴圈數等同 ,裡面的 while 迴圈裡則是做兩兩合併的操作,first
是第一個要合併的佇列,second
是第二個要合併的佇列,merge_two_list
會把兩個佇列合併,然後把結果存到 first
並回傳合併後佇列的長度,接下來把 NULL
賦值給空的 second
然後移到 head
的尾端,用來當作 while
迴圈的中止條件,最後 first
和 second
往下移一個節點繼續做合併。
更新實作:
因為 second->q = NULL
會造成 memory leak
所以改寫 q_merge
的 while
迴圈
以及把 merge_two_list
函式裡面的
改成
在 console.h
可以發現以下
add_cmd
會在命令列表中添加新命令,要新增一條新命令 shuffle
則要實作 do_shuffle
,並在qtest.c
的 console_init()
替新命令加上 ADD_COMMAND
。
qtest
裡的 do_shuffle
:
目前只有檢查輸入的佇列是否為空或只有一個節點
q_shuffle
要去 queue.h
新增
shuffle 的實作分成兩個函式: q_shuffle
和 swap
在實作 swap
時要注意 :
node_1
總是在 node_2
之後list_move(node_2, node_1_prev)
,因為 node_1_prev
等於 node_2
,如果做了 list_move(node_2, node_1_prev)
會把 node_2
這個節點移除。我的 q_shuffle
的想法是按照 Fisher–Yates shuffle 提供的演算法:
new = last->prev
是最後一個未被抽到的節點,
old
是 random
出來的節點,
將 old
和 new
交換,再將 size
減一,直到 size
變為零為止。
接下來利用腳本去測試對 [1, 2, 3]
執行 shuffle
的結果
可以從結果看到 shuffle
的結果分佈大致上是 Uniform distribution
。
先看到函式宣告的部分
__attribute__((nonnull()))
: compiler
提供的 attribute function
,可以指定該函式傳入第幾個變數必須是 non-null
,否則會發出警告。prev
: private data
,cmp
的參數。head
: 整個 list
的 head
。cmp
: compare function
, 用來決定 sorting order
,是 function pointer
的型態。list_sort
函式
註解的部分跟老師的筆記大致相同
主要是在做 merge
時,會將走訪過的節點維持在 2:1
的比例,其中 2
代表兩個已經排序過的佇列, 1
代表新進來尚未排序的節點,也就是走訪到 3∗2^k
個 node 時才合併前面的兩個 2^k
sub-list
。
這種作法在 3∗2^k
個節點能夠完全放進 cache
中的情況下能夠避免 cache thrashing
的發生。
接下來就是程式碼的部分:
先把整個 list
的最後一個點的 next
指向 NULL
:
count
從零開始,代表 pending list
節點個數,每次加入一個節點到 pending list
就加一。
配合前面的 merge
時機,只要該次迴圈的count
到 count+1
時,若 count+1
為 2k 就不做 merge
,反之則要做 merge
。
舉例來說:
0011 -> 0100
,不做 merge
。0010 -> 0011
,做 merge
。由上述可以歸納出(以 0 ~ 16 為例)只要 count
= 0000, 0001, 0011, 0111, 1111
都不做 merge
。
接下來的程式用圖來舉例說明:
pending
: 為 head of pending lists ,而 pending lists 是用於暫存待合併的 sub-list of lists,每一個 sub-list 的 size 都為 power of 2 的倍數,並且各個 sub-list 以 prev 連結。tail
: 指標的指標,會指向 pending 裡準備要合併的 sub-list,要合併的 sub-list 是由 count 決定。list
: 目前走訪到的 node。這邊舉個例子,由於不熟 grapgviz
,所以先用 drawio
畫圖,之後有空會補。
以實際例子來說,如果要排序一個佇列(4->1->2->3),可以邊對照下方表格邊看圖解。
count 變化 | count 二進位 | merge | pending 上的節點 |
---|---|---|---|
0 -> 1 | 0000 -> 0001 | no() | 1 |
1 -> 2 | 0001 -> 0010 | no() | 1 + 1 |
2 -> 3 | 0010 -> 0011 | yes | (2) + 1 |
3 -> 4 | 0011 -> 0100 | no() | 2 + 1 + 1 |
count
為零,所以第一個迴圈的 count
變化為 0 -> 1
,看表可以知道不用做 merge
,把 pending
和 list
往後讀一個節點。下圖為此次迴圈做到最後的結果。count
變化為 1 -> 2
,所以也不用做 merge
,所以 pending
和 list
往後讀一個節點。最後整個佇列會如下圖:count
變化為 2 -> 3
, 要做 merge
。tail
會指向 pending
的 address,
所以在執行下程式時 a
會在上一張圖的在 1
,b
在 4
,之後便是做 merge
。merge
會回傳合併之後的 head
並指派給 a
,在本例中就是下圖的 1
。a->prev = b->prev
中 b->prev
就是指向下一個 sub-list
的 head
,本例中因為這就是第一個了所以是 NULL
。*tail = a
就是把 pending
指到 a
,也就是 1
。
此時的 list
指向下圖的 2
,pending
指向下圖的 1
,經過以下的運算可以得到下圖:
count
的變化為 3 -> 4
,不做 merge
,所以跟前幾個相同,pending
和 list
往後讀一個節點。list
等於 NULL
,所以跳出迴圈list
指到與 pending
相同的節點後,pending
往前移一個節點。
for
迴圈,next
指到 pending->prev
也就是下一個 sub-list
的 head
,如果 next != NULL
就做對 pending
和 list
做 merge
,然後 pending
指到 next
所指的節點也就是下一個 sub-list
的 head
。for
迴圈因為 next
等於 NULL
,所以跳出迴圈,對 pending
和 list
做 merge_final
,此函式會先把最後的兩個佇列合併後,再把 prev
重建回來。先在 qtest.c
用 add_param
新增 parameter
enable_linux_list_sort
是在 qtest
宣告的全域變數
接下來修改部份 do_sort
程式:
這樣就可以透過以下命令來切換要用哪個 sort
接下來先修改 queue.h
其中 likely 和 unlikely
可以在 compiler.h 找到
接下來是 queue.c
中的 compare
函式
接下來比較的方式用 perf
來做測試
參考 blueskyson 的方式
在 lab0-c
新增 perf-traces
目錄,裡面放了:
前面的數字代表要幾個隨機字串,以 100000.cmd
為例
以下是我的實驗結果:
linux list sort
的效能因為 cache miss
的次數明顯低於我實作的 merge sort
,所以執行時間也比較快。發現在使用兩次以上的 new
後再做 free
會進入無限迴圈。
利用 GDB+pwndbg 作測試,可以發現程式在 is_circular
這個函式無限迴圈
繼續往下看可以發現是在做 do_free
裡的 q_show
的 is_circular
進入無限迴圈的
最後仔細檢查可以發現 q_free
裡的
¤t->chain.next
不用加 &
結果發現 sysprog/lab0-c 已經修正該錯誤了。
實際去對 trace-03-ops
的每個指令去作測試,發現在對兩個 new
出來的佇列做 merge
時會跳出上述的問題,因此我推測是 merge
有什麼地方寫錯,後來發現 q_merge
裡的 while
迴圈的 second->q = NULL
是不對的。預期的輸出是若有兩個佇列 a
和 b
要和併到 a
,把 b
的所有節點移到 a
時也要把 b
做初始化的動作,也就是要保留 second->q
,所以如果直接做 second->q = NULL
會造成 memory leak
的問題。
重新修改程式後順利排除記憶體的所有問題
論文連結
dudect Github
參考
這篇論文的貢獻是,透過自己開發的 dudect,一個透過統計分析的程式判斷程式是否是 constant-time 在給定的平台之下。
實作可分為以下步驟:
Classes definition
: 給定兩種不同類別的輸入資料,重複對方法進行測量,最常見的就是 fix-vs-random testsCycle counters
: 現今的 CPU 提供的 cycle counters 可以很精準的獲得執行的時間。Environmental conditions
: 為了減少環境的差異,每次測量都會對應隨機的輸入類別。Cropping
: 剪裁掉一些超過 threshold 的測量結果Higher-order preprocessing
: Depending on the statistical test applied, it may be beneficial to apply some higherorder pre-processingt-test
: Welch’s t-test,測試兩個平均數是否相同Non-parametric tests
:(無母數統計分析): Kolmogorov-Smirnovpercentile
的處理,但在 lab0-c
則無。」。所以我去對照發現 lab0-c
的 fixture.c
確實沒有實作,造成極端值沒有被去除,導致判斷結果出錯。percentile
的部分加入 lab0-c
的 fixture.c
後便可以正確分析 insert_head
, insert_tail
, remove_head
, remove_tail
的執行時間。