--- tags: LINUX KERNEL, LKI --- # Linux 核心搶佔 > 資料整理: [jserv](https://wiki.csie.ncku.edu.tw/User/jserv) ## 何謂搶佔 (preemptive)? ![](https://i.imgur.com/h6MLxbU.png) 在一個以優先權為主的排程策略中,當一個新的行程 (上圖的 Task~2~) 進入到「可執行」(running) 的狀態,核心的排程器會去檢查它的優先權,若該行程的優先權比目前正在執行的行程 (即上圖的 Task~1~) 還高,核心便會觸發搶佔 ([preempt](https://www.dictionary.com/browse/preempt)),使得正在執行的行程被打斷,而擁有更高優先權的行程則會開始執行。 > 1. to occupy (land) in order to establish a prior right to buy. > 2. to acquire or appropriate before someone else; take for oneself; arrogate: > a political issue preempted by the opposition party. > 3. to take the place of because of priorities, reconsideration, rescheduling, etc.; supplant: The special newscast preempted the usual television program. > :notebook: 漢語「[搶佔](https://lib.ctcn.edu.tw/chtdict/content.aspx?TermId=22670)」沒有顯著「優先權」的意涵 早期 Linux 核心不支援核心搶佔,這會引發以下問題: * 在 Linux v2.6 之前,當一個行程從使用者模式進入核心模式後,其他的行程只有等到已處於核心模式的行程在退出核心模式後,才有機會執行,這樣就會致使非預期的延遲。 * 若一個低優先權的行程在執行 critical section (CS) 時,中途被打斷,這會使得同樣需要進到該 CS 的高優先權行程被迫暫停,這可能會造成優先權反轉。 因此,搶佔的存在是為了讓更高優先權的任務,得以有更低的延遲 (latency),從而提高系統的即時 (real-time) 能力。 > 延伸閱讀: [Linux 核心設計: PREEMPT_RT 作為邁向硬即時作業系統的機制](https://hackmd.io/@sysprog/preempt-rt) ## 搶佔何時發生? 在 Linux 核心中,使用者層級的搶佔是由被搶佔者行程 A 及搶佔行程 B 共同完成。示意如下: ![](https://i.imgur.com/7W49gUK.png) > 行程 B 有較行程 A 更高的優先權,因此我們說 Process B preempts A 這不是字面上,由行程 B 單方面奪走 CPU 的使用權,而是行程 B 在確認具有搶佔資格後,藉由行程 A 的 `TIF_NEED_RESCHED` 旗標,告知行程 A 其需讓出 CPU 的使用權,待行程 A 執行到搶佔點時,會檢查該旗標,來選擇自己是否有權繼續執行,若發現旗標已被設定,則觸發重新排程 (reschedule,簡稱 `resched`),讓排程器選擇具有更高優先權的行程執行。整體流程如下: 1. 行程 B 進入可執行的狀態 2. 核心檢查行程 B 的優先權 3. 若其優先權高於正在執行的行程 A,則設定行程 A 的 `TIF_NEED_RESCHED` 旗標 4. 當行程 A 執行到搶佔點時,檢查其 `TIF_NEED_RESCHED` 旗標,若該旗標已設定,則觸發重新排程,而若是核心層級的行程,除了檢查旗標,還要再檢查 `preempt_count` ### 何時設定 `TIF_NEED_RESCHED` ? #### 1. 目前行程執行完被分配的時間後 在目前行程執行完被分配的時間後,若遲遲沒讓出 CPU,則由計時器中斷觸發搶佔,其處理函式如下: ```cpp void scheduler_tick(void) { int cpu = smp_processor_id(); struct rq *rq = cpu_rq(cpu); struct task_struct *curr = rq->curr; ... curr->sched_class->task_tick(rq, curr, 0); ... } ``` 計時器中斷處理函式會取出目前 CPU 正在執行的行程的 `task_struct`,並呼叫其排程器類別的 `task_tick()` 函式,之後呼叫的流程如下: > `task_tick()` $\to$ `entity_tick()` $\to$ `update_curr()` 其中 `update_curr()` 會更新正在執行的行程的 `vruntime`,之後會由 `entity_tick()` 函式呼叫 `check_preempt_tick()` 來觸發搶佔。 #### 2. 新喚醒的行程優先權高於正在執行的行程時 Linux 核心共提供三個函式來喚醒行程,分別是: * `wake_up_new_task()`: 用來喚醒新的行程,例如 `fork` 出來的行程 * `wake_up_process()`: 用來喚醒處於 `TASK_NORMAL` 狀態的行程 * `wake_up_state()`: 用來喚醒指定狀態的行程 而最後二者都會呼叫到 `try_to_wake_up()` 函式,之後呼叫的流程如下如下: > `try_to_wake_up()` $\to$ `ttwu_queue()` $\to$ `ttwu_do_activate()` $\to$ `ttwu_do_wake_up()` 在 `wake_up_new_task()` 及 `ttwu_do_wake_up()` 函式中,皆呼叫 `check_preempt_curr()` 函式,其內容如下: ```cpp void check_preempt_curr(struct rq *rq, struct task_struct *p, int flags) { if (p->sched_class == rq->curr->sched_class) rq->curr->sched_class->check_preempt_curr(rq, p, flags); else if (p->sched_class > rq->curr->sched_class) resched_curr(rq); ... } ``` 可見,若搶佔者行程及被搶佔行程的 `sched_class` 相同,則會呼叫相對應排程器類別的 `check_preempt_curr()`,根據不同的排程器類別來決定是否搶佔,而若搶佔者行程的排程器類別的優先權高於被搶佔行程,則會無條件呼叫 `resched_curr()` 函式來設定 `TIF_NEED_RESCHED`。 而在個別排程類別中,以下以 fair 類別為例: ```cpp static void check_preempt_wakeup(struct rq *rq, struct task_struct *p, int wake_flags) { ... if (unlikely(task_has_idle_policy(curr)) && likely(!task_has_idle_policy(p))) goto preempt; ... if (wakeup_preempt_entity(se, pse) == 1) { if (!next_buddy_marked) set_next_buddy(pse); goto preempt; } return; preempt: resched_curr(rq); ... } static int wakeup_preempt_entity(struct sched_entity *curr, struct sched_entity *se) { s64 gran, vdiff = curr->vruntime - se->vruntime; if (vdiff <= 0) return -1; gran = wakeup_gran(se); if (vdiff > gran) return 1; return 0; } ``` 在 fair 排程類別中,共有兩種情況會發生搶佔: 1. 目前正在執行的行程為 IDLE 行程,且搶佔者行程並非 IDLE 行程時 2. 當兩個行程的 `vruntime` 差值大於 `gran` 時 最終呼叫 `reshced_curr()` 函式來設定 `TIF_NEED_RESCHED` 旗標。 ### 何時設定 `preempt_count` ? 對於核心層級的行程而言,搶佔不僅要檢查 `TIF_NEED_RESCHED` 外,還需要檢查 `preempt_count` 是否為 `0`:只有在 `preempt_count` 為 `0` 時,才能觸發搶佔。為此,核心提供一系列的巨集來設定及檢查 `preempt_count`。 ```cpp #define preempt_count_add(val) // preempt_count 增加 val #define preempt_count_sub(val) // preempt_count 減少 val #define preempt_count_inc() // preempt_count 遞增 #define preempt_count_dec() // preempt_count 遞減 #define preempt_disable() // 禁止搶佔且 preempt_count 遞增 #define preempt_enable() // 開放搶佔且 preempt_count 遞減 #ifdef CONFIG_PREEMPTION #define preempt_enable() \ do { \ barrier(); \ if (unlikely(preempt_count_dec_and_test())) \ __preempt_schedule(); \ } while (0) ``` 在 `preempt_enable()` 中,會用 `preempt_count_dec_and_test()` 巨集來檢查 `preempt_count` 是否為 `0`,如果是則會呼叫 `__preempt_schedule()` 來觸發排程。 核心程式碼較少直接使用 `preempt_enable()` 或 `preempt_disable()`,相對更常使用 lock,而我們知道,只要不是 `PREEMPT_RT` (以下簡稱 `RT`) 的核心組態,spinlock 不能被打斷,其實就是在 lock 時使用 `preempt_disable()` ,並於 unlock 時使用 `preempt_enable()`,換言之,每次使用 spinlock 結束時,會預設觸發一次搶佔。 ## 何時執行搶佔? ### 使用者層級執行搶佔 一般的使用者行程可被搶佔的地方較為固定,主要是: #### 1. 系統呼叫結束 在系統呼叫結束後,準備返回使用者模式時會進行檢查,以 x86 架構為例,其系統呼叫的流程如下: > `do_syscall_64()` $\to$ `syscall_exit_to_user_mode()` $\to$ `exit_to_user_mode_prepare()` $\to$ `exit_to_user_mode_loop()` 其中 `exit_to_user_mode_loop()` 的函式內容如下: ```cpp static unsigned long exit_to_user_mode_loop(struct pt_regs *regs, unsigned long ti_work) { while (ti_work & EXIT_TO_USER_MODE_WORK) { local_irq_enable_exit_to_user(ti_work); if (ti_work & _TIF_NEED_RESCHED) schedule(); ... } ``` 可見,若 `TIF_NEED_RESCHED` 旗標被設定,便會觸發排程。 #### 2. 中斷結束 當中斷結束,準備返回到使用者模式時,會執行下方一系列函式: > `irqentry_exit()` $\to$ `irqentry_exit_cond_resched()` `irqentry_exit_cond_resched()` 之函式內容如下: ```c void irqentry_exit_cond_resched(void) { if (!preempt_count()) { /* Sanity check RCU and thread stack */ rcu_irq_exit_check_preempt(); if (IS_ENABLED(CONFIG_DEBUG_ENTRY)) WARN_ON_ONCE(!on_thread_stack()); if (need_resched()) preempt_schedule_irq(); } } ``` 可見若 `preempt_count` 為 `0` 且需要重新排程時,便會呼叫 `preempt_scheule_irq()` 函式。 在 Linux 中,許多中斷處理會拆分成以下二部分: * top-half: 由硬體決定何時觸發,應該儘可能及早結束執行 * bottom-half (簡稱 `bh`): 由 top-half 來排程,實際執行時機要等所有等待中的 top-half 都處理後,才會開始 以時間順序來看是這樣: ![](https://i.imgur.com/pWdK12F.png) 以處理層級來看則是: ![](https://i.imgur.com/JDIQVRz.png) 其中 bottom-half 在 Linux 核心對應的機制有三種: * softirq: 即 software interrupt,在 interrupt context 內執行 * tasklet: 建構在 softirq 之上,動態註冊的軟體中斷,確保單一處理器核在特定時間內只能執行一個 tasklet * workqueue: 在 process context 內執行排入的工作,容許較長的延遲或執行可能引發休眠的操作,相較 tasklet 更有彈性,後者的操作必須為 atomic (一氣呵成) 詳見: [Linux 核心設計: 中斷處理和現代架構考量](https://hackmd.io/@sysprog/linux-interrupt) ### 核心層級執行搶佔 以下針對非 `RT` 的核心組態。 #### 1. 執行中斷時不允許搶佔 如前節所述,在中斷結束後會先判斷 `preempt_count` 及 `TIF_NEED_RESCHED` 來決定是否需要進行搶佔。 #### 2. 執行 softirq 時不允許搶佔 在執行軟體中斷 (softirq) 前,核心會先調整 `preempt_count` 使其不為 `0`,待 softirq 執行完畢後,再執行以下: ```cpp void __local_bh_enable_ip(unsigned long ip, unsigned int cnt) { ... /* * Keep preemption disabled until we are done with * softirq processing: */ __preempt_count_sub(cnt - 1); if (unlikely(!in_interrupt() && local_softirq_pending())) { /* * Run softirq if any pending. And do it in its own stack * as we may be calling this deep in a task call stack already. */ do_softirq(); } preempt_count_dec(); ... preempt_check_resched(); } ``` #### 3. Critical Section 中不允許搶佔 核心在執行 critical section 如 spinlock 時不允許搶佔,待 critical section 執行完畢後透過 `preempt_schedule()` 來觸發搶佔。 ## 待整理 * [Linux kernel preemption and the latency-throughput tradeoff](https://www.codeblueprint.co.uk/2019/12/23/linux-preemption-latency-throughput.html)