[日文] JLPT - N5 === ###### tags: `語言 / 日文` ###### tags: `語言`, `日文`, `日語`, `JLPT`, `N5` <br> [TOC] <br> ## 討論 ### JLPT N5 是如何計分來判斷有無通過標準? - ### gpt-5 (2025/10/13) 以下是**JLPT N5 的計分與合格判定**(官方規則): * **計分區與滿分**:N5 共有兩個「計分區」 1. **言語知識(文字・語彙・文法)・讀解**:0–120 分 2. **聽解**:0–60 分 **總分**為 0–180 分。([jlpt.jp][1]) * **合格門檻(必須同時達成)**: 1. **總分 ≥ 80/180**; 2. **各計分區都達到最低分**: * 言語知識・讀解 **≥ 38/120** * 聽解 **≥ 19/60** 任何一個計分區低於下限,就算總分很高也**不合格**;且**缺考任一科**亦判定不合格。([jlpt.jp][1]) * **分數性質**:JLPT 採用**尺度分數(scaled scores)**,不是單純「答對題數比例」。此作法會依不同場次的難度進行等化,讓同等能力在不同考期拿到可比的分數。([jlpt.jp][2]) **小例子**:若你總分 90 分,但聽解只有 18 分(< 19),仍會判定**不合格**;反之,只要總分 ≥ 80 且兩區都達到下限,即為**合格**。([jlpt.jp][1]) 需要我幫你用模擬成績試算是否達標嗎? [1]: https://www.jlpt.jp/sp/e/guideline/results.html "Scoring Sections, Pass or Fail, Score Report | JLPT Japanese-Language Proficiency Test" [2]: https://www.jlpt.jp/sp/e/about/points.html "Four Key Characteristics | JLPT Japanese-Language Proficiency Test" <br> --- ### 尺度分數 如何計算? - ### gpt-5 (2025/10/13) 下面用白話快速說明 **JLPT「尺度分數」(scaled scores) 是怎麼算的**——重點是「不是答對幾題就幾分」,而是用統計模型把你的整體能力估出來,再映到固定分數尺上。 ### 核心觀念(做了什麼) 1. **用 IRT(項目應答理論)估能力值** 考方先以統計方法校準每一題的難度/鑑別度等參數;實際計分時,不看你「答對幾題」,而是看你**哪幾題對、哪幾題錯**的「作答模式」,據此用 IRT 算出你的能力位置(θ)。這能把不同考期、不同難度的卷子放到同一把尺上。([jlpt.jp][1]) 2. **把能力值線性換算到報告用分數尺** 算出的能力位置會被映到各分區的固定刻度:一般區間是 **0–60 分**;N4/N5 的「言語知識・讀解」是 **0–120 分**,聽解是 **0–60 分**。([jlpt.jp][1]) 3. **以「作答模式」分檔給分,不是單純比例** 舉例:一份只有 10 題的小測就有 (2^{10}=1024) 種作答模式;實際計分會把這些模式**歸成 61 個分數檔**(0–60),因此**不同的作答模式可能拿到同一個尺度分數**;反過來,**答對題數一樣的人,尺度分數也可能不同**。([jlpt.jp][1]) ### 為什麼要這樣算 * 這樣做能 **消除不同考期難度差** 的影響;同等能力的人,不管哪一回作答,分數都能在**同一把尺**上比較。([jlpt.jp][1]) ### 你能不能自己把「答對題數 → 尺度分數」反推? * **不能精確反推**。官方沒有公開題目參數與換算表;而且官方 FAQ 也明說:尺度分數是依「個別作答模式」決定,**和單純的正答數不同**,所以高正答數也可能換成**相對普通**的尺度分數。([jlpt.jp][2]) --- #### 一句話總結 JLPT 的分數是:用 IRT 依「你對/錯了哪些題」先估能力,再把能力換到 **0–60(或 0–120)** 的尺度上,所以**不是**「正答率 × 滿分」。([jlpt.jp][1]) 如果你給我各分區「大約哪些題型順手、哪些常錯」或模擬作答概況,我可以用玩具例子幫你**直覺估**分數變化方向(雖然不能得到官方精確值)。 [1]: https://www.jlpt.jp/e/about/pdf/scaledscore_e.pdf "テストに含まれる様々な難易度の問題にどのように解答したか(正答したか" [2]: https://www.jlpt.jp/sp/e/faq/?utm_source=chatgpt.com "FAQ |JLPT Japanese-Language Proficiency Test" <br> --- ### 能舉計算案例? - ### gpt-5 (2025/10/13) 好的!我用一個「可算到數字」的**玩具案例**帶你走過 JLPT 的尺度分數流程(真實考試會更複雜、參數也不公開;這裡只是讓概念一目了然)。 ### 範例設定(2PL IRT,示意用) * 題目用兩個參數: **a**=鑑別度(越大越能區分能力高低)、**b**=難度(越大越難)。 * 作答對某題答對的機率: $$ P_i(\theta)=\frac{1}{1+\exp{-a_i(\theta-b_i)}} $$ 其中 (\theta) 是考生能力值。 #### 題庫(6 題,示意參數) | 題 | a(鑑別) | b(難度) | | - | ----- | ----- | | 1 | 0.7 | -1.0 | | 2 | 0.8 | -0.5 | | 3 | 0.9 | 0.0 | | 4 | 1.2 | 0.5 | | 5 | 1.3 | 1.0 | | 6 | 1.4 | 1.5 | > 直覺:1–3 較容易,4–6 較難,且難題的 a 值(權重)也較高。 #### 兩位考生、同樣「3/6 題正確」 * **A**:錯 1–3、對 4–6 → 擅長「較難題」。 作答向量 (u_A=[0,0,0,1,1,1]) * **B**:對 1–3、錯 4–6 → 擅長「較易題」。 作答向量 (u_B=[1,1,1,0,0,0]) --- ### 步驟 1:估能力 (\theta)(最大概似,示意) 我們找能讓「你這個對/錯模式」最可能出現的 (\theta)。 #### A 的對/錯模式帶入後比較幾個 (\theta) (以下是每題答對機率與整體對數概似值 (\ell) 的節錄) * (\theta=0.0):(\ell\approx -7.503)(較差) * (\theta=0.5):(\ell\approx -6.848)(變好) * (\theta=1.1):(\ell\approx -6.547)(更好) → **A 的極大值 (\hat\theta_A \approx 1.13)**(高能力,因為難題都對) #### B 的對/錯模式 * (\theta=0.0):(\ell\approx -2.403)(相對好) * (\theta=0.5):(\ell\approx -2.498)(變差) * (\theta=1.1):(\ell\approx -3.097)(更差) → **B 的極大值 (\hat\theta_B \approx 0.11)**(接近平均,因為只拿到容易題) > 重點:**同樣 3/6 題正確,能力估計不同**。A 對高難高鑑別的題,(\theta) 就被推得更高。 --- ### 步驟 2:把 (\theta) 換成「尺度分數」 實務上主辦單位會做一個線性轉換把 (\theta) 映射到固定刻度(例如 0–60),並做等化;**係數不公開**。為了示範,我們用常見的教學用簡化: $$ \text{Scaled} = 10\cdot \theta + 30 \quad (\text{之後裁切到 }[0,60]) $$ * A:(10\times 1.13+30 \approx \mathbf{41.3})(/60) * B:(10\times 0.11+30 \approx \mathbf{31.1})(/60) > **結論**:雖然兩人都答對 3 題,但 A 的尺度分數明顯較高;這就是「看作答模式」而非只看正答數的意義。 --- ### 你可以從這個例子學到什麼? 1. **答對「哪些題」很重要**:難度高、鑑別度高的題對能力估計更有影響。 2. **尺度分數可跨考期可比**:用 IRT 先估能力,再做等化到固定尺;不同場次仍能公平比較。 3. **不能用正答數反推精確尺度分數**:題目參數與轉換係數不公開,而且每回難度不同。 --- 如果你願意,給我一份你的「模擬作答概況」(大致哪些題型穩、哪些常錯),我可以用同樣邏輯做一個**方向性的**能力與尺度分數試算(仍是示意,不代表官方成績)。 <br> --- ### 鑑別度怎麼計算得的?能舉計算案例? - ### gpt-5 (2025/10/13) 下面用**可算到數字**的小案例,說明 IRT 裡「鑑別度 $a$」是怎麼估出來的。為了易懂,我用 **2PL 邏輯模式**(不含猜測參數)做示範。 --- ### 1) 模型與可解形式 2PL(常用的 JLPT 類測驗校準模型): $$ P(\text{答對}\mid \theta)=\frac{1}{1+\exp{-D,a(\theta-b)}}, $$ 其中 * $\theta$:受試者能力; * $a$:**鑑別度**(曲線在臨界點 $b$ 附近的斜率,越大越「陡」→越能分辨能力); * $b$:難度($P=0.5$ 時的能力位置); * $D=1.7$:把邏輯曲線近似成常態 ogive 的常數(慣例值)。 取 logit 後會變成**線性**: $$ \operatorname{logit}(P)=\ln\frac{P}{1-P}= D,a,\theta - D,a,b = \underbrace{\beta_1}*{D a},\theta + \underbrace{\beta_0}*{-Dab}. $$ 所以只要用**羅吉斯迴歸**配出 (\beta_0,\beta_1),就能回推出 $$ a=\frac{\beta_1}{D},\qquad b=-\frac{\beta_0}{\beta_1}. $$ > 實務上會用**邊際極大概似(MML/EM)**同時估 $\theta$ 與所有題目的 $a,b$;但如果你**已經有 $\theta$ 的外部估計**(例如用其他題先估),單題的 $a,b$ 就能像下面這樣直接算。 --- ### 2) 小型**可手算**示例(2PL) 假設我們有 6 位考生的能力(已標準化)與某題的作答: | 受試者 | 能力 $\theta$ | 作答 $y$(1=對,0=錯) | | --- | ----------: | --------------: | | A | -2.0 | 0 | | B | -1.0 | 1 | | C | 0.0 | 0 | | D | 0.5 | 1 | | E | 1.0 | 1 | | F | 2.0 | 1 | **步驟**:以「$y$ 對 $\theta$ 的羅吉斯迴歸」極大化對數概似 $\ell(\beta_0,\beta_1)=\sum_i \big[y_i\log p_i+(1-y_i)\log(1-p_i)\big]$, 其中 $$p_i=\frac{1}{1+\exp[-(\beta_0+\beta_1\theta_i)]}$。 用數值法配完(極大概似)得到一組係數(四捨五入到小數三位): * $\beta_0 \approx 0.933$ * $\beta_1 \approx 1.267$ **換回 IRT 參數(取 (D=1.7))**: * $a=\beta_1/D \approx 1.267/1.7 \approx \mathbf{0.745}$(這題的**鑑別度**) * $b=-\beta_0/\beta_1 \approx -0.933/1.267 \approx \mathbf{-0.736}$(這題的**難度**) 用這組 (a,b) 算出的預測正答機率(僅供體會): | $\theta$ | $\hat P(\text{對})$ | | -------: | -----------------: | | -2.0 | 0.168 | | -1.0 | 0.417 | | 0.0 | 0.718 | | 0.5 | 0.827 | | 1.0 | 0.900 | | 2.0 | 0.970 | 你也可以檢查「臨界點」:把 $\theta=b\approx -0.736$ 代入,上式會得到 $P=0.5$;而**斜率**(分辨力)在 $\theta=b$ 的理論值為 $$ \left.\frac{dP}{d\theta}\right|_{\theta=b}= \frac{D,a}{4}\approx \frac{1.7\times 0.745}{4}\approx \mathbf{0.317}, $$ 這就是為什麼 $a$ 越大、「$D a/4$」越陡,題目越能把能力相近的人分開。 --- ### 3) 與 3PL(含猜測)的一句話連結 若題目需要考慮**猜測機率** (c)(3PL),模型為 $P=c+(1-c)\big[1+\exp{-D a(\theta-b)}\big]^{-1}$。 若 $c$ 已知,可把 $\tilde P=\dfrac{P-c}{1-c}$ 再取 logit 做同樣迴歸;實務校準則會用 MML/EM 同時估 $a,b,c$。 --- ### 4) 重點小結 * **鑑別度 $a$** 是**題目反應曲線在難度點 $b$ 的斜率大小(乘上常數)**。 * 示範中,我們用已知 $\theta$ 的小樣本,透過**羅吉斯迴歸**極大概似直接配出 $\beta_0,\beta_1$ 再換成 $a,b$。 * 真實測驗會用大量受試者、所有題目一起做 **IRT 校準(MML/EM)**,估計更穩健。 --- 如果你手邊有**某題的受試者能力估計**(或簡單把總分標準化當近似 $\theta$)以及該題的 0/1 作答,我可以幫你**現場估一個 $a,b$** 來對照理解(示範用,非正式校準)。 <br> {%hackmd vaaMgNRPS4KGJDSFG0ZE0w %}