[日文] JLPT - N5
===
###### tags: `語言 / 日文`
###### tags: `語言`, `日文`, `日語`, `JLPT`, `N5`
<br>
[TOC]
<br>
## 討論
### JLPT N5 是如何計分來判斷有無通過標準?
- ### gpt-5 (2025/10/13)
以下是**JLPT N5 的計分與合格判定**(官方規則):
* **計分區與滿分**:N5 共有兩個「計分區」
1. **言語知識(文字・語彙・文法)・讀解**:0–120 分
2. **聽解**:0–60 分
**總分**為 0–180 分。([jlpt.jp][1])
* **合格門檻(必須同時達成)**:
1. **總分 ≥ 80/180**;
2. **各計分區都達到最低分**:
* 言語知識・讀解 **≥ 38/120**
* 聽解 **≥ 19/60**
任何一個計分區低於下限,就算總分很高也**不合格**;且**缺考任一科**亦判定不合格。([jlpt.jp][1])
* **分數性質**:JLPT 採用**尺度分數(scaled scores)**,不是單純「答對題數比例」。此作法會依不同場次的難度進行等化,讓同等能力在不同考期拿到可比的分數。([jlpt.jp][2])
**小例子**:若你總分 90 分,但聽解只有 18 分(< 19),仍會判定**不合格**;反之,只要總分 ≥ 80 且兩區都達到下限,即為**合格**。([jlpt.jp][1])
需要我幫你用模擬成績試算是否達標嗎?
[1]: https://www.jlpt.jp/sp/e/guideline/results.html "Scoring Sections, Pass or Fail, Score Report | JLPT Japanese-Language Proficiency Test"
[2]: https://www.jlpt.jp/sp/e/about/points.html "Four Key Characteristics | JLPT Japanese-Language Proficiency Test"
<br>
---
### 尺度分數 如何計算?
- ### gpt-5 (2025/10/13)
下面用白話快速說明 **JLPT「尺度分數」(scaled scores) 是怎麼算的**——重點是「不是答對幾題就幾分」,而是用統計模型把你的整體能力估出來,再映到固定分數尺上。
### 核心觀念(做了什麼)
1. **用 IRT(項目應答理論)估能力值**
考方先以統計方法校準每一題的難度/鑑別度等參數;實際計分時,不看你「答對幾題」,而是看你**哪幾題對、哪幾題錯**的「作答模式」,據此用 IRT 算出你的能力位置(θ)。這能把不同考期、不同難度的卷子放到同一把尺上。([jlpt.jp][1])
2. **把能力值線性換算到報告用分數尺**
算出的能力位置會被映到各分區的固定刻度:一般區間是 **0–60 分**;N4/N5 的「言語知識・讀解」是 **0–120 分**,聽解是 **0–60 分**。([jlpt.jp][1])
3. **以「作答模式」分檔給分,不是單純比例**
舉例:一份只有 10 題的小測就有 (2^{10}=1024) 種作答模式;實際計分會把這些模式**歸成 61 個分數檔**(0–60),因此**不同的作答模式可能拿到同一個尺度分數**;反過來,**答對題數一樣的人,尺度分數也可能不同**。([jlpt.jp][1])
### 為什麼要這樣算
* 這樣做能 **消除不同考期難度差** 的影響;同等能力的人,不管哪一回作答,分數都能在**同一把尺**上比較。([jlpt.jp][1])
### 你能不能自己把「答對題數 → 尺度分數」反推?
* **不能精確反推**。官方沒有公開題目參數與換算表;而且官方 FAQ 也明說:尺度分數是依「個別作答模式」決定,**和單純的正答數不同**,所以高正答數也可能換成**相對普通**的尺度分數。([jlpt.jp][2])
---
#### 一句話總結
JLPT 的分數是:用 IRT 依「你對/錯了哪些題」先估能力,再把能力換到 **0–60(或 0–120)** 的尺度上,所以**不是**「正答率 × 滿分」。([jlpt.jp][1])
如果你給我各分區「大約哪些題型順手、哪些常錯」或模擬作答概況,我可以用玩具例子幫你**直覺估**分數變化方向(雖然不能得到官方精確值)。
[1]: https://www.jlpt.jp/e/about/pdf/scaledscore_e.pdf "テストに含まれる様々な難易度の問題にどのように解答したか(正答したか"
[2]: https://www.jlpt.jp/sp/e/faq/?utm_source=chatgpt.com "FAQ |JLPT Japanese-Language Proficiency Test"
<br>
---
### 能舉計算案例?
- ### gpt-5 (2025/10/13)
好的!我用一個「可算到數字」的**玩具案例**帶你走過 JLPT 的尺度分數流程(真實考試會更複雜、參數也不公開;這裡只是讓概念一目了然)。
### 範例設定(2PL IRT,示意用)
* 題目用兩個參數:
**a**=鑑別度(越大越能區分能力高低)、**b**=難度(越大越難)。
* 作答對某題答對的機率:
$$
P_i(\theta)=\frac{1}{1+\exp{-a_i(\theta-b_i)}}
$$
其中 (\theta) 是考生能力值。
#### 題庫(6 題,示意參數)
| 題 | a(鑑別) | b(難度) |
| - | ----- | ----- |
| 1 | 0.7 | -1.0 |
| 2 | 0.8 | -0.5 |
| 3 | 0.9 | 0.0 |
| 4 | 1.2 | 0.5 |
| 5 | 1.3 | 1.0 |
| 6 | 1.4 | 1.5 |
> 直覺:1–3 較容易,4–6 較難,且難題的 a 值(權重)也較高。
#### 兩位考生、同樣「3/6 題正確」
* **A**:錯 1–3、對 4–6 → 擅長「較難題」。
作答向量 (u_A=[0,0,0,1,1,1])
* **B**:對 1–3、錯 4–6 → 擅長「較易題」。
作答向量 (u_B=[1,1,1,0,0,0])
---
### 步驟 1:估能力 (\theta)(最大概似,示意)
我們找能讓「你這個對/錯模式」最可能出現的 (\theta)。
#### A 的對/錯模式帶入後比較幾個 (\theta)
(以下是每題答對機率與整體對數概似值 (\ell) 的節錄)
* (\theta=0.0):(\ell\approx -7.503)(較差)
* (\theta=0.5):(\ell\approx -6.848)(變好)
* (\theta=1.1):(\ell\approx -6.547)(更好)
→ **A 的極大值 (\hat\theta_A \approx 1.13)**(高能力,因為難題都對)
#### B 的對/錯模式
* (\theta=0.0):(\ell\approx -2.403)(相對好)
* (\theta=0.5):(\ell\approx -2.498)(變差)
* (\theta=1.1):(\ell\approx -3.097)(更差)
→ **B 的極大值 (\hat\theta_B \approx 0.11)**(接近平均,因為只拿到容易題)
> 重點:**同樣 3/6 題正確,能力估計不同**。A 對高難高鑑別的題,(\theta) 就被推得更高。
---
### 步驟 2:把 (\theta) 換成「尺度分數」
實務上主辦單位會做一個線性轉換把 (\theta) 映射到固定刻度(例如 0–60),並做等化;**係數不公開**。為了示範,我們用常見的教學用簡化:
$$
\text{Scaled} = 10\cdot \theta + 30 \quad (\text{之後裁切到 }[0,60])
$$
* A:(10\times 1.13+30 \approx \mathbf{41.3})(/60)
* B:(10\times 0.11+30 \approx \mathbf{31.1})(/60)
> **結論**:雖然兩人都答對 3 題,但 A 的尺度分數明顯較高;這就是「看作答模式」而非只看正答數的意義。
---
### 你可以從這個例子學到什麼?
1. **答對「哪些題」很重要**:難度高、鑑別度高的題對能力估計更有影響。
2. **尺度分數可跨考期可比**:用 IRT 先估能力,再做等化到固定尺;不同場次仍能公平比較。
3. **不能用正答數反推精確尺度分數**:題目參數與轉換係數不公開,而且每回難度不同。
---
如果你願意,給我一份你的「模擬作答概況」(大致哪些題型穩、哪些常錯),我可以用同樣邏輯做一個**方向性的**能力與尺度分數試算(仍是示意,不代表官方成績)。
<br>
---
### 鑑別度怎麼計算得的?能舉計算案例?
- ### gpt-5 (2025/10/13)
下面用**可算到數字**的小案例,說明 IRT 裡「鑑別度 $a$」是怎麼估出來的。為了易懂,我用 **2PL 邏輯模式**(不含猜測參數)做示範。
---
### 1) 模型與可解形式
2PL(常用的 JLPT 類測驗校準模型):
$$
P(\text{答對}\mid \theta)=\frac{1}{1+\exp{-D,a(\theta-b)}},
$$
其中
* $\theta$:受試者能力;
* $a$:**鑑別度**(曲線在臨界點 $b$ 附近的斜率,越大越「陡」→越能分辨能力);
* $b$:難度($P=0.5$ 時的能力位置);
* $D=1.7$:把邏輯曲線近似成常態 ogive 的常數(慣例值)。
取 logit 後會變成**線性**:
$$
\operatorname{logit}(P)=\ln\frac{P}{1-P}= D,a,\theta - D,a,b
= \underbrace{\beta_1}*{D a},\theta + \underbrace{\beta_0}*{-Dab}.
$$
所以只要用**羅吉斯迴歸**配出 (\beta_0,\beta_1),就能回推出
$$
a=\frac{\beta_1}{D},\qquad b=-\frac{\beta_0}{\beta_1}.
$$
> 實務上會用**邊際極大概似(MML/EM)**同時估 $\theta$ 與所有題目的 $a,b$;但如果你**已經有 $\theta$ 的外部估計**(例如用其他題先估),單題的 $a,b$ 就能像下面這樣直接算。
---
### 2) 小型**可手算**示例(2PL)
假設我們有 6 位考生的能力(已標準化)與某題的作答:
| 受試者 | 能力 $\theta$ | 作答 $y$(1=對,0=錯) |
| --- | ----------: | --------------: |
| A | -2.0 | 0 |
| B | -1.0 | 1 |
| C | 0.0 | 0 |
| D | 0.5 | 1 |
| E | 1.0 | 1 |
| F | 2.0 | 1 |
**步驟**:以「$y$ 對 $\theta$ 的羅吉斯迴歸」極大化對數概似
$\ell(\beta_0,\beta_1)=\sum_i \big[y_i\log p_i+(1-y_i)\log(1-p_i)\big]$,
其中 $$p_i=\frac{1}{1+\exp[-(\beta_0+\beta_1\theta_i)]}$。
用數值法配完(極大概似)得到一組係數(四捨五入到小數三位):
* $\beta_0 \approx 0.933$
* $\beta_1 \approx 1.267$
**換回 IRT 參數(取 (D=1.7))**:
* $a=\beta_1/D \approx 1.267/1.7 \approx \mathbf{0.745}$(這題的**鑑別度**)
* $b=-\beta_0/\beta_1 \approx -0.933/1.267 \approx \mathbf{-0.736}$(這題的**難度**)
用這組 (a,b) 算出的預測正答機率(僅供體會):
| $\theta$ | $\hat P(\text{對})$ |
| -------: | -----------------: |
| -2.0 | 0.168 |
| -1.0 | 0.417 |
| 0.0 | 0.718 |
| 0.5 | 0.827 |
| 1.0 | 0.900 |
| 2.0 | 0.970 |
你也可以檢查「臨界點」:把 $\theta=b\approx -0.736$ 代入,上式會得到 $P=0.5$;而**斜率**(分辨力)在 $\theta=b$ 的理論值為
$$
\left.\frac{dP}{d\theta}\right|_{\theta=b}= \frac{D,a}{4}\approx \frac{1.7\times 0.745}{4}\approx \mathbf{0.317},
$$
這就是為什麼 $a$ 越大、「$D a/4$」越陡,題目越能把能力相近的人分開。
---
### 3) 與 3PL(含猜測)的一句話連結
若題目需要考慮**猜測機率** (c)(3PL),模型為
$P=c+(1-c)\big[1+\exp{-D a(\theta-b)}\big]^{-1}$。
若 $c$ 已知,可把 $\tilde P=\dfrac{P-c}{1-c}$ 再取 logit 做同樣迴歸;實務校準則會用 MML/EM 同時估 $a,b,c$。
---
### 4) 重點小結
* **鑑別度 $a$** 是**題目反應曲線在難度點 $b$ 的斜率大小(乘上常數)**。
* 示範中,我們用已知 $\theta$ 的小樣本,透過**羅吉斯迴歸**極大概似直接配出 $\beta_0,\beta_1$ 再換成 $a,b$。
* 真實測驗會用大量受試者、所有題目一起做 **IRT 校準(MML/EM)**,估計更穩健。
---
如果你手邊有**某題的受試者能力估計**(或簡單把總分標準化當近似 $\theta$)以及該題的 0/1 作答,我可以幫你**現場估一個 $a,b$** 來對照理解(示範用,非正式校準)。
<br>
{%hackmd vaaMgNRPS4KGJDSFG0ZE0w %}