# 数理統計学テスト攻略 ## 0. 範囲じゃないけど必要そうなやつ ### 平均二乗誤差(Mean Squared Error) * $T(\boldsymbol{X}) = T(X_1,\ldots,X_n)$ : $\theta \in \Theta$ の推定量(r.v.) について,平均二乗誤差 $\mbox{MSE}(T(\boldsymbol{X}),\theta)$ は, :::danger $$ \mbox{MSE}(T(\boldsymbol{X}),\theta) := \mbox{E}_\theta \left[ \left(T(\boldsymbol{X})-\theta \right )^2 \right] = \mbox{Var}_\theta [T(\boldsymbol{X})] + \Bigl ( \mbox{E}_\theta [T(\boldsymbol{X})] - \theta \Bigr )^2 $$ ::: である. ### 偏り(Bias) 特に, :::danger $$ \mbox{bias} := \mbox{E}_\theta[T(\boldsymbol{X})]-\theta $$ ::: である. ## 1. 定義からの計算 >・有効推定量 ・不偏推定量(E(T) = θ) ・クラメール・ラオの不等式(正則条件は省略してよい) ・フィッシャー情報量 ・効率 これらの定義が書けるようにしておくこと その上で計算できるようにしておくこと ### 不偏推定量(Unbiased Estimator) * $T(\boldsymbol{X}) = T(X_1,\ldots,X_n)$ : $\theta \in \Theta$ の推定量(r.v.) の時, :::info $$ T(\boldsymbol{X}):\thetaの不偏推定量 :\iff {}^\forall \theta \in \Theta \left [ \mbox{E}_\theta [ T(\boldsymbol{X}) ] = \theta \right ] $$ ::: である.即ち, $$ (不偏推定量の期待値) = (パラメータの値) $$ となる.不偏推定量について, $$ \mbox{bias} = E_\theta [ T(\boldsymbol{X}) ] - \theta = 0 $$ である. ### フィッシャー情報量(Fisher Information) フィッシャー情報量 $I_n(\theta) (0 < I_n(\theta) < \infty)$ は, :::info $$ I_n(\theta) := \mbox{Var}_\theta \left ( \dfrac{\partial}{\partial \theta} \log f (\boldsymbol{X} \mid \theta) \right) = \mbox{E}_\theta \left [ \left ( \dfrac{\partial}{\partial \theta} \log f (\boldsymbol{X} \mid \theta) \right)^2 \right ] $$ ::: である. ### クラメール・ラオの不等式 * $X_1,\ldots,X_n \sim X$ * $f(\boldsymbol{x} \mid \theta)$:結合確率(密度)関数 * $T(\boldsymbol{X})=T(X_1,\ldots,X_n)$:$g(\theta)$の不偏推定量 (即ち,$E(T(\boldsymbol{X}))=g(\theta)$) のとき,正則条件の下で, :::info $$ \mbox{Var}_\theta(T(\boldsymbol{X})) \geq \dfrac{\left( \dfrac{\partial}{\partial \theta} g(\theta) \right)^2}{I_n(\theta)} \cdots(クラメール・ラオの不等式) $$ ::: が成立する.(即ち,分散の下限が存在する) 特に, * $T(\boldsymbol{X})=T(X_1,\ldots,X_n)$:$\theta$の不偏推定量 (即ち,$E(T(\boldsymbol{X}))=g(\theta) = \theta$) の時, $$ \mbox{Var}_\theta(T(\boldsymbol{X})) \geq \dfrac{1}{I_n(\theta)} $$ が成立する. ### 効率 * $T(\boldsymbol{X})$ : $\theta \in \Theta$ の不偏推定量 の時,$T(\boldsymbol{X})$ の効率 $\mbox{eff}_\theta(T(\boldsymbol{X}) )$ は, :::info $$ \mbox{eff}_\theta(T(\boldsymbol{X}) ) := \dfrac{\dfrac{1}{I_n(\theta)}}{\mbox{Var}_\theta(T(\boldsymbol{X}))} = \dfrac{1}{I_n(\theta)\mbox{Var}_\theta(T(\boldsymbol{X}))} $$ ::: である. ### 有効推定量(最小分散不偏推定量) 特に, :::info $$ T(\boldsymbol{X}):\theta \in \Thetaの有効推定量 :\iff \mbox{eff}_\theta(T(\boldsymbol{X}) ) = 1 $$ ::: である. 有効推定量が存在 $\Rightarrow$ UMVUE (逆は必ずしも真とは限らない) ## 2. 最尤推定 (Maximum Likelihood Estimation) を求める問題 >対数尤度関数を与えて,パラメータで偏微分して,偏微分したものを0として解く. (関数の最大値問題と同じこと(らしい),一階微分) (P.225参照) P.226.例6.3.2ができるように ![例6_3_2](https://i.imgur.com/q9P3yzI.jpg) [高校数学の美しい物語](https://mathtrain.jp/mle) ### 尤度関数(Likelihood Function) * $\boldsymbol{x} = (x_1,\ldots,x_n)$:観測値 * $f(\boldsymbol{x} \mid \theta)$:結合確率(密度)関数 とする時,尤度関数 $L(\theta \mid \boldsymbol{x})$ は, :::danger $$ L(\theta \mid \boldsymbol{x}) := f(\boldsymbol{x} \mid \theta) $$ ::: である.即ち,$f(\boldsymbol{x} \mid \theta)$ を $\theta$ の関数とみなしたものである. 特に, * $\boldsymbol{X} = (X_1,\ldots,X_n)$ :ランダム標本 の時,$f(\boldsymbol{x}_i \mid \theta)$ を確率(密度)関数として, $$ L(\theta \mid \boldsymbol{x}) := \displaystyle{\Pi_i} f(\boldsymbol{x}_i \mid \theta) $$ と書ける. ### 対数尤度関数 尤度関数の対数を取ったものを, :::danger $$ 対数尤度関数:\log L(\theta \mid \boldsymbol{x}) $$ ::: と呼ぶ. 特に, * $\boldsymbol{X} = (X_1,\ldots,X_n)$ :ランダム標本 の時,$f(\boldsymbol{x}_i \mid \theta)$ を確率(密度)関数として, $$ \log L(\theta \mid \boldsymbol{x}) := \log \displaystyle{\Pi_i} f(\boldsymbol{x}_i \mid \theta) $$ ### 最尤推定値(Maximum Likelihood Value) 最尤推定値 $\hat \theta$ は, :::danger $$ \hat \theta := \hat \theta(\boldsymbol{x}) = (尤度関数を最大にする値) = \hat \theta \left [L(\hat \theta \mid \boldsymbol{x}) = \displaystyle{\sup_\theta} \left \{ L(\theta \mid \boldsymbol{x}) \mid \theta \in \Theta \right \} \right ] $$ ::: ### 最尤推定量(Maximum Likelihood Estimator) 最尤推定量 $\hat \theta$ は, :::danger $$ \hat \theta := \hat \theta (\boldsymbol{X}) $$ ::: で,略して $\mbox{MLE}$ と呼ぶ. ### 尤度方程式 * $\boldsymbol{\theta} = (\theta_1,\ldots,\theta_k) \in \Theta \subset \mbox{R}^k$ * ${}^\forall \theta_i$について $L(\theta \mid \boldsymbol{x})$ の$1$次偏導関数が存在 の時,最尤推定量 $\hat \theta$ は, :::danger $$ \dfrac{\partial}{\partial \theta_i} \log L(\hat \theta \mid \boldsymbol{x}) = 0 (i = 1,2,\ldots,k)\cdots (尤度方程式) $$ ::: を満たす. <!-- ### モーメント法推定量は必要? --> ## 3. 正規母集団の平均と分散の信頼区間の導出 ### 区間推定 #### 信頼区間(Confidence Interval) * $\boldsymbol{X} = (X_1,\ldots,X_n)$ : $\{f(\theta \mid \boldsymbol{x}) \}$ からのランダム標本 * $T_1 = T_1(\boldsymbol{X})$ * $T_2 = T_2(\boldsymbol{X})$ とする.このとき, :::warning $$ [ T_1,T_2 ]:\thetaの100(1-\alpha)\% 信頼区間 :\iff {}^\forall \theta \in \Theta, P_\theta(T_1 \leq \theta \leq T_2) \geq 1-\alpha (0 \leq \alpha \leq 1) $$ ::: #### 信頼水準(Confidence Level) この時の $1-\alpha$ を信頼水準という. #### 信頼係数(Confidence Coefficient) この時の $\displaystyle{\inf_{\theta \in \Theta}}P_\theta[T_1 \leq \theta \leq T_2]$ を信頼係数という. ### (1)母分散 $\sigma^2$ が既知の場合 統計WEBより,[母平均の信頼区間の求め方(母分散既知)](https://bellcurve.jp/statistics/course/8888.html) ![講義資料1](https://i.imgur.com/R8CJKC4.jpg) ![教科書1](https://i.imgur.com/HFvpu4r.jpg) ### (2)母分散 $\sigma^2$ が未知の場合 統計WEBより,[母平均の信頼区間の求め方(母分散未知)](https://bellcurve.jp/statistics/course/8972.html) ![講義資料2](https://i.imgur.com/iCpqWAC.jpg) ![教科書2](https://i.imgur.com/gq8i3Qw.jpg) ### (3)平均 $\mu$ が既知の場合 統計WEBより,[母分散の信頼区間の求め方1](https://bellcurve.jp/statistics/course/9212.html) ![講義資料3](https://i.imgur.com/pA4w6nu.jpg) ![教科書3](https://i.imgur.com/p20NT5F.jpg) ### (4)平均 $\mu$ が未知の場合 統計WEBより,[母分散の信頼区間の求め方2](https://bellcurve.jp/statistics/course/9214.html) ![講義資料4](https://i.imgur.com/8kHlxp0.jpg) ![教科書4](https://i.imgur.com/MyX6gFT.jpg) ## 過去問 ### 平成27年 ![](https://i.imgur.com/D5K6qvp.jpg) ### 平成28年 ![](https://i.imgur.com/B7GSerS.jpg) ### 平成29年 ![](https://i.imgur.com/YBELBKY.jpg)