統計・確率のお勉強

統計学を中心に色々勉強するブログ

損保数理の問題集

f:id:doratai:20160424215651j:plain
久々の更新です。

最近は問題集での勉強をメインでやっているので、余り書くことがなくて...

問題集をやっていて思うのが大学1,2年で以下に勉強していなかったかというね...

確率統計の勉強をしてるわけですが、実際に問題を解いてて思うのが、微積が結構できないということ。変数変換とか、マクローリン展開が身にしみてないから、積分やΣ計算をしていると結構引っかかります。あと、ガンマ関数とベータ関数。アレ使えないのがこんなところで響くとは...。

1年の頃は単位さえ取れればいいと思ってたので、終わったら綺麗さっぱり忘れていました(笑)

今は希望している研究室に入れるかどうかヒヤヒヤしてます。周りが結構成績よくて、今更焦り始めるという。


そのへんはさておいて...

アクチュアリー試験に向けての勉強を最近始めたのですが、数学以外はなかなか取っ掛かりにくく先延ばしていました。

特に保険数理の教科書は、普段問題を解きながら学んで、躓いたところを教科書でやってきた自分のやり方だと問題集と呼べるものがなく、なかなか手をつけられずにいました。

しかし、昨日、損害保険数理の問題集で、良さそうなのをジュンク堂で見つけ、購入してやってみたのですが、いい感じです。

「例題で学ぶ損害保険数理」

Amazonでチェック→例題で学ぶ損害保険数理 第2版


という本なのですが、これがなかなか私の需要を満たしておりまして

  • 長々とした説明がない。
  • 例題が多数。
  • 詳しい解答解説が載っている


と、初学者に大変やさしい構成になっていました。教科書を読んでると眠くなるのび太くん体質の私には、ぴったしの問題集です。

私はいつも購入前にAmazonレビューを見るのですが、好評のようでしたし、また私が昨年度末から入会したアク研の書籍紹介でも、教科書の次に買うべき必携の一冊とのこと。


もし損保の勉強をこれからはじめようとしている方はぜひ買うことをおすすめします!!

値段は約4500円と少し高いですが、参考書の値段って大体そんなもんですよね?

少なくともこれを買うことによる消費者余剰はかなり高めだと思います(覚えた言葉を早速使いはじめるおバカ顔)。

今回は数学の証明とかではなく、買った本の紹介でした!

また気が向いたら更新します!!

(今回は最初に画像を載せてみたりしてみた!ちょっとおしゃれになったかな?)

正規分布

連続型モデルで、統計確率の中でも最も有名で重要な分布である正規分布について。

正規分布N(\mu,\sigma^2) で表される。

確率密度関数

{
f(x;\mu,\sigma^2)=\frac{1}{\sqrt{2\pi\sigma^2}}\exp\{-\frac{(x-\mu)^2}{2\sigma^2}\}
}

確率密度関数は上記で表される。平均は \mu 分散が \sigma^2

また、N(0,1) の時、標準正規分布と呼ばれ、

{
f(x) = \frac{1}{\sqrt{2\pi}}\exp\{-\frac{x^2}{2}\}
}

確率密度関数は表される。

標準化

標準化を行うことで標準正規分布に直すことが可能。

{
X \sim N(\mu,\sigma^2) \Rightarrow Y=\frac{X-\mu}{\sigma} \sim N(0,1)
}

最尤推定

最尤推定量は以下で与えられる。

{
\hat{\mu} = \bar{X},\;\;\; \hat{\sigma^2} = \frac{1}{n} \sum_{i=1}^n (X_i - \bar{X})^2
}

証明
\mu,\sigma^2 ともに未知の場合について考える。

尤度関数 l(\mu, \sigma^2)

{
\begin{eqnarray}
l(\mu, \sigma^2) & = & \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}}\exp\{-\frac{(x_i-\mu)^2}{2\sigma^2}\} \\
& = & (\frac{1}{2\pi\sigma^2})^{\frac{n}{2}}\exp\{-\frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\mu)^2\}
\end{eqnarray}
}

またこれより対数尤度関数は

{
\log l(\mu,\sigma^2) = -\frac{n}{2}\log(2\pi)-\frac{n}{2}\log(\sigma^2)-\frac{1}{2\sigma^2}\sum_{i=1}^n (x_i - \mu)^2
}

であるので、 \mu,\sigma^2 最大たらしめるに連立方程式

{
\begin{eqnarray}
  \left\{
    \begin{array}{l}
      \frac{\partial \log l(\mu,\sigma^2)}{\partial \mu} = -\frac{1}{\sigma^2}\sum_{i=1}^{n}(x_i-\mu) = 0 \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;(1)\\
      \frac{\partial \log l(\mu,\sigma^2)}{\partial \sigma^2} = -\frac{n}{2\sigma^2}+\frac{1}{2(\sigma^2)^2}\sum_{i=1}^n(x_i-\mu)^2 = 0 \;\;\;(2)
    \end{array}
  \right.
\end{eqnarray}
}

を解く。(1)式から

{
\mu=\frac{1}{n}\sum_{i=1}^n x_i = \bar{x}
}

これと及び、(2)式から

{
\sigma^2 = \frac{1}{n}\sum_{i=1}^n(x_i-\mu)^2 = \frac{1}{n}\sum_{i=1}^n(x_i-\bar{x})^2
}

を得る。

よって最尤推定量は

{
\hat{\mu} = \frac{1}{n}\sum_{i=1}^n X_i = \bar{X} \\
\hat{\sigma^2} = \frac{1}{n} \sum_{i=1}^n (X_i-\bar{X})^2 = S^2
}

積率母関数

正規分布 N(\mu,\sigma^2)積率母関数

{
M_{X}(t) = E(e^{tX}) = e^{\mu t + \frac{1}{2}\sigma^2 t^2}
}

で与えられる。

証明
M_X(t) = E(e^{tX})
= \int_{-\infty}^{\infty} e^{tx} \frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}dx]
= \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{(x-\mu)^2-2t\sigma^2x\}]dx
=\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{x^2-2\mu x + \mu^2-2t\sigma^2 x\}]dx
=\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{x^2-2(\mu+t\sigma^2)x+\mu^2\}]dx
=\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{(x-(\mu+t\sigma^2))^2+\mu^2-(\mu+t\sigma^2)^2\}]dx
=\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{x-(\mu+t\sigma^2)\}+\mu t + \frac{t^2\sigma^2}{2}]dx
= e^{\mu t + \frac{t^2\sigma^2}{2}}\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{\{x-(\mu+t\sigma^2)\}^2}{2\sigma^2}}dx
=e^{\mu t + \frac{t^2\sigma^2}{2}} \cdot 1
=e^{\mu t + \frac{1}{2}\sigma^2t^2}


標準正規分布の場合は

{
M_X(t) = e^{\frac{t^2}{2}}
}

である。

再生性

{
X\sim N(\mu_1,\sigma_1^2),Y\sim N(\mu_2,\sigma_2^2) かつX,Yが独立 \Rightarrow X+Y \sim N(\mu_1+\mu_2,\sigma_1^2+\sigma_2^2)
}

証明

X_i\;\;(i=1,2,\ldots,n) をそれぞれ N(\mu_i,\sigma_i^2) に従う独立な確率変数とする。
正規分布積率母関数は先に示したとおり。

{
M_{c_1X_1}(t) = e^{c_1\mu_1t+\frac{1}{2}c_1^2\sigma_1^2t^2}
}

より c_1X_1N(c_1\mu_1,c_1^2\sigma_1^2) に従う。また

{
\begin{eqnarray}
M_{X_1+X_2}(t) &=& E(e^{t(X_1+X_2)}) \\
&=& E(e^{tX_1})E(e^{tX_2}) \\
&=& e^{\mu_1t+\frac{1}{2}\sigma_1^2t^2}\cdot e^{\mu_2t+\frac{1}{2}\sigma_2^2t^2} \\
&=& e^{(\mu_1+\mu_2)t+\frac{1}{2}(\sigma_1^2+\sigma_2^2)t^2}
\end{eqnarray}
}

より、 X_1+X_2N(\mu_1+\mu_2,\sigma_1^2+\sigma_2^2) に従う。
これらを一般化して、一次結合 S=\sum_{i=1}^n c_iX_iN(\sum_{i=1}^nc_i\mu_i,\sum_{i=1}^n c_i^2\sigma_i^2) に従うことがわかる。

グラフ

グラフの外観は以下のようになっている。(EXCELで作成)


f:id:doratai:20160229232231p:plain

参考文献

鈴木武・山田作太郎(2006)『数理統計学-基礎から学ぶデータ解析-』内田老鶴圃.
国沢清典(2012)『確率統計演習2-統計』培風館.
稲垣宣生(2013)『数理統計学』(数学シリーズ)裳華房.

1次元データの取り扱い

データの種類

データには2種類ある。量的データ質的データである。

  • 量的データ

  • データが定量的な値で与えられるもの。量的データには、長さ、重さ、体積、面積、金額、温度、時間など数値でその値を測定できるものが含まれる。

  • 質的データ

  • 数値として観測することができず、あるカテゴリーに属していることや、ある状態にあることだけがわかるデータ。性別、天気、学歴、居住地域等がある。

    データの表示法

    大別すると2つある。

  • 図的表示法

  • データを図的表現によって処理し、母集団の分布の形を推定する方法
  • 量的表示法

  • データを計数的に処理して、母集団の分布の特性値を推定する方法

    度数分布とヒストグラム

    観測や実験により観測値が得られたら度数分布表をまず作る。
    度数分布表は観測値のとりうるいくつかの階級(class)に分け、それぞれの階級で観測値がいくつあるか度数(frequency)を数えて表にしたものである。

    以下は簡単ではあるが度数分布表の例を書いてみた。

    階級 階級値 度数 相対度数 累積度数 累積相対度数
    0~10 5 3 0.03 3 0.03
    10~20 15 2 0.02 5 0.05
    20~30 25 5 0.05 10 0.10
    30~40 35 12 0.12 22 0.22
    40~50 45 17 0.17 39 0.39
    50~60 55 25 0.25 64 0.64
    60~70 65 13 0.13 77 0.77
    70~80 75 9 0.09 86 0.86
    80~90 85 8 0.08 94 0.94
    90~100 95 6 0.06 100 1.00
    合計 100 1.00


    これらからヒストグラムを作成することができるが、そこに関してはあまり興味が無いので言及しない。

    量的取り扱い

    グラフの書き方とかはもし私が勉強していく中で学ぶことがあれば書くことにしよう。数理統計学的な面で統計学を扱っていくにあたり、量的な取り扱いの基礎を学ぶ。

    平均値

    この言葉を知らないことはまず無いだろう。観測値 x_1,x_2,\ldots,x_n に対して平均値 \bar{x} は以下で求められる。

    $$
    \bar{x} = \frac{x_1+x_2+\ldots+x_n}{n} = \frac{1}{n}\sum_{i=1}^n x_i
    $$

    コンピュータが発達し、Excelのような表計算ソフトがある今の時代にあまり需要は無いと思われるが、昔はそのような便利なものはなく、計算はとても骨が折れるものであった。そのため少しでも計算を簡易にしようと次のような計算方法がある(のだと私は少なくとも思っている。)

    各測定値 x_i (i=1,2,\ldots,n)

    $$
    u_i = (x_i-x_0)/h
    $$

    と変換し

    $$
    \bar{u} = \frac{u_1+u_2+\ldots+u_n}{n}
    $$

    を求め、これを元に戻して

    $$
    \bar{x}=\bar{u}\cdot h+x_0
    $$

    とすることで求める。ここで x_0仮平均といい、 u_i が簡単になるように適当に定める。 h も同様に適当に定めてやる。

    中央値(メジアン)

    名前の通り、真ん中の数である。イメージは5人組の戦隊物のレッドの位置。

    標本を大きさの順に並べて

    $$
    x_{(1)} \le x_{(2)} \le \ldots \le x_{(n-1)} \le x_{(n)}
    $$

    としてやった時に、中央値は

    $$
    \tilde{x}=
    \begin{eqnarray}
    \left\{
    \begin{array}{ll}
    x_{(\frac{n+1}{2})} & n:奇数 \\
    \frac{x_{(\frac{n}{2})}+x_{(\frac{n}{2}+1)}}{2} & n:偶数
    \end{array}
    \right.
    \end{eqnarray}
    $$

    で与えられる。
    例えば標本が $1,2,3,4,5$ だったら中央値は $3$ 一方、標本が $1,2,3,4,5,6$ ならば中央値は $3.5$ である。

    分散

    分散は散らばりの尺度である。

    $$
    s^2 = \frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2 = \frac{1}{n}\sum_{i=1}^n x_i^2 - \bar{x}^2
    $$

    で分散は与えられる。また、

    $$
    s = \sqrt{s^2} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2}
    $$

    標準偏差と呼ばれる。

    積率(モーメント)

    原点まわりの v 次モーメント

    $$
    m_v' = \frac{1}{n}\sum_{i=1}^n x_i^v
    $$

    平均値まわりの v 次モーメント

    $$
    m_v = \frac{1}{n} \sum_{i=1}^n (x_i-\bar{x})^v
    $$

    であり、一般に

    $$
    m_v = m_v'- \left(
    \begin{array}{c}
    v \\
    1 \\
    \end{array}
    \right)
    \bar{x}m_{v-1}'+
    \left(
    \begin{array}{c}
    v \\
    2 \\
    \end{array}
    \right)
    \bar{x}^2m_{v-2}' - \ldots + (-1)^v
    \left(
    \begin{array}{c}
    v \\
    v \\
    \end{array}
    \right) \bar{x}^v
    $$

    なる関係が成立する。

    ひづみ(歪度)、とがり(尖度)

  • ひづみ

  • 対称性の指標。

    $$
    a = m_3/s^3
    $$

    a > 0 ならば右の裾が長くa < 0 ならば左の裾が長い

  • とがり

  • 尖りの程度を表す指標。正規分布のと比較することが多い。そのため

    $$
    b=m_4/s^4 -3 \;\; (もしくは\;\; m_4/s^4)
    $$

    として扱うことが多く、 b > 0 ならば正規分布よりも尖っており、 b < 0 ならば、正規分布より丸く鈍い形をしている。

    モード(最頻値)

    ヒストグラムの山の一番高い柱の代表値。文字通り、もっとも出現頻度が高い値のこと。

    参考文献

    松原望,縄田和満,中井検裕(2014)『統計学入門』(基礎統計学Ⅰ)東京大学出版会
    国沢清典(2012)『確率統計演習2 統計』培風館



    このあたりの内容ってやっててだるいからモチベ下がるんだよなあ...

    経済学の十大原理

    個人的興味から経済学も少しかじっていくつもりなので、ここに書いていく.
    個人的なメモ及びアウトプットがメインな上、私自身が専門にしようと考えている分野ではないのであまり詳しい説明は書かないし、書けない。

    人々はどのように意思決定するか

    1. 人々はトレードオフ(相反する関係)に直面している.
    2. あるものの費用は、それを得るための費用に放棄したものの価値である.
    3. 合理的な人々は限界費用に基づいて考える.
    4. 人々は様々なインセンティブ(誘引)に反応する.

    人々はどのように影響し合うのか

    1. 交易(取引)は全ての人々をより豊かにする.
    2. 通常、市場は経済活動を組織する良作である.
    3. 政府が市場にもたらす成果を改善できることもある.

    経済全体としてどのように動いているか

    1. 一国の生活水準は、財・サービスの生産能力に依存している.
    2. 政府が紙幣を印刷しすぎると、物価が上昇する.
    3. 社会は、インフレと失業の短期的トレードオフに直面している.
    4. 参考文献

      N・グレゴリー・マンキュー(2015)『マンキュー経済学Ⅰ ミクロ編 (第3版)』足立英之/石川城太/小川英治/地主敏樹/中馬宏之/柳川隆 訳 東洋経済新報社

    統計学、参考書おすすめ

    統計学を学ぶにあたっておすすめの参考書、及び読んでおきたい本を紹介したいと思います。

    統計学

    統計学入門 (基礎統計学)


    難しさ★★☆☆☆(2)

    言わずとしれた良書。統計学をわかりやすくかつレベルを落とさずに解説しようと東大の先生方が書いたもの。統計学の歴史や実際にどのように使われているのかがわかる具体例が多く、文系理系問わずに読むことができる。ただ、わかりやすさを主眼に置き、数学的な証明の大部分は載っていないため、数理統計学としての統計学を考えている人には足りない。証明などを除けばかなり詳しく具体例を交えて書かれているので、統計学という学問を知るために一度読んでおくのが良い。またアクチュアリー指定教科書でもあるので、受験を考える人は持っておいたほうがいい一冊。
    また、これは全部で三冊ある基礎統計学シリーズの最初の本で、もう2つに「人文・社会科学の統計学 (基礎統計学)」「自然科学の統計学 (基礎統計学)
    」がある。

    統計学が最強の学問である


    難しさ:☆☆☆☆☆(0)

    統計学を学ぶ動機づけに最適な本。統計学とはどういうものなのか、世間で言われているビッグデータについてや、ただデータを見やすくグラフにする社員をコケにしてみたりと読むに飽きず、サラッと読めて、統計学を知った気になれる本。本質的なことはわからなくても、統計学がどんなものであるのかわかる。世間が誤解してる統計についての少し知ったかぶりができるようになる。ちょっと統計がきになる人だけでなく本格的に勉強しようと考えてる人も一度読んでみると結構面白いはず。

    マンガでわかる統計学


    難しさ★☆☆☆☆(1)

    私自身はさらっと目をとおしただけだが、統計学の研究室に所属している助教「まずうちの研究室に来たらこれを読むんだ」と紹介していた。曰く、必携の一冊とのこと。

    定義関数,単純可測関数

    定義関数

    定義

    A \subset \Omega に対して

    $$
    \begin{eqnarray}
    1_A(\omega) \equiv \left\{
    \begin{array}{ll}
    1 & (\omega \in A) \\
    0 & (\omega \in A)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    と定めると、この関数 1_A定義関数という。

    単純可測関数

    f:\Omega \to \mathbb{R} に対して、a_1,a_2,\ldots,a_k \in \mathbb{R} 及び \Omega の有限分割 \{A_1,A_2,\ldots,A_n\} が存在して

    $$
    f(\omega)=\sum_{i=1}^n a_i 1_{A_i}(\omega)
    $$

    と表せるとき、 f単純可測関数であるという。

    定理

    任意の可測関数 f:\Omega \to [0,+\infty] に対して、単純可測関数の単調増加列 \{f_n\} が存在して, f=\lim_{n \to \infty} f_n である。

    証明は少し面倒なので省略。気になる方はルベーグ積分を扱っている参考書を買ったり借りたりして調べて見てください。以後、積分の性質に関するところの証明の可測関数の場合でよく出てきます。

    短いですが今回はここまで。

    参考文献

    梅垣壽春,大矢雅則,塚田真(2015)『測度・積分・確率』共立出版株式会社

    可測関数

    可測関数

    空間 \Omega\sigma-加法族 \mathcal{F} の組、つまりは可測空間 (\Omega,\mathcal{F}) を考える。\bar{\mathbb{R}}=\{\mathbb{R},\pm\infty\} とする。

    定義

    f:\Omega \to \bar{\mathbb{R}} が次の条件を満たす時、f\mathcal{F} -可測関数でるという。

    $$
    \{\omega\in\Omega;f(\omega)\le a\} \in \mathcal{F} \;\;\;\;\;(\forall a\in \mathbb{R})
    $$

    ここで、少し表記を省略して、例えば上記の式を \{f \le a\} \in \mathcal{F} と書く事にする。 上の定義から以下が全て同値であることが導ける。

    $$
    \begin{eqnarray}
    (1)&f:\mathcal{F}-可測関数 &&;\\
    (2)&\{f \ge a\} \in \mathcal{F} & (\forall a \in \mathbb{R}) & ; \\
    (3)&\{f < a\} \in \mathcal{F} & (\forall a \in \mathbb{R}) & ; \\
    (4)&\{f > a\} \in \mathcal{F} & (\forall a \in \mathbb{R}) & ; \\
    (5)&f^{-1}(B)\in \mathcal{F} &(\forall B \in \mathfrak{B}) & かつ \{f=+\infty\},\{f=-\infty\} \in \mathcal{F}
    \end{eqnarray}
    $$

    証明
    (1)\Rightarrow(4) : \{f > a\} = \{f \le a\}^c \in \mathcal{F} \;\; (\forall a \in \mathbb{R}) ;
    (4)\Rightarrow(2) : \{f\ge a\} = \cap_{n=1}^{\infty}\{f>a-\frac{1}{n}\}\in \mathcal{F}\;\; (\forall a \in \mathbb{R}) ;
    (2)\Rightarrow(3) : \{f < a\}=\{f \ge a\}^c \in \mathcal{F} \;\; (\forall a \in \mathbb{R}) ;
    (3)\Rightarrow(1) : \{f\le a\}=\cap_{n=1}^{\infty}\{f < a + \frac{1}{n}\} \in \mathcal{F} \;\; (\forall a \in \mathbb{R})

    以上により (1)\Leftrightarrow(2)\Leftrightarrow(3)\Leftrightarrow(4)が示された。

    $$
    \begin{eqnarray}
    (5)\Rightarrow(1)&:& \{f \le a\}=f^{-1}((-\infty,a])\cup\{f=-\infty\} \in \mathcal{F} \;\; (\forall a \in \mathbb{R}) \\
    (1)かつ(4)\Rightarrow (5) &:& f^{-1}((a,b])=\{f>a\}\cap\{f\le b\} \in \mathcal{F} \;\; (\forall a \in \mathbb{R})
    \end{eqnarray}
    $$

    より示された。

    各種演算

    次に f,g,f_n(n=1,2,3.\ldots) をいづれも \mathcal{F} -可測関数として、\alpha \in \mathbb{R} とする。次の関数が定義されるならば、いずれも \mathcal{F}-可測関数である。

    (1)\alpha f
    任意の a\in \mathbb{R} に対して

    $$
    \begin{eqnarray}
    \alpha=0 &\Rightarrow& \{\alpha f \le a\}=
    \left\{
    \begin{array}{l}
    \phi \in \mathcal{F} \;\; (a<0)\\
    \Omega \in \mathcal{F} \;\; (a\ge 0)
    \end{array}
    \right. \\
    \alpha > 0 &\Rightarrow& \{\alpha f \le a\} = \{f\le \frac{a}{\alpha}\} \in \mathcal{F} \\
    \alpha < 0&\Rightarrow& \{\alpha f \le a\} = \{f \ge \frac{a}{\alpha}\} \in \mathcal{F}
    \end{eqnarray}
    $$

    a の値は任意であることを思い出すと良い。つまり任意であるから a=\frac{a}{\alpha} でも良い。

    (2) f+g

    \mathcal{Q}=\{r_1,r_2,\ldots\} とする。

    $$
    \begin{eqnarray}
    \{f + g < a\} &=& \{f < a - g\} \\
    &=& \cup_{n=1}^{\infty}\{f < r_n < a - g\} \\
    &=& \cup_{n=1}^{\infty}(\{f < r_n\}\cap\{g < a - r_n\}) \in \mathcal{F}
    \end{eqnarray}
    $$

    (3) fg
    \forall a \in \mathbb{R} に対して

    $$
    \{f^2\le a\} =
    \begin{eqnarray}
    \left\{
    \begin{array}{ll}
    \{-\sqrt{a} \le f \le \sqrt{a}\} \in \mathcal{F} & (a \ge 0) \\
    \phi \in \mathcal{F} & (a < 0)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    であるから、 f^2\mathcal{F} -可測関数である。

    $$
    \therefore \;\; fg=\frac{(f+g)^2-(f-g)^2}{4}
    $$

    \mathcal{F} -可測関数である。

    (4) \frac{1}{f}
    \forall a \in \mathcal{F} に対して

    $$
    \{\frac{1}{f} \le a\}=(\{f>0\}\cap\{af\ge1\})\cup(\{f<0\}\cap\{af\le 1\})\in \mathcal{F}
    $$

    (5) |f|

    $$
    \{|f|\le a\}=
    \begin{eqnarray}
    \left\{
    \begin{array}{cl}
    -f\le a \le f \in \mathcal{F} & (a \ge 0) \\
    \phi \in \mathcal{F} & (a < 0)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    (6) \sup_{n\ge 1} f_n
    \forall a \in \mathbb{R}に対して

    $$
    \{\sup_{n\ge 1} f_n \le a\} = \cap_{n=1}^{\infty}\{f_n \le a\} \in \mathcal{F}
    $$

    (7) \inf_{n\ge 1} f_n

    \inf_{n\ge 1}f_n = -(\sup_{n\ge 1} (-f_n))

    より示される。

    (8) \limsup_{n\to\infty}f_n

    定義

    \limsup_{n\to\infty}f_n=\inf_{n\in\mathbb{N}}(\sup_{k\ge n} f_k)

    から、これも \mathcal{F} -可測関数

    (9) \liminf_{n\to\infty}f_n

    同様に定義

    \liminf_{n\to\infty}f_n=\sup_{n\in\mathbb{N}}(\inf_{k\ge n}f_k)

    からわかる。

    (10) \lim_{n\to\infty}f_n 極限の定義から、数列が極限を持つのは、上極限と下極限が一致した時であるから、明らか。

    $$
    \lim_{n\to\infty}f_n=\liminf_{n\to\infty}f_n=\limsup_{n\to\infty}f_n
    $$

    (11) f\lor g = \max\{f,g\}
    \forall a \in \mathbb{R} に対して

    $$
    \begin{eqnarray}
    \{f\lor g \le a\}&=&\{\max\{f,g\}\le a\} \\
    &=& \{f\le a\}\cap\{g\le a\} \in \mathcal{F}
    \end{eqnarray}
    $$

    (12) f \land g = \min\{f,g\}

    \forall a\in \mathbb{R} に対して

    $$
    \begin{eqnarray}
    \{f\land g \le a\}&=& \{\min\{f,g\}\le a\} \\
    &=& \{f\le a\}\cup\{g\le a\} \in \mathcal{F}
    \end{eqnarray}
    $$

    (13)\sqrt{f}

    \forall a\in \mathbb{R}に対して

    $$
    \{\sqrt{f}\le a\}=
    \begin{eqnarray}
    \left\{
    \begin{array}{cl}
    \{0\le f \le a^2\} \in \mathcal{F} & (a\ge 0) \\
    \phi \in \mathcal{F} & (a < 0)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    より \sqrt{f} は可測関数。

    参考文献

    梅垣壽春,大矢雅則,塚田真(2015)『測度・積分・確率』共立出版株式会社
    志賀浩二(2008)『ルベーグ積分30講』朝倉書店
    伊藤清三(2008)『数学選書4. ルベーグ積分入門』裳華房

    状態の分類

    状態の分類

    マルコフ連鎖 \{X_n\} は離散形状態空間 S と推移行列 \{p_{i,j} \} を持つとする。

    定義

    1. i,j \in S に対して、ある n > 0があって、 p_{i,j}^{(n)} > 0であるとき、i から j到達可能であるといい、 i \to j 表す。
    2. i \to j かつ j \to iであるとき、i \leftrightarrow j と表し、互いに到達可能 であるという。
    3. 全ての i,j \in C \subset S に対して、i \leftrightarrow j ならばC既訳であるという。
    4. 状態 i \in S から、他のどんな状態へも到達できないとき、i吸収状態と呼ぶ。

    i \leftrightarrow j ならば j \leftrightarrow i でありi \leftrightarrow jかつ j \leftrightarrow k ならば i \leftrightarrow k であるので、\leftrightarrow は対称的かつ推移的である。この関係により状態を排反な集合に分類することができる。

    閉集合・・・分類された集合の中で、集合の外への推移がないもの.

    S の部分集合 C閉集合である \Leftrightarrow[(j\in C \land j\rightarrow k) \Rightarrow k \in C]

    となる。

    状態空間 S は既約かつ排反な閉集合の集まりと、既約な閉集合を含まない集合に分類できる。

    \because) \forall i \in S に対して

    C(i) = iを含む既約な閉集合

    と定義する。この時 \forall i,j \in S に対して
    $$
    C(i) \cap C(j) \neq \phi
    $$
    ならば
    $$
    C(i)=C(j)
    $$
    である。
    $$
    T=S-\cup_{i\in S}C(i)
    $$
    とおく。この時 SC(i),i \in STに分割される。

    (例)
    f:id:doratai:20160127121447p:plain

    例えば上の図において状態1と2,3と4は互いに到達可能である。
    {1,2},{3,4}は既約、状態5は閉集合である。

    周期

    定義

    j \in S に対して
    $$
    \begin{equation}
    d= \gcd\{n \ge 1; p_{j,j}^{(n)}>0\} (= \{n \ge 1; p_{i,j}^{(n)}>0\}の最大公約数)
    \end{equation}
    $$
    とする時 dj周期という。特に d=1 の時、j非周期的であるという。

    周期に関して、Wikipediaの周期性の項目がわかりやすかったので引用したものを下記に記す。
    マルコフ連鎖

    状態i への回帰がk の倍数回のみに見られ、しかもk がこの性質を持つ最大の数ならば、「状態i の周期はk である」という。例えば、i への回帰が偶数回目にのみ起こるならば、i の周期は2である。

    上式におけるdに当たるのが引用部分のkになる。

    定理 i,j \in S に対して、 i \leftrightarrow j ならば、ij は同じ周期を持つ。

    証明

    i,j の周期を d(i),d(j) と表すことにする。d(i)d(j) で割切れることを証明する。

    i \rightarrow j より、ある n に対してp_{i,j}^{(n)} > 0 であり、ある m に対して p_{i,j}^{(m)} > 0 であるから、チャップマン・コルモゴロフの公式から

    $$
    \begin{equation}
    p_{i,i}^{(n+m)} \ge p_{i,j}^{(n)}p_{j,i}^{(m)} > 0
    \end{equation}
    $$

    が成り立つ。よって、 n+md(i) の倍数である。
    kp_{j,j}^{(k)} > $ を満たす任意の正整数とする。

    $$
    \begin{equation}
    p_{i,i}^{(n+k+m)} \ge p_{i,j}^{(n)}p_{j,j}^{(k)}p_{j,i}^{(m)} > 0
    \end{equation}
    $$

    より、n+m+kd(i) の倍数である。よって kd(i) の倍数である。
    従って d(j)d(i) で割り切れる。
    ここで、i,j は互いに到達可能であるので
    $$
    \begin{equation}
    d(i) = d(j)
    \end{equation}
    $$
    が言える。

    この定理により、既約なマルコフ連鎖の状態は全て同じ周期を持つ。

    先に示した例の図において、状態1と2は既約であり、状態1において何度となく状態1を繰り返す可能性がある。すると
    $$
    \begin{equation}
    d(1) = \gcd\{1,2,3,4,5,\ldots\} = 1 \\
    d(2) = \gcd\{2,3,4,5,6,\ldots\} = 1
    \end{equation}
    $$
    となる。既約である二つの状態の周期は一致している。$d=1$であるので、状態1と2は非周期的である。状態3と4も既約である。状態3を考えると一旦状態4に移ってまた戻ってくるという推移をしなければならないから
    $$
    \begin{equation}
    d(3) = \gcd\{2,4,6,8,\ldots\} = 2
    \end{equation}
    $$
    になる。また状態3と4は既約なので当然 $d(4)=2$ になる。よって$d \neq 1$であるので、状態3,4は周期的である。
    また状態5は永遠と状態5を繰り返すので
    $$
    \begin{equation}
    d(5) = \gcd\{1,2,3,4,5,6,\ldots\} = 1
    \end{equation}
    $$
    であり非周期的である。

    参考書籍

    宮沢政清(2013)『確率と確率過程』(現代数学ゼミナール17)近代科学社

    n次の推移行列

    関連・・・マルコフ連鎖

    準備

    確率過程の主要な問題の1つとして、現在の状態の分布から未来の状態を計算する、というものがある。マルコフ連鎖を用いることで、この確率を求めることが可能である。

    \{X_n\}マルコフ連鎖i_0,i_1,\ldots,i_n \in Sの時
    マルコフ連鎖の定義、推移行列 p_{i,j} の定義より

    (1)
    {
\begin{eqnarray}
&   & P(X_0=i_0,X_1=i_1,\ldots,X_n=i_n) \\
& = & P(X_0=i_0,\ldots,X_{n-1}=i_{n-1})\cdot \frac{P(X_0=i_0,X_1=i_1,\ldots,X_n=i_n)}{P(X_0=i_0,X_1=i_1,\ldots,X_{n-1}=i_{n-1})} \\
& = & P(X_0=i_0,\ldots,X_{n-1}=i_{n-1})\cdot P(X_n=i_n\;|X_0=i_0,\ldots,X_{n-1}=i_{n-1}) \\
& = & P(X_0=i_0,\ldots,X_{n-1}=i_{n-1})\cdot p_{i_{n-1},i_n} \\
& = & \ldots \\
& = & P(X_0=i_0)\cdot p_{i_0,i_1}\cdot p_{i_1,i_2}\cdot \ldots \cdot p_{i_{n-1},i_n}
\end{eqnarray}
}
    が成り立つ。(1)式より、マルコフ連鎖は $X_0$ 分布(初期分布)と推移行列 \{p_{i,j}\} により定まることが分かる。

    マルコフ連鎖(上)推移行列(下)[確認]
    {
{\small \begin{equation}
P(X_{n+1} = j \; | X_0=j_0,X_1=j_1,\ldots,X_{n-1}=j_{n-1},X_n=i)=P(X_{n+1}=j\;|X_n=i) \\
p_{i,j} = P(X_{n+1}=j|X_n=i) \;\;\; (i,j \in S)
\end{equation}}
}

    定義

    p_{i,j^{(n)}}=P(X_n=j|X_0=i)n 次の推移確率 p_{i,j^{(n)}} を要素とする行列、

    {
\begin{equation}
P^{(n)}=\{p_{i,j}^{(n)}\}_{i,j \in S}
\end{equation}
}

    n次の推移行列という。

    マルコフ連鎖の式は n,m > 0 に対して
    {
\begin{equation}
P(X_0=i_0,X_1=i_1,\ldots,X_{n+m}=i_{n+m}) = P(X_0=i_0)\cdot p_{i_0,i_1}\cdot p_{i_1,i_2}\cdot \ldots \cdot p_{i_{n-1},i_n}
\end{equation}
}
    である。この両辺を i_0,i_n,i_{n+m} を除いた全ての i_j について和を取ると

    {
\begin{eqnarray}
&   & P(X_0=i_0,X_n=i_n,X_{n+m}=i_{n+m}) \\
& = & \sum_{i_i,\ldots,i_{n-1}} P(X_0=i_0)p_{i_0,i_1}\ldots p_{i_{n-1},i_n} \sum_{i_{n+1},\ldots,i_{n+m-1}} p_{i_n,i_{n+1}}\ldots p_{i_{n+m-1},i_{n+m}} \\
& = & P(X_0=i_0,X_{n}=i_n)P(X_{n+m}=i_{n+m} | X_n=i_n)
\end{eqnarray}
}

    である。ここで両辺を P(X_0=i_0,X_n=i_n) で割ると

    {
\begin{equation}
P(X_{n+m}=i_{n+m} | X_0=i_0,X_n=i_n) = P(X_{n+m}=i_{n+m} | X_n=i_n)
\end{equation}
}

    を得る。これはマルコフ連鎖の式の別表現である。

    補題 (チャップマン・コルモゴロフの公式)

    任意の整数 m,n \ge 0i,j \in S に対して
    {
\begin{equation}
p_{i,j}^{(n+m)}=\sum_{k \in S} p_{i,k}^{(n)} p_{k,j}^{(m)} \;\;\;\;\; (※)
\end{equation}
}
    が成り立つ。

    証明

    \cup_{k\in S} \{X_n=k\}=\Omega であるから
    {
\begin{eqnarray}
p_{i,j}^{(n+m)} & = & P(X_{n+m}=j|X_0=i) \\
& = & \sum_{k\in S} P(X_{n+m}=j,X_n=i_k|X_0=i) \\
& = & \sum_{k\in S} P(X_{n+m}=j|X_n=k,X_0=i)P(X_n=k|X_0=i) \\
& = & \sum_{k\in S} P(X_{x+m}=j|X_n=k)P(X_n=k|X_0=i) \\
& = & \sum_{k\in S} p_{k,j}^{(m)}p_{i,k}^{(n)} \\
& = & \sum_{k\in S} p_{i,k}^{(n)}p_{k,j}^{(m)} \;\;\;\; \Box
\end{eqnarray}
}

    同じ状態空間 S より定義された2つの推移行列 P=\{p_{i,j}\},Q=\{q_{i,j}\}の積 PQ を通常の行列の積と同様に

    {
\begin{equation}
PQの(i,j)要素=\sum_{k\in S} p_{i,k}q_{k,j}
\end{equation}
}

    により定義する。そうすると(※)を

    {
\begin{equation}
P^{(n+m)}=P^{(n)}P^{(m)}
\end{equation}
}

    と表すことができ、更に

    {
\begin{equation}
P^{(n)}=P^{(n-1)}P=\ldots=P^n
\end{equation}
}

    よりn次の推移行列は推移行列のn回の積であることが分かる。

    参考書籍

    宮沢政清(2013)『確率と確率過程』(現代数学ゼミナール17)近代科学社

    離散時間型マルコフ連鎖

    マルコフ連鎖

    Pを確率測度とし、\{X_n\}_{n=1}^{\infty} を有限または可算の集合 S を状態空間に持つ離散形確率過程とする。

    ※確率過程(Wikipedia参照)

    確率論において、確率過程(かくりつかてい、英語: stochastic process)は、時間とともに変化する確率変数のことであり、株価や為替の変動、ブラウン運動などの粒子のランダムな運動を数学的に記述するモデルとして利用される。不規則過程(英語: random process)とも言う

    確率過程(Wikipedia)


    ※状態空間・・・確率過程が各時刻で取る値の集合

    定義

    \{X_n\}_{n=0}^{+\infty}が任意のn と任意のj_0,j_1,\ldots,j_{n-1},i,j \in Sに対して、

     {
\begin{equation}
(1) \;\; P(X_{n+1} = j \; | X_0=j_0,X_1=j_1,\ldots,X_{n-1}=j_{n-1},X_n=i)=P(X_{n+1}=j\;|X_n=i)
\end{equation}
}

    を満たすとき、\{X_n\}離散時間型マルコフ連鎖または単にマルコフ連鎖と呼ぶ。更に上式の右辺がnに依存しないならば、定常な推移を持つという。また(1)式は次のように表すこともできる。

    {
\begin{equation}
(1)' \;\; P(X_{n+1} = j \; | X_0,X_1,\ldots,X_n) = P(X_{n+1} = j | X_n)
\end{equation}
}

    これらの式は次の時刻における状態は、現在の状態によってのみ決まり、過去によらないことを示している。このことをマルコフ性と呼ぶ。マルコフ連鎖が定常な推移を持つならば、状態の変化は出発点の時刻に依存しない。

    定常な推移について言い換え

    マルコフ連鎖が定常な推移を持つとは i,j \in Sに対して
     {
\begin{equation}
p_{i,j}=P(X_{n+1} = j \; | X_n = i )
\end{equation}
}
    を満たすp_{i,j} が存在するとき。 \{X_n\}
    は定常な推移を持つという。

    マルコフ連鎖の例

    状態空間 S = \{A,B,C\}
    を用意します。1秒ごとにAからBへ1/3の確率で、AからCへ1/3の確率で、
    AからAに1/3,BからBに1/3,BからAに2/3,CからBに1/3,CからCに2/3の
    確率で状態がうつるとする。この時推移図は以下のようになっている。

    f:id:doratai:20160123202419p:plain

    この時、推移行列は次で与えられる。
     {
P = \left(
  \begin{array}{ccc}
    1/3 & 1/3 & 1/3 \\
    2/3 & 1/3 & 0 \\
    0   & 1/3 & 2/3
  \end{array}
\right)
}
    大学受験で確率をやった人は上のような図を書いたことがある人もいると思います。
    この確率過程は n の値によっていないことがわかります。
    例えば時間 nの時に状態Bであった時、次の時間 n+1 の時に状態A
    である確率は次のようにかけます。
    {
\begin{equation}
P(X_{n+1} = A\;| X_n = B ) = \frac{2}{3}\cdot P(X_n=B)
\end{equation}
}
    次の状態は現在の状態にのみ依存していることがわかりますね。
    故にこの確率過程はマルコフ性を持っています。また、
    BからAに推移する確率はnの値に関わらず 2/3 です。他の場合も同様であり
    これは「定常な推移を持つ」と言えます。


    ※推移行列の見方はAを状態1,Bを状態2,Cを状態3としたとき、 状態1から状態2に推移する確率が1行2列目の p_{1,2}成分に書かれている。

    推移行列に関する補足

    先に例示した推移行列Pの各行を見てもらいたい。各行の成分を横に足してくと和が1になっているのが分かる。
    n次の正方行列Q=\{q_{i,j}\}マルコフ連鎖の推移行列になるための必要十分条件として

    {
\begin{equation}
q_{i,j} \ge 0, \;\;\;\; \sum_{j\in S} q_{i,j} = 1
\end{equation}
}

    があることを覚えておきたい。

    参考書籍

    宮沢政清(2013)『確率と確率過程』(現代数学ゼミナール17)近代科学社

    平均μ、分散σ^2共に未知の場合の尤度比検定(正規分布)

    この検定方法の導出がなかなかに骨が折れるものでした...
    定着のためにも載せておこうと思います。

    尤度比検定

    ここで用いる尤度比検定の基本的な内容については以下を参照してください
    doratai.hatenablog.com尤度比検定 - 統計,確率のお勉強

    問題

    正規母集団の平均に関する検定において、母分散\sigma^2を未知としたとき、以下の検定問題

    \begin{eqnarray}
    \left\{
    \begin{array}{l}
    H_0 : \mu = \mu_0 \\
    H_1 : \mu \neq \mu_0
    \end{array}
    \right.
    \end{eqnarray}
    の検定方法を導く。

    導出

    ともに未知の平均と分散\mu,\sigma^2の正規母集団からの互いに独立した標本をX_1,X_2,\ldots,X_nとし、有意水準\alphaとする。
    正規母集団N(\mu,\sigma^2)にしたがっているので、母集団の分布は

    f(x;\mu, \sigma^2) = \frac{1}{\sqrt{2 \pi}\sigma} \exp(-\frac{(x - \mu)^2}{2\sigma^2})

    で与えられる。尤度比を\lambdaとすると、
     {
\begin{eqnarray}
\lambda & = & \frac{\max_{\sigma^2} \prod_{i=1}^n \frac{1}{\sqrt{2\pi}\sigma}\exp(-\frac{(x_i-\mu_0)^2}{2\sigma^2})}{\max_{\mu,\sigma^2} \prod_{i=1}^n \frac{1}{\sqrt{2\pi}\sigma} \exp(-\frac{(x_i-\mu)^2}{2\sigma^2}) } \\
 & = & \frac{\{ (\frac{1}{2\pi \hat{\sigma}_0^2})^{\frac{n}{2}} \exp(-\frac{1}{2\hat{\sigma}_0^2} \sum_{i=1}^n (x_i - \mu_0)^2) \}_{\hat{\sigma}_0^2 = \frac{1}{n}\sum_{i=1}^n (x_i - \mu_0)^2}}{\{ (\frac{1}{2\pi \hat{\sigma}_1^2})^{\frac{n}{2}} \exp(-\frac{1}{2\hat{\sigma}_1^2} \sum_{i=1}^n (x_i - \bar{x})^2) \}_{\hat{\sigma}_1^2 = \frac{1}{n}\sum_{i=1}^n (x_i - \bar{x})^2}} \\
 & = & ( \frac{\hat{\sigma}_1^2}{\hat{\sigma}_0^2})^{\frac{n}{2}} \\
 & = & ( \frac{\sum_{i=1}^n (x_i - \bar{x})^2}{\sum_{i=1}^n (x_i-\mu_0)^2} )^{\frac{n}{2}} \\
 & = & (\frac{\sum_{i=1}^n (x_i - \bar{x})^2}{\sum_{i=1}^n (x_i - \bar{x} + \bar{x} - \mu_0)^2})^{\frac{n}{2}} \\
 & = & (\frac{\sum (x_i - \bar{x})^2}{\sum (x_i-\bar{x})^2 + n(\bar{x}-\mu_0)^2})^{\frac{n}{2}} \\
 & = & (\frac{1}{1+ \frac{(\bar{x}-\mu_0)^2}{\frac{1}{n}\sum (x_i - \bar{x})^2}})^{\frac{n}{2}} \\
\end{eqnarray}
}

    ここで、 t^2 = (\frac{\bar{x}-\mu_0}{s/\sqrt{n-1}})^2, s^2 = \frac{1}{n} \sum_{i=1}^n (x_i-\bar{x})^2として

     {
\begin{eqnarray}
\lambda & = & (\frac{1}{1+(\frac{\bar{x}-\mu_0}{s/\sqrt{n-1}}\cdot \frac{1}{\sqrt{n-1}})^2})^{\frac{n}{2}} \\
 & = & (\frac{1}{1+\frac{t^2}{n-1}})^{\frac{n}{2}}
\end{eqnarray}
}

    となる。よって棄却域W^*

     {
\begin{eqnarray}
W^* & = & \{ (X_1,\ldots,X_n) ; \lambda < k \} \\
 & = & \{ (X_1,\ldots,X_n); (\frac{1}{1+\frac{t^2}{n-1}})^{\frac{n}{2}} < k \} \\
 & = & \{ (X_1,\ldots,X_n); 1+\frac{t^2}{n-1} > k^{-\frac{2}{n}}\} \\
 & = & \{ (X_1,\ldots,X_n); |t| > \sqrt{(k^{-\frac{2}{n}}-1)(n-1)} = c \}
\end{eqnarray}
}

    で与えられる。ここでc

     P((X_1,\ldots,X_n) \in W^* | \mu = \mu_0) = \alpha

     P(|T| > c | \mu = \mu_0) = \alpha

    によって定められH_0のもとでT=\frac{\bar{X}-\mu_0}{S/\sqrt{n-1}}は自由度n-1t分布に従う。
    よって

     P(|T| = \frac{|\bar{X}-\mu_0|}{S/\sqrt{n-1}} > t_{n-1} (\alpha/2) ) = \alpha

    よりc = t_{n-1} (\alpha/2) とすれば良いことが分かる。
    以上より棄却域

    W^* = \{(X_1,\ldots,X_n); \frac{|\bar{X}-\mu_0|}{S/\sqrt{n-1}} > t_{n-1} (\alpha/2) \}

    で与えられる。

    参考文献

    鈴木武・山田作太郎(2006)『数理統計学-基礎から学ぶデータ解析-』内田老鶴圃.
    国沢清典(2012)『確率統計演習2-統計』培風館.

    一様最強力検定(UMP検定)

    定義

    互いに独立な標本X_1,X_2,\ldots,X_nに対して
    検定問題
    \begin{eqnarray}
    \left\{
    \begin{array}{l}
    H_0 : \theta \in \Theta_0 \\
    H_1 : \theta \in \Theta_1
    \end{array}
    \right.
    \end{eqnarray}
    を考えたとき、最良な棄却域W^*の選び方として
    \begin{equation}
    \forall \theta_0 \in \Theta_0,\beta_{W^*} (\theta_0) = P((X_1,\ldots,X_n) \in W^* | \theta_0 \in \Theta_0) = \alpha
    \end{equation}
    かつ
    \begin{equation}
    \forall W, \forall \theta_1 \in \Theta_1,\beta_{W^*} (\theta_1) \ge \beta_W (\theta_1)
    \end{equation}
    を満たす一様最強力棄却域W^*によって定まる検定を一様最強力検定という。

    内容

    覚えておきたいこと
    検定を決める = 棄却域を決める

    何を言っているのかというと、どのような棄却域よりも、検出力が大きい。
    つまり、検出力が最大となるような棄却域(一様最強力棄却域)を用いて行われる検定が
    他の棄却域を用いる検定に比べ最も良いということが言いたいのである。
    最初のやつは有意水準に関する言及であり、メインは後者の方である。後者の式を言い直すと、

    「任意のどのような棄却域をとってきたとしても、その検出力は、最強力棄却域による検出力以下である」

    ということである。

    また、後者の式を変形すると

    \begin{eqnarray}
    \beta_{W^*} (\theta_1) & \ge & \beta_W (\theta_1) \\
    P((X_1,\ldots,X_n) \in W^* | \theta_1 \in \Theta_1) & \ge & P((X_1,\ldots,X_n) \in W | \theta_1 \in \Theta_1) \\
    1-P((X_1,\ldots,X_n) \notin W^* | \theta_1 \in \Theta_1) & \ge & 1-P((X_1,\ldots,X_n) \notin W | \theta_1 \in \Theta_1) \\
    P((X_1,\ldots,X_n) \notin W^* | \theta_1 \in \Theta_1) & \le & P((X_1,\ldots,X_n) \notin W | \theta_1 \in \Theta_1)
    \end{eqnarray}

    これはつまり、一様最強力棄却域が、第2種の誤り確率を最小にする棄却域であることを示している。

    参考文献

    鈴木武・山田作太郎(2006)『数理統計学-基礎から学ぶデータ解析-』内田老鶴圃.
    国沢清典(2012)『確率統計演習2-統計』培風館.
    稲垣宣生(2013)『数理統計学』(数学シリーズ)裳華房.