統計・確率のお勉強

統計学を中心に色々勉強するブログ

最小二乗法(単回帰)

理系の大学に入って、最初の年。物理学などの実験をかせられるところも多いだろう。その時、実験値に対して最小二乗法をしてグラフを書け!みたいなことを言われると思う。
私自身が物理学の実験を行っていた時も最小二乗法を使っていたが、何をしている課さっぱりわからなかった。実験前の授業で前準備として前で物理科の教授が高速で最小二乗法の導出を行っていたが当時はとりあえず実験データを与えられた式に当てはめて、その値をただ使っていただけだった。

ここでは、最小二乗法とは何がしたいのか。そしてその導出を行う。

記号の確認

最小二乗法に入る前に、各記号の定義?を確認しておく。

\begin{eqnarray}
\bar{x} &=& \frac{1}{n}\sum_{i=i}^n x_i \\
\bar{y} & =& \frac{1}{n}\sum_{i=1}^n y_i \\
s_x^2 &=& \frac{1}{n}\sum_{i=1}^n (x_i - \bar{x})^2 \\
s_y^2 &=& \frac{1}{n}\sum_{i=1}^n (y_i - \bar{y})^2 \\
r_{xy} &=& \frac{s_{xy}}{s_x s_y} = \frac{\sum_{i=1}^n (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum_{i=1}^n (x_i - \bar{x})^2 \sum_{i=1}^n(y_i - \bar{y})^2}}
\end{eqnarray}

上から、 x,y の平均、分散、 xy相関係数である。

相関係数直線的関係を図る尺度である。

単回帰,重回帰,説明変数,従属変数

相関係数 r_{xy}\pm 1 に近く正(負)の相関が認められる時、一方の変数を他方の変数の1次関数として表すことができると考えられる。つまり、 yx の関数として考えた時、

$$
y = a + bx
$$

というモデルを考えることができる。このモデルを線形回帰モデル、このモデルを用いた分析を回帰分析という。

この時 x説明変数(独立変数) y従属変数(被説明変数)という。

  • 説明変数が1個 ・・・・・ 単回帰

  • 説明変数が2個以上 ・・・ 重回帰
  • となる。

    最小二乗法(単回帰)

    ここでは説明変数が一つの単回帰の最小二乗法について説明する。
    n 個の観測値 (x_i,y_i) \;\; (i = 1,2,\dots,n) を考える。この時、 n 個の観測値に対して、

    \begin{eqnarray}
    y_i &=& a + bx_i
    \end{eqnarray}

    という回帰モデルを考える。観測値が一つの直線上に乗ることはありえないので、
    回帰式の誤差を小さくする a,b を推定値とすることになる。

    回帰式の誤差

    \begin{eqnarray}
    y_i -(a + bx_i)
    \end{eqnarray}

    しかし、このまま足してしまうと、値に正負が存在するため、誤差の大きさを図ることができないそのため最小二乗法では上記の式を二乗したものをすべて足し合わせたものを用いる。つまり

    \begin{equation}
    \mathcal{Q} = \sum_{i=1}^n\{y_i - (a + bx_i)\}^2
    \end{equation}

    これは非負値の二次式であり、これを a,b について偏微分した式を 0 とするような a,b\mathcal{Q} を最小化する a,b である。よって以下の連立方程式の解が求める推定値 \hat{a}, \hat{b} である。


    \begin{eqnarray}
    \left\{
    \begin{array}{l}
    \frac{\partial \mathcal{Q}}{\partial a} = -2\sum_{i=1}^n\{y_i - (a+bx_i)\} = 0 \\
    \frac{\partial \mathcal{Q}}{\partial b} = -2\sum_{i=1}^n x_i\{y_i - (a+bx_i)\} = 0 \\
    \end{array}
    \right.
    \end{eqnarray}

    \begin{eqnarray}
    \Leftrightarrow \left\{
    \begin{array}{l}
    \sum_{i=1}^n\{y_i - (\hat{a}+\hat{b}x_i)\} = 0 \\
    \sum_{i=1}^n x_i\{y_i - (\hat{a}+\hat{b}x_i)\} = 0 \\
    \end{array}
    \right.
    \end{eqnarray}

    \begin{eqnarray}
    \Leftrightarrow \left\{
    \begin{array}{l}
    \sum_{i=1}^n y_i = \hat{a}n + \hat{b}\sum_{i=1}^n x_i \\
    \sum_{i=1}^n x_i y_i = \hat{a}\sum_{i=1}^n x_i + \hat{b}\sum_{i=1}^n x_i^2
    \end{array}
    \right.
    \end{eqnarray}

    \begin{eqnarray}
    \Leftrightarrow \left\{
    \begin{array}{l}
    \bar{y}= \hat{a} + \hat{b}\bar{x} \\
    \frac{1}{n}\sum_{i=1}^n x_i y_i = \hat{a}\bar{x} + \hat{b}\frac{1}{n}\sum_{i=1}^n x_i^2
    \end{array}
    \right.
    \end{eqnarray}

    \begin{eqnarray}
    \Leftrightarrow \left\{
    \begin{array}{l}
    \hat{a} = \bar{y} - \hat{b}\bar{x} \\
    \frac{1}{n}\sum_{i=1}^n x_i y_i - \bar{x}\bar{y} = \hat{b}(\frac{1}{n}\sum_{i=1}^n x_i^2 - \bar{x}^2)
    \end{array}
    \right.
    \end{eqnarray}

    \begin{eqnarray}
    \Leftrightarrow \left\{
    \begin{array}{l}
    \hat{a} = \bar{y} - \hat{b}\bar{x} \\
    \hat{b} = \frac{\sum_{i=1}^n (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^n(x_i - \bar{x})^2} = \frac{s_{xy}}{s_{x^2}} = \frac{r_{xy}s_y}{s_x}
    \end{array}
    \right.
    \end{eqnarray}


    したがって推定された回帰直線は

    \begin{equation}
    \hat{y} = \hat{a} + \hat{b}x = \bar{y} + \hat{b}(x-\bar{x}) = \bar{y} + (\frac{s_{xy}}{s_{x^2}})(x-\bar{x})
    \end{equation}

    これを推定回帰直線または標本回帰直線という。これを式変形すると

    \begin{eqnarray}
    (\frac{\hat{y} - \bar{y}}{s_y}) &=& r_{xy}(\frac{x-\bar{x}}{s_x})
    \end{eqnarray}

    とかける。この形は覚えやすいので、覚えておくといいだろう。

    まとめ

    最小二乗法の考え方の基本は誤差を小さくすることにある。この点だけ気をつけていれば、後の操作は極めて当然のものだと思えるだろう。最後にもう一度推定値を示しておく。

    \begin{eqnarray}
    \left\{
    \begin{array}{l}
    \hat{a} = \bar{y} - \hat{b}\bar{x} \\
    \hat{b} = \frac{\sum_{i=1}^n (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^n(x_i - \bar{x})^2} = \frac{s_{xy}}{s_{x^2}} = \frac{r_{xy}s_y}{s_x}
    \end{array}
    \right.
    \end{eqnarray}

    参考文献

    高澤俊幸・勝野健太郎・服部真・山内恒人(2005)『モデリング』社団法人 日本アクチュアリー会.
    稲垣宣生(2013)『数理統計学』(数学シリーズ)裳華房.

    【デレステ】ありすPが33万円分1000連越えの爆死をしたそうですが、検定してみたいと思う。

    デレステのガシャ確率は本当に正しいのか?消費者には見えないガシャ確率を統計的に考える

    twitterを眺めていたら、最近よく見るソシャゲ爆死記事を見つけました。今回目にしたのは1000連越えのデレステガシャをして目的のキャラ(橘ありす)のSSレアが出なかったということ。

    多分これが目的のヤツです。

    いましたいました。

    提供割合を見てみると...

    SSレアは1.5%、SSレアの種類は26種類。

    ほうほう....

    となると、目的のありすが当たる確率は単純計算で


    \frac{15}{1000}×\frac{1}{26} = \frac{15}{26000}(\simeq 0.0005769)

    と考えられます。

    ここでは、何連して全くでなければ、この示されてる確率が怪しくなってくるか...

    つまりは、何連して目的のキャラが出なかったら運営に文句言えるのか、を、検定していきます。


    先の計算から、運営が示している(?)「はじめての表情」橘ありすが1回のガシャで当たる確率は

    $$
    p_0=\frac{15}{26000}
    $$

    になります。私たちは本当にこの確率なの?もっと低いんじゃないの?と疑ってるわけですので以下のように検定問題を考えます。

    \begin{eqnarray}
    \left\{
    \begin{array}{l}
    H_0 : p = p_0 = \frac{15}{26000} \\
    H_1 : p < p_0
    \end{array}
    \right.
    \end{eqnarray}

    H_0は帰無仮説、H_1は対立仮説になります。これを有意水準5%で検定していきます。

    統計量は

    $$
    T = \frac{\hat{p}-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}
    $$

    になります。

    ここで、棄却域を考える。
    標本数は大きいと考えるのでこの統計量は標準正規分布に近似的に従う。
    この検定は片側検定なので、有意水準5%で棄却域は

    $$
    T<-z(0.05)
    $$

    となる。つまり、統計量Tが標準正規分布左側5%の値よりも小さいなら帰無仮説は棄却され、運営側が提示している確率より、実際の確率は低いと言える。

    これを用いて、何回引いて出ないならば運営に文句が言えるのかを考える。

    n回ガシャして、1回もありすは出ないので標本比率は\hat{p}=0となる。

    これを用いて実現値T^*

    $$
    T^*= \frac{0-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}}
    $$

    これに、他の値も代入して先の不等式をnについて解くと

    \begin{eqnarray}
    \frac{0-p_0}{\sqrt{\frac{p_0(1-p_0)}{n}}} &<& -z(0.05) \\
    n &>& z(0.05)^2\frac{1-p_0}{p_0} \\
    \therefore n &>& 4659.3
    \end{eqnarray}

    となり、標本数が4660以上の時、帰無仮説は棄却されます。

    以上から、SSレア各キャラの提供割合が等しいと仮定して計算した場合、上記の回数、4660回ガシャをして目的のカードが出なかったらまず、運営の表示している提供割合は正しいと考えることは統計的にはできません。

    つまり、今回のありすPさんは1000連越えのガシャを回して出ていませんが、この試行回数ではまだ運が悪かったと言わざるを得ません。

    f:id:doratai:20160506225904p:plain

    ありすのガシャ出現確率は上がっているそうですが...それでもほんのすこしでしょう...。4000ガシャは覚悟したほうがいいのかもしれません。

    現状、デレステ運営に文句をいうことはできないということになります。

    さてところで、デレステ運営に文句を言える4660回ガシャをするにはどれくらいお金がかかるのでしょうか....

    すべて有償ジュエルで賄うとして考えます。

    上の画像を見てみると8400個9800円がおそらくいちばん単価が小さいのだと思われます。(PS4の最新ゲーム1つ買える...)
    一回のガシャに必要なスタージュエルは250個。4660回ガシャしたいので

    $$
    250 \times 4660 = 1,165,000
    $$

    1,165,000個のスタージュエルが必要になります。これを満たす数8400個9800円のスタージュエルのセット数は

    $$
    1165000/8400 \simeq 138.7
    $$

    より139セット買う必要がある。

    つまり、運営に文句を言える4660回ガシャを引くためには

    $$
    9800 \times 139 = 1,362,200
    $$

    より約136万2200円の課金が必要になってきます。(うわあ....)

    100万以下の課金はぬるいと...そういうことですかね...
    目的のキャラを当てようと思って課金するのは完全に泥沼ルートです...

    ソシャゲの闇は深い。

    ガンマ(Gamma)関数とガンマ分布

    f:id:doratai:20160505215746p:plain
    普段勉強していてガンマ関数の取り扱いに難があるのでここにまとめいておこうと思います。

    ガンマ関数

    定義

    $$
    \Gamma(s) = \int_{0}^{\infty}x^{s-1}\mathrm{e}^{-x}dx \;\;\;\;\;(s > 0)
    $$

    ガンマ関数は上記の式で表されます。 s>0 は収束条件です。

    特徴

    ガンマ関数の主な特徴を列挙していきます。

    $$
    \Gamma(s+1) = s\Gamma(s)
    $$

    n \in \mathbb{N} の時、

    $$
    \Gamma(n) = (n-1)!
    $$

    になる。ただし、

    $$
    \Gamma(1) = \int_{0}^{\infty}\mathrm{e}^{-x}dx = [-\mathrm{e}^{-x}]_{0}^{\infty} = 1
    $$

    証明
    $$
    \begin{eqnarray}
    \Gamma (s+1) & = & \int_{0}^{\infty}x^s\mathbb{e}^{-x}dx \\
    & = & [x^s(-\mathbb{e}^{-x})]_{0}^{\infty} + s\int_0^{\infty}x^{s-1}\mathbb{e}^{-x}dx \\
    & = & s\Gamma (s) \;\;\;\;\; (\because s>0)
    \end{eqnarray}
    $$

    置換

    x = u^2 による置換
    dx = 2udu より、
    $$
    \Gamma (t) = \int_0^{\infty} u^{2(t-1)} \mathbb{e}^{-u^2} 2udu = 2\int_0^{\infty} u^{2t-1} \mathbb{e}^{-u^2}du
    $$

    となる。これを用いて

    $$
    \begin{eqnarray}
    \Gamma (\frac{1}{2}) &=& 2\int_0^{\infty} x^{2\frac{1}{2}-1} \mathbb{e}^{-x^2}dx \\
    &=& 2\int_0^{\infty}\mathbb{e}^{-x^2}dx \\
    &=& 2\frac{\sqrt{\pi}}{2} \\
    &=& \sqrt{\pi}
    \end{eqnarray}
    $$

    これはよく使われるので覚えておいたほうがいいと思います。

    注)

    I = \int_0^{\infty} e^{-x^2}dx と置く。

    $$
    \begin{eqnarray}
    I^2 &=& \int_0^{\infty}\mathbb{e}^{-x^2}dx \int_0^{\infty}\mathbb{e}^{-y^2}dy \\
    &=&\int_0^{\infty}\int_0^{\infty} \mathbb{e}^{-(x^2+y^2)}dxdy \\
    \end{eqnarray}
    $$

    ここで、x = r\cos \theta, y = r\sin \theta と置くと。

    $$
    \begin{eqnarray}
    I^2 &=& \int_0^{\frac{\pi}{2}}\int_0^{\infty}\mathbb{e}^{-r^2} r drd\theta \\
    &=& \frac{\pi}{2}\cdot [-\frac{1}{2}\mathbb{e}^{-r^2}]_0^{\infty} \\
    &=& \frac{\pi}{4} \\
    \therefore I &=& \frac{\sqrt{\pi}}{2} \;\;\;\; (\because I > 0)
    \end{eqnarray}
    $$

    ガンマ分布

    確率密度関数

    定義にガンマ関数が用いるためガンマ分布という。 \Gamma(a,\lambda) で表記する。
    P(0 < X < \infty) = 1 で正の定数 a, \lambda (パラメータ)をとり、確率変数 X確率密度関数


    $$
    f_X(x) = \frac{\lambda^a}{\Gamma(a)}x^{a-1}\mathbb{e}^{-\lambda x}
    $$

    で与えられる。

    再生性

    ガンマ分布は再生性を持ち、X~\Gamma(a,\lambda), Y~\Gamma(b, \lambda) で独立のとき

    $$
    X + Y ~ \Gamma(a+b,\lambda)
    $$

    となる。積率母関数を用いて求める。

    期待値

    ガンマ分布の期待値を求めていく。
    X~\Gamma(a,\lambda) とする。

    $$
    \begin{eqnarray}
    E(X) &=& \int_0^{\infty}x\frac{\lambda^a}{\Gamma(a)}x^{a-1}\mathbb{e}^{-\lambda x}dx \\
    &=& \frac{\lambda^a}{\Gamma(a)} \int_0^{\infty}x^a \mathbb{e}^{-\lambda x}dx \\
    &=& \frac{\lambda^a}{\Gamma(a)}\int_0^{\infty}(\frac{u}{\lambda})^a \mathbb{e}^{-u} \frac{1}{\lambda}du \\
    &=& \frac{\lambda^a}{\Gamma(a)}\frac{1}{\lambda^{a+1}}\int_0^{\infty}u^a \mathbb{e}^{-u}du \\
    &=& \frac{1}{\lambda} \frac{\Gamma{(a+1)}}{\Gamma(a)} \\
    &=& \frac{a}{\lambda}
    \end{eqnarray}
    $$

    となる。

    分散

    次に分散を求めていく。

    $$
    \begin{eqnarray}
    E(X^2) &=& \int_0^{\infty}x^2\frac{\lambda^a}{\Gamma(a)}x^{a-1}\mathbb{e}^{-\lambda x} \\
    &=& \frac{\lambda^a}{\Gamma(a)}\int_0^{\infty}x^{a+1}\mathbb{e}^{-\lambda x}dx \\
    &=& \frac{\lambda^a}{\Gamma(a)}\frac{\Gamma(a+2)}{\lambda^{a+2}} \\
    &=& \frac{a(a+1)}{\lambda^2} \\
    \therefore \;\;\; V(X) &=& E(X^2) -(E(X))^2 \\
    &=& \frac{a(a+1)}{\lambda^2} - \frac{a^2}{\lambda^2} \\
    &=& \frac{a}{\lambda^2}
    \end{eqnarray}
    $$

    積率母関数

    積率母関数

    $$
    m_X(t) = (\frac{\lambda}{\lambda - t})^a
    $$

    で与えられる。

    導出
    $$
    \begin{eqnarray}
    m_X(t) &=& E(\mathbb{e}^{tX}) \\
    &=& \int_0^{\infty} \mathbb{e}^{tx}\frac{\lambda^a}{\Gamma(a)}x^{a-1}\mathbb{e}^{-\lambda x}dx \\
    &=& \frac{\lambda^a}{\Gamma(a)}\int_0^{\infty}x^{a-1}\mathbb{e}^{-(\lambda-t)x}dx \\
    &=&\frac{\lambda^a}{\Gamma(a)}\int_0^{\infty}(\frac{u}{\lambda-t})^{a-1}\mathbb{e}^{-u}\frac{du}{\lambda-t} \\
    &=& \frac{\lambda^a}{\Gamma(a)}\frac{\Gamma(a)}{(\lambda-t)^a} \\
    &=& (\frac{\lambda}{\lambda-t})^a
    \end{eqnarray}
    $$

    まとめ

    確率密度関数 積率母関数 期待値 分散
    \frac{\lambda^a}{\Gamma(a)}x^{a-1}\mathbb{e}^{-\lambda x} (\frac{\lambda}{\lambda - t})^a \frac{a}{\lambda} \frac{a}{\lambda^2}
    参考文献

    藤田岳彦(2014)『弱点克服 大学生の確率・統計』東京図書
    江川博康(2014)『弱点克服 大学生の微積分』東京図書

    損保数理の問題集

    f:id:doratai:20160424215651j:plain
    久々の更新です。

    最近は問題集での勉強をメインでやっているので、余り書くことがなくて...

    問題集をやっていて思うのが大学1,2年で以下に勉強していなかったかというね...

    確率統計の勉強をしてるわけですが、実際に問題を解いてて思うのが、微積が結構できないということ。変数変換とか、マクローリン展開が身にしみてないから、積分やΣ計算をしていると結構引っかかります。あと、ガンマ関数とベータ関数。アレ使えないのがこんなところで響くとは...。

    1年の頃は単位さえ取れればいいと思ってたので、終わったら綺麗さっぱり忘れていました(笑)

    今は希望している研究室に入れるかどうかヒヤヒヤしてます。周りが結構成績よくて、今更焦り始めるという。


    そのへんはさておいて...

    アクチュアリー試験に向けての勉強を最近始めたのですが、数学以外はなかなか取っ掛かりにくく先延ばしていました。

    特に保険数理の教科書は、普段問題を解きながら学んで、躓いたところを教科書でやってきた自分のやり方だと問題集と呼べるものがなく、なかなか手をつけられずにいました。

    しかし、昨日、損害保険数理の問題集で、良さそうなのをジュンク堂で見つけ、購入してやってみたのですが、いい感じです。

    「例題で学ぶ損害保険数理」

    Amazonでチェック→例題で学ぶ損害保険数理 第2版


    という本なのですが、これがなかなか私の需要を満たしておりまして

    • 長々とした説明がない。
    • 例題が多数。
    • 詳しい解答解説が載っている


    と、初学者に大変やさしい構成になっていました。教科書を読んでると眠くなるのび太くん体質の私には、ぴったしの問題集です。

    私はいつも購入前にAmazonレビューを見るのですが、好評のようでしたし、また私が昨年度末から入会したアク研の書籍紹介でも、教科書の次に買うべき必携の一冊とのこと。


    もし損保の勉強をこれからはじめようとしている方はぜひ買うことをおすすめします!!

    値段は約4500円と少し高いですが、参考書の値段って大体そんなもんですよね?

    少なくともこれを買うことによる消費者余剰はかなり高めだと思います(覚えた言葉を早速使いはじめるおバカ顔)。

    今回は数学の証明とかではなく、買った本の紹介でした!

    また気が向いたら更新します!!

    (今回は最初に画像を載せてみたりしてみた!ちょっとおしゃれになったかな?)

    正規分布

    連続型モデルで、統計確率の中でも最も有名で重要な分布である正規分布について。

    正規分布N(\mu,\sigma^2) で表される。

    確率密度関数

    {
f(x;\mu,\sigma^2)=\frac{1}{\sqrt{2\pi\sigma^2}}\exp\{-\frac{(x-\mu)^2}{2\sigma^2}\}
}

    確率密度関数は上記で表される。平均は \mu 分散が \sigma^2

    また、N(0,1) の時、標準正規分布と呼ばれ、

    {
f(x) = \frac{1}{\sqrt{2\pi}}\exp\{-\frac{x^2}{2}\}
}

    確率密度関数は表される。

    標準化

    標準化を行うことで標準正規分布に直すことが可能。

    {
X \sim N(\mu,\sigma^2) \Rightarrow Y=\frac{X-\mu}{\sigma} \sim N(0,1)
}

    最尤推定

    最尤推定量は以下で与えられる。

    {
\hat{\mu} = \bar{X},\;\;\; \hat{\sigma^2} = \frac{1}{n} \sum_{i=1}^n (X_i - \bar{X})^2
}

    証明
    \mu,\sigma^2 ともに未知の場合について考える。

    尤度関数 l(\mu, \sigma^2)

    {
\begin{eqnarray}
l(\mu, \sigma^2) & = & \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}}\exp\{-\frac{(x_i-\mu)^2}{2\sigma^2}\} \\
& = & (\frac{1}{2\pi\sigma^2})^{\frac{n}{2}}\exp\{-\frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\mu)^2\}
\end{eqnarray}
}

    またこれより対数尤度関数は

    {
\log l(\mu,\sigma^2) = -\frac{n}{2}\log(2\pi)-\frac{n}{2}\log(\sigma^2)-\frac{1}{2\sigma^2}\sum_{i=1}^n (x_i - \mu)^2
}

    であるので、 \mu,\sigma^2 最大たらしめるに連立方程式

    {
\begin{eqnarray}
  \left\{
    \begin{array}{l}
      \frac{\partial \log l(\mu,\sigma^2)}{\partial \mu} = -\frac{1}{\sigma^2}\sum_{i=1}^{n}(x_i-\mu) = 0 \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;(1)\\
      \frac{\partial \log l(\mu,\sigma^2)}{\partial \sigma^2} = -\frac{n}{2\sigma^2}+\frac{1}{2(\sigma^2)^2}\sum_{i=1}^n(x_i-\mu)^2 = 0 \;\;\;(2)
    \end{array}
  \right.
\end{eqnarray}
}

    を解く。(1)式から

    {
\mu=\frac{1}{n}\sum_{i=1}^n x_i = \bar{x}
}

    これと及び、(2)式から

    {
\sigma^2 = \frac{1}{n}\sum_{i=1}^n(x_i-\mu)^2 = \frac{1}{n}\sum_{i=1}^n(x_i-\bar{x})^2
}

    を得る。

    よって最尤推定量は

    {
\hat{\mu} = \frac{1}{n}\sum_{i=1}^n X_i = \bar{X} \\
\hat{\sigma^2} = \frac{1}{n} \sum_{i=1}^n (X_i-\bar{X})^2 = S^2
}

    積率母関数

    正規分布 N(\mu,\sigma^2)積率母関数

    {
M_{X}(t) = E(e^{tX}) = e^{\mu t + \frac{1}{2}\sigma^2 t^2}
}

    で与えられる。

    証明
    M_X(t) = E(e^{tX})
    = \int_{-\infty}^{\infty} e^{tx} \frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}dx]
    = \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{(x-\mu)^2-2t\sigma^2x\}]dx
    =\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{x^2-2\mu x + \mu^2-2t\sigma^2 x\}]dx
    =\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{x^2-2(\mu+t\sigma^2)x+\mu^2\}]dx
    =\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{(x-(\mu+t\sigma^2))^2+\mu^2-(\mu+t\sigma^2)^2\}]dx
    =\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}\exp[-\frac{1}{2\sigma^2}\{x-(\mu+t\sigma^2)\}+\mu t + \frac{t^2\sigma^2}{2}]dx
    = e^{\mu t + \frac{t^2\sigma^2}{2}}\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^2}}e^{-\frac{\{x-(\mu+t\sigma^2)\}^2}{2\sigma^2}}dx
    =e^{\mu t + \frac{t^2\sigma^2}{2}} \cdot 1
    =e^{\mu t + \frac{1}{2}\sigma^2t^2}


    標準正規分布の場合は

    {
M_X(t) = e^{\frac{t^2}{2}}
}

    である。

    再生性

    {
X\sim N(\mu_1,\sigma_1^2),Y\sim N(\mu_2,\sigma_2^2) かつX,Yが独立 \Rightarrow X+Y \sim N(\mu_1+\mu_2,\sigma_1^2+\sigma_2^2)
}

    証明

    X_i\;\;(i=1,2,\ldots,n) をそれぞれ N(\mu_i,\sigma_i^2) に従う独立な確率変数とする。
    正規分布積率母関数は先に示したとおり。

    {
M_{c_1X_1}(t) = e^{c_1\mu_1t+\frac{1}{2}c_1^2\sigma_1^2t^2}
}

    より c_1X_1N(c_1\mu_1,c_1^2\sigma_1^2) に従う。また

    {
\begin{eqnarray}
M_{X_1+X_2}(t) &=& E(e^{t(X_1+X_2)}) \\
&=& E(e^{tX_1})E(e^{tX_2}) \\
&=& e^{\mu_1t+\frac{1}{2}\sigma_1^2t^2}\cdot e^{\mu_2t+\frac{1}{2}\sigma_2^2t^2} \\
&=& e^{(\mu_1+\mu_2)t+\frac{1}{2}(\sigma_1^2+\sigma_2^2)t^2}
\end{eqnarray}
}

    より、 X_1+X_2N(\mu_1+\mu_2,\sigma_1^2+\sigma_2^2) に従う。
    これらを一般化して、一次結合 S=\sum_{i=1}^n c_iX_iN(\sum_{i=1}^nc_i\mu_i,\sum_{i=1}^n c_i^2\sigma_i^2) に従うことがわかる。

    グラフ

    グラフの外観は以下のようになっている。(EXCELで作成)


    f:id:doratai:20160229232231p:plain

    参考文献

    鈴木武・山田作太郎(2006)『数理統計学-基礎から学ぶデータ解析-』内田老鶴圃.
    国沢清典(2012)『確率統計演習2-統計』培風館.
    稲垣宣生(2013)『数理統計学』(数学シリーズ)裳華房.

    1次元データの取り扱い

    データの種類

    データには2種類ある。量的データ質的データである。

  • 量的データ

  • データが定量的な値で与えられるもの。量的データには、長さ、重さ、体積、面積、金額、温度、時間など数値でその値を測定できるものが含まれる。

  • 質的データ

  • 数値として観測することができず、あるカテゴリーに属していることや、ある状態にあることだけがわかるデータ。性別、天気、学歴、居住地域等がある。

    データの表示法

    大別すると2つある。

  • 図的表示法

  • データを図的表現によって処理し、母集団の分布の形を推定する方法
  • 量的表示法

  • データを計数的に処理して、母集団の分布の特性値を推定する方法

    度数分布とヒストグラム

    観測や実験により観測値が得られたら度数分布表をまず作る。
    度数分布表は観測値のとりうるいくつかの階級(class)に分け、それぞれの階級で観測値がいくつあるか度数(frequency)を数えて表にしたものである。

    以下は簡単ではあるが度数分布表の例を書いてみた。

    階級 階級値 度数 相対度数 累積度数 累積相対度数
    0~10 5 3 0.03 3 0.03
    10~20 15 2 0.02 5 0.05
    20~30 25 5 0.05 10 0.10
    30~40 35 12 0.12 22 0.22
    40~50 45 17 0.17 39 0.39
    50~60 55 25 0.25 64 0.64
    60~70 65 13 0.13 77 0.77
    70~80 75 9 0.09 86 0.86
    80~90 85 8 0.08 94 0.94
    90~100 95 6 0.06 100 1.00
    合計 100 1.00


    これらからヒストグラムを作成することができるが、そこに関してはあまり興味が無いので言及しない。

    量的取り扱い

    グラフの書き方とかはもし私が勉強していく中で学ぶことがあれば書くことにしよう。数理統計学的な面で統計学を扱っていくにあたり、量的な取り扱いの基礎を学ぶ。

    平均値

    この言葉を知らないことはまず無いだろう。観測値 x_1,x_2,\ldots,x_n に対して平均値 \bar{x} は以下で求められる。

    $$
    \bar{x} = \frac{x_1+x_2+\ldots+x_n}{n} = \frac{1}{n}\sum_{i=1}^n x_i
    $$

    コンピュータが発達し、Excelのような表計算ソフトがある今の時代にあまり需要は無いと思われるが、昔はそのような便利なものはなく、計算はとても骨が折れるものであった。そのため少しでも計算を簡易にしようと次のような計算方法がある(のだと私は少なくとも思っている。)

    各測定値 x_i (i=1,2,\ldots,n)

    $$
    u_i = (x_i-x_0)/h
    $$

    と変換し

    $$
    \bar{u} = \frac{u_1+u_2+\ldots+u_n}{n}
    $$

    を求め、これを元に戻して

    $$
    \bar{x}=\bar{u}\cdot h+x_0
    $$

    とすることで求める。ここで x_0仮平均といい、 u_i が簡単になるように適当に定める。 h も同様に適当に定めてやる。

    中央値(メジアン)

    名前の通り、真ん中の数である。イメージは5人組の戦隊物のレッドの位置。

    標本を大きさの順に並べて

    $$
    x_{(1)} \le x_{(2)} \le \ldots \le x_{(n-1)} \le x_{(n)}
    $$

    としてやった時に、中央値は

    $$
    \tilde{x}=
    \begin{eqnarray}
    \left\{
    \begin{array}{ll}
    x_{(\frac{n+1}{2})} & n:奇数 \\
    \frac{x_{(\frac{n}{2})}+x_{(\frac{n}{2}+1)}}{2} & n:偶数
    \end{array}
    \right.
    \end{eqnarray}
    $$

    で与えられる。
    例えば標本が $1,2,3,4,5$ だったら中央値は $3$ 一方、標本が $1,2,3,4,5,6$ ならば中央値は $3.5$ である。

    分散

    分散は散らばりの尺度である。

    $$
    s^2 = \frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2 = \frac{1}{n}\sum_{i=1}^n x_i^2 - \bar{x}^2
    $$

    で分散は与えられる。また、

    $$
    s = \sqrt{s^2} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2}
    $$

    標準偏差と呼ばれる。

    積率(モーメント)

    原点まわりの v 次モーメント

    $$
    m_v' = \frac{1}{n}\sum_{i=1}^n x_i^v
    $$

    平均値まわりの v 次モーメント

    $$
    m_v = \frac{1}{n} \sum_{i=1}^n (x_i-\bar{x})^v
    $$

    であり、一般に

    $$
    m_v = m_v'- \left(
    \begin{array}{c}
    v \\
    1 \\
    \end{array}
    \right)
    \bar{x}m_{v-1}'+
    \left(
    \begin{array}{c}
    v \\
    2 \\
    \end{array}
    \right)
    \bar{x}^2m_{v-2}' - \ldots + (-1)^v
    \left(
    \begin{array}{c}
    v \\
    v \\
    \end{array}
    \right) \bar{x}^v
    $$

    なる関係が成立する。

    ひづみ(歪度)、とがり(尖度)

  • ひづみ

  • 対称性の指標。

    $$
    a = m_3/s^3
    $$

    a > 0 ならば右の裾が長くa < 0 ならば左の裾が長い

  • とがり

  • 尖りの程度を表す指標。正規分布のと比較することが多い。そのため

    $$
    b=m_4/s^4 -3 \;\; (もしくは\;\; m_4/s^4)
    $$

    として扱うことが多く、 b > 0 ならば正規分布よりも尖っており、 b < 0 ならば、正規分布より丸く鈍い形をしている。

    モード(最頻値)

    ヒストグラムの山の一番高い柱の代表値。文字通り、もっとも出現頻度が高い値のこと。

    参考文献

    松原望,縄田和満,中井検裕(2014)『統計学入門』(基礎統計学Ⅰ)東京大学出版会
    国沢清典(2012)『確率統計演習2 統計』培風館



    このあたりの内容ってやっててだるいからモチベ下がるんだよなあ...

    経済学の十大原理

    個人的興味から経済学も少しかじっていくつもりなので、ここに書いていく.
    個人的なメモ及びアウトプットがメインな上、私自身が専門にしようと考えている分野ではないのであまり詳しい説明は書かないし、書けない。

    人々はどのように意思決定するか

    1. 人々はトレードオフ(相反する関係)に直面している.
    2. あるものの費用は、それを得るための費用に放棄したものの価値である.
    3. 合理的な人々は限界費用に基づいて考える.
    4. 人々は様々なインセンティブ(誘引)に反応する.

    人々はどのように影響し合うのか

    1. 交易(取引)は全ての人々をより豊かにする.
    2. 通常、市場は経済活動を組織する良作である.
    3. 政府が市場にもたらす成果を改善できることもある.

    経済全体としてどのように動いているか

    1. 一国の生活水準は、財・サービスの生産能力に依存している.
    2. 政府が紙幣を印刷しすぎると、物価が上昇する.
    3. 社会は、インフレと失業の短期的トレードオフに直面している.
    4. 参考文献

      N・グレゴリー・マンキュー(2015)『マンキュー経済学Ⅰ ミクロ編 (第3版)』足立英之/石川城太/小川英治/地主敏樹/中馬宏之/柳川隆 訳 東洋経済新報社

    統計学、参考書おすすめ

    統計学を学ぶにあたっておすすめの参考書、及び読んでおきたい本を紹介したいと思います。

    統計学

    統計学入門 (基礎統計学)


    難しさ★★☆☆☆(2)

    言わずとしれた良書。統計学をわかりやすくかつレベルを落とさずに解説しようと東大の先生方が書いたもの。統計学の歴史や実際にどのように使われているのかがわかる具体例が多く、文系理系問わずに読むことができる。ただ、わかりやすさを主眼に置き、数学的な証明の大部分は載っていないため、数理統計学としての統計学を考えている人には足りない。証明などを除けばかなり詳しく具体例を交えて書かれているので、統計学という学問を知るために一度読んでおくのが良い。またアクチュアリー指定教科書でもあるので、受験を考える人は持っておいたほうがいい一冊。
    また、これは全部で三冊ある基礎統計学シリーズの最初の本で、もう2つに「人文・社会科学の統計学 (基礎統計学)」「自然科学の統計学 (基礎統計学)
    」がある。

    統計学が最強の学問である


    難しさ:☆☆☆☆☆(0)

    統計学を学ぶ動機づけに最適な本。統計学とはどういうものなのか、世間で言われているビッグデータについてや、ただデータを見やすくグラフにする社員をコケにしてみたりと読むに飽きず、サラッと読めて、統計学を知った気になれる本。本質的なことはわからなくても、統計学がどんなものであるのかわかる。世間が誤解してる統計についての少し知ったかぶりができるようになる。ちょっと統計がきになる人だけでなく本格的に勉強しようと考えてる人も一度読んでみると結構面白いはず。

    マンガでわかる統計学


    難しさ★☆☆☆☆(1)

    私自身はさらっと目をとおしただけだが、統計学の研究室に所属している助教「まずうちの研究室に来たらこれを読むんだ」と紹介していた。曰く、必携の一冊とのこと。

    定義関数,単純可測関数

    定義関数

    定義

    A \subset \Omega に対して

    $$
    \begin{eqnarray}
    1_A(\omega) \equiv \left\{
    \begin{array}{ll}
    1 & (\omega \in A) \\
    0 & (\omega \in A)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    と定めると、この関数 1_A定義関数という。

    単純可測関数

    f:\Omega \to \mathbb{R} に対して、a_1,a_2,\ldots,a_k \in \mathbb{R} 及び \Omega の有限分割 \{A_1,A_2,\ldots,A_n\} が存在して

    $$
    f(\omega)=\sum_{i=1}^n a_i 1_{A_i}(\omega)
    $$

    と表せるとき、 f単純可測関数であるという。

    定理

    任意の可測関数 f:\Omega \to [0,+\infty] に対して、単純可測関数の単調増加列 \{f_n\} が存在して, f=\lim_{n \to \infty} f_n である。

    証明は少し面倒なので省略。気になる方はルベーグ積分を扱っている参考書を買ったり借りたりして調べて見てください。以後、積分の性質に関するところの証明の可測関数の場合でよく出てきます。

    短いですが今回はここまで。

    参考文献

    梅垣壽春,大矢雅則,塚田真(2015)『測度・積分・確率』共立出版株式会社

    可測関数

    可測関数

    空間 \Omega\sigma-加法族 \mathcal{F} の組、つまりは可測空間 (\Omega,\mathcal{F}) を考える。\bar{\mathbb{R}}=\{\mathbb{R},\pm\infty\} とする。

    定義

    f:\Omega \to \bar{\mathbb{R}} が次の条件を満たす時、f\mathcal{F} -可測関数でるという。

    $$
    \{\omega\in\Omega;f(\omega)\le a\} \in \mathcal{F} \;\;\;\;\;(\forall a\in \mathbb{R})
    $$

    ここで、少し表記を省略して、例えば上記の式を \{f \le a\} \in \mathcal{F} と書く事にする。 上の定義から以下が全て同値であることが導ける。

    $$
    \begin{eqnarray}
    (1)&f:\mathcal{F}-可測関数 &&;\\
    (2)&\{f \ge a\} \in \mathcal{F} & (\forall a \in \mathbb{R}) & ; \\
    (3)&\{f < a\} \in \mathcal{F} & (\forall a \in \mathbb{R}) & ; \\
    (4)&\{f > a\} \in \mathcal{F} & (\forall a \in \mathbb{R}) & ; \\
    (5)&f^{-1}(B)\in \mathcal{F} &(\forall B \in \mathfrak{B}) & かつ \{f=+\infty\},\{f=-\infty\} \in \mathcal{F}
    \end{eqnarray}
    $$

    証明
    (1)\Rightarrow(4) : \{f > a\} = \{f \le a\}^c \in \mathcal{F} \;\; (\forall a \in \mathbb{R}) ;
    (4)\Rightarrow(2) : \{f\ge a\} = \cap_{n=1}^{\infty}\{f>a-\frac{1}{n}\}\in \mathcal{F}\;\; (\forall a \in \mathbb{R}) ;
    (2)\Rightarrow(3) : \{f < a\}=\{f \ge a\}^c \in \mathcal{F} \;\; (\forall a \in \mathbb{R}) ;
    (3)\Rightarrow(1) : \{f\le a\}=\cap_{n=1}^{\infty}\{f < a + \frac{1}{n}\} \in \mathcal{F} \;\; (\forall a \in \mathbb{R})

    以上により (1)\Leftrightarrow(2)\Leftrightarrow(3)\Leftrightarrow(4)が示された。

    $$
    \begin{eqnarray}
    (5)\Rightarrow(1)&:& \{f \le a\}=f^{-1}((-\infty,a])\cup\{f=-\infty\} \in \mathcal{F} \;\; (\forall a \in \mathbb{R}) \\
    (1)かつ(4)\Rightarrow (5) &:& f^{-1}((a,b])=\{f>a\}\cap\{f\le b\} \in \mathcal{F} \;\; (\forall a \in \mathbb{R})
    \end{eqnarray}
    $$

    より示された。

    各種演算

    次に f,g,f_n(n=1,2,3.\ldots) をいづれも \mathcal{F} -可測関数として、\alpha \in \mathbb{R} とする。次の関数が定義されるならば、いずれも \mathcal{F}-可測関数である。

    (1)\alpha f
    任意の a\in \mathbb{R} に対して

    $$
    \begin{eqnarray}
    \alpha=0 &\Rightarrow& \{\alpha f \le a\}=
    \left\{
    \begin{array}{l}
    \phi \in \mathcal{F} \;\; (a<0)\\
    \Omega \in \mathcal{F} \;\; (a\ge 0)
    \end{array}
    \right. \\
    \alpha > 0 &\Rightarrow& \{\alpha f \le a\} = \{f\le \frac{a}{\alpha}\} \in \mathcal{F} \\
    \alpha < 0&\Rightarrow& \{\alpha f \le a\} = \{f \ge \frac{a}{\alpha}\} \in \mathcal{F}
    \end{eqnarray}
    $$

    a の値は任意であることを思い出すと良い。つまり任意であるから a=\frac{a}{\alpha} でも良い。

    (2) f+g

    \mathcal{Q}=\{r_1,r_2,\ldots\} とする。

    $$
    \begin{eqnarray}
    \{f + g < a\} &=& \{f < a - g\} \\
    &=& \cup_{n=1}^{\infty}\{f < r_n < a - g\} \\
    &=& \cup_{n=1}^{\infty}(\{f < r_n\}\cap\{g < a - r_n\}) \in \mathcal{F}
    \end{eqnarray}
    $$

    (3) fg
    \forall a \in \mathbb{R} に対して

    $$
    \{f^2\le a\} =
    \begin{eqnarray}
    \left\{
    \begin{array}{ll}
    \{-\sqrt{a} \le f \le \sqrt{a}\} \in \mathcal{F} & (a \ge 0) \\
    \phi \in \mathcal{F} & (a < 0)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    であるから、 f^2\mathcal{F} -可測関数である。

    $$
    \therefore \;\; fg=\frac{(f+g)^2-(f-g)^2}{4}
    $$

    \mathcal{F} -可測関数である。

    (4) \frac{1}{f}
    \forall a \in \mathcal{F} に対して

    $$
    \{\frac{1}{f} \le a\}=(\{f>0\}\cap\{af\ge1\})\cup(\{f<0\}\cap\{af\le 1\})\in \mathcal{F}
    $$

    (5) |f|

    $$
    \{|f|\le a\}=
    \begin{eqnarray}
    \left\{
    \begin{array}{cl}
    -f\le a \le f \in \mathcal{F} & (a \ge 0) \\
    \phi \in \mathcal{F} & (a < 0)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    (6) \sup_{n\ge 1} f_n
    \forall a \in \mathbb{R}に対して

    $$
    \{\sup_{n\ge 1} f_n \le a\} = \cap_{n=1}^{\infty}\{f_n \le a\} \in \mathcal{F}
    $$

    (7) \inf_{n\ge 1} f_n

    \inf_{n\ge 1}f_n = -(\sup_{n\ge 1} (-f_n))

    より示される。

    (8) \limsup_{n\to\infty}f_n

    定義

    \limsup_{n\to\infty}f_n=\inf_{n\in\mathbb{N}}(\sup_{k\ge n} f_k)

    から、これも \mathcal{F} -可測関数

    (9) \liminf_{n\to\infty}f_n

    同様に定義

    \liminf_{n\to\infty}f_n=\sup_{n\in\mathbb{N}}(\inf_{k\ge n}f_k)

    からわかる。

    (10) \lim_{n\to\infty}f_n 極限の定義から、数列が極限を持つのは、上極限と下極限が一致した時であるから、明らか。

    $$
    \lim_{n\to\infty}f_n=\liminf_{n\to\infty}f_n=\limsup_{n\to\infty}f_n
    $$

    (11) f\lor g = \max\{f,g\}
    \forall a \in \mathbb{R} に対して

    $$
    \begin{eqnarray}
    \{f\lor g \le a\}&=&\{\max\{f,g\}\le a\} \\
    &=& \{f\le a\}\cap\{g\le a\} \in \mathcal{F}
    \end{eqnarray}
    $$

    (12) f \land g = \min\{f,g\}

    \forall a\in \mathbb{R} に対して

    $$
    \begin{eqnarray}
    \{f\land g \le a\}&=& \{\min\{f,g\}\le a\} \\
    &=& \{f\le a\}\cup\{g\le a\} \in \mathcal{F}
    \end{eqnarray}
    $$

    (13)\sqrt{f}

    \forall a\in \mathbb{R}に対して

    $$
    \{\sqrt{f}\le a\}=
    \begin{eqnarray}
    \left\{
    \begin{array}{cl}
    \{0\le f \le a^2\} \in \mathcal{F} & (a\ge 0) \\
    \phi \in \mathcal{F} & (a < 0)
    \end{array}
    \right.
    \end{eqnarray}
    $$

    より \sqrt{f} は可測関数。

    参考文献

    梅垣壽春,大矢雅則,塚田真(2015)『測度・積分・確率』共立出版株式会社
    志賀浩二(2008)『ルベーグ積分30講』朝倉書店
    伊藤清三(2008)『数学選書4. ルベーグ積分入門』裳華房

    状態の分類

    状態の分類

    マルコフ連鎖 \{X_n\} は離散形状態空間 S と推移行列 \{p_{i,j} \} を持つとする。

    定義

    1. i,j \in S に対して、ある n > 0があって、 p_{i,j}^{(n)} > 0であるとき、i から j到達可能であるといい、 i \to j 表す。
    2. i \to j かつ j \to iであるとき、i \leftrightarrow j と表し、互いに到達可能 であるという。
    3. 全ての i,j \in C \subset S に対して、i \leftrightarrow j ならばC既訳であるという。
    4. 状態 i \in S から、他のどんな状態へも到達できないとき、i吸収状態と呼ぶ。

    i \leftrightarrow j ならば j \leftrightarrow i でありi \leftrightarrow jかつ j \leftrightarrow k ならば i \leftrightarrow k であるので、\leftrightarrow は対称的かつ推移的である。この関係により状態を排反な集合に分類することができる。

    閉集合・・・分類された集合の中で、集合の外への推移がないもの.

    S の部分集合 C閉集合である \Leftrightarrow[(j\in C \land j\rightarrow k) \Rightarrow k \in C]

    となる。

    状態空間 S は既約かつ排反な閉集合の集まりと、既約な閉集合を含まない集合に分類できる。

    \because) \forall i \in S に対して

    C(i) = iを含む既約な閉集合

    と定義する。この時 \forall i,j \in S に対して
    $$
    C(i) \cap C(j) \neq \phi
    $$
    ならば
    $$
    C(i)=C(j)
    $$
    である。
    $$
    T=S-\cup_{i\in S}C(i)
    $$
    とおく。この時 SC(i),i \in STに分割される。

    (例)
    f:id:doratai:20160127121447p:plain

    例えば上の図において状態1と2,3と4は互いに到達可能である。
    {1,2},{3,4}は既約、状態5は閉集合である。

    周期

    定義

    j \in S に対して
    $$
    \begin{equation}
    d= \gcd\{n \ge 1; p_{j,j}^{(n)}>0\} (= \{n \ge 1; p_{i,j}^{(n)}>0\}の最大公約数)
    \end{equation}
    $$
    とする時 dj周期という。特に d=1 の時、j非周期的であるという。

    周期に関して、Wikipediaの周期性の項目がわかりやすかったので引用したものを下記に記す。
    マルコフ連鎖

    状態i への回帰がk の倍数回のみに見られ、しかもk がこの性質を持つ最大の数ならば、「状態i の周期はk である」という。例えば、i への回帰が偶数回目にのみ起こるならば、i の周期は2である。

    上式におけるdに当たるのが引用部分のkになる。

    定理 i,j \in S に対して、 i \leftrightarrow j ならば、ij は同じ周期を持つ。

    証明

    i,j の周期を d(i),d(j) と表すことにする。d(i)d(j) で割切れることを証明する。

    i \rightarrow j より、ある n に対してp_{i,j}^{(n)} > 0 であり、ある m に対して p_{i,j}^{(m)} > 0 であるから、チャップマン・コルモゴロフの公式から

    $$
    \begin{equation}
    p_{i,i}^{(n+m)} \ge p_{i,j}^{(n)}p_{j,i}^{(m)} > 0
    \end{equation}
    $$

    が成り立つ。よって、 n+md(i) の倍数である。
    kp_{j,j}^{(k)} > $ を満たす任意の正整数とする。

    $$
    \begin{equation}
    p_{i,i}^{(n+k+m)} \ge p_{i,j}^{(n)}p_{j,j}^{(k)}p_{j,i}^{(m)} > 0
    \end{equation}
    $$

    より、n+m+kd(i) の倍数である。よって kd(i) の倍数である。
    従って d(j)d(i) で割り切れる。
    ここで、i,j は互いに到達可能であるので
    $$
    \begin{equation}
    d(i) = d(j)
    \end{equation}
    $$
    が言える。

    この定理により、既約なマルコフ連鎖の状態は全て同じ周期を持つ。

    先に示した例の図において、状態1と2は既約であり、状態1において何度となく状態1を繰り返す可能性がある。すると
    $$
    \begin{equation}
    d(1) = \gcd\{1,2,3,4,5,\ldots\} = 1 \\
    d(2) = \gcd\{2,3,4,5,6,\ldots\} = 1
    \end{equation}
    $$
    となる。既約である二つの状態の周期は一致している。$d=1$であるので、状態1と2は非周期的である。状態3と4も既約である。状態3を考えると一旦状態4に移ってまた戻ってくるという推移をしなければならないから
    $$
    \begin{equation}
    d(3) = \gcd\{2,4,6,8,\ldots\} = 2
    \end{equation}
    $$
    になる。また状態3と4は既約なので当然 $d(4)=2$ になる。よって$d \neq 1$であるので、状態3,4は周期的である。
    また状態5は永遠と状態5を繰り返すので
    $$
    \begin{equation}
    d(5) = \gcd\{1,2,3,4,5,6,\ldots\} = 1
    \end{equation}
    $$
    であり非周期的である。

    参考書籍

    宮沢政清(2013)『確率と確率過程』(現代数学ゼミナール17)近代科学社

    n次の推移行列

    関連・・・マルコフ連鎖

    準備

    確率過程の主要な問題の1つとして、現在の状態の分布から未来の状態を計算する、というものがある。マルコフ連鎖を用いることで、この確率を求めることが可能である。

    \{X_n\}マルコフ連鎖i_0,i_1,\ldots,i_n \in Sの時
    マルコフ連鎖の定義、推移行列 p_{i,j} の定義より

    (1)
    {
\begin{eqnarray}
&   & P(X_0=i_0,X_1=i_1,\ldots,X_n=i_n) \\
& = & P(X_0=i_0,\ldots,X_{n-1}=i_{n-1})\cdot \frac{P(X_0=i_0,X_1=i_1,\ldots,X_n=i_n)}{P(X_0=i_0,X_1=i_1,\ldots,X_{n-1}=i_{n-1})} \\
& = & P(X_0=i_0,\ldots,X_{n-1}=i_{n-1})\cdot P(X_n=i_n\;|X_0=i_0,\ldots,X_{n-1}=i_{n-1}) \\
& = & P(X_0=i_0,\ldots,X_{n-1}=i_{n-1})\cdot p_{i_{n-1},i_n} \\
& = & \ldots \\
& = & P(X_0=i_0)\cdot p_{i_0,i_1}\cdot p_{i_1,i_2}\cdot \ldots \cdot p_{i_{n-1},i_n}
\end{eqnarray}
}
    が成り立つ。(1)式より、マルコフ連鎖は $X_0$ 分布(初期分布)と推移行列 \{p_{i,j}\} により定まることが分かる。

    マルコフ連鎖(上)推移行列(下)[確認]
    {
{\small \begin{equation}
P(X_{n+1} = j \; | X_0=j_0,X_1=j_1,\ldots,X_{n-1}=j_{n-1},X_n=i)=P(X_{n+1}=j\;|X_n=i) \\
p_{i,j} = P(X_{n+1}=j|X_n=i) \;\;\; (i,j \in S)
\end{equation}}
}

    定義

    p_{i,j^{(n)}}=P(X_n=j|X_0=i)n 次の推移確率 p_{i,j^{(n)}} を要素とする行列、

    {
\begin{equation}
P^{(n)}=\{p_{i,j}^{(n)}\}_{i,j \in S}
\end{equation}
}

    n次の推移行列という。

    マルコフ連鎖の式は n,m > 0 に対して
    {
\begin{equation}
P(X_0=i_0,X_1=i_1,\ldots,X_{n+m}=i_{n+m}) = P(X_0=i_0)\cdot p_{i_0,i_1}\cdot p_{i_1,i_2}\cdot \ldots \cdot p_{i_{n-1},i_n}
\end{equation}
}
    である。この両辺を i_0,i_n,i_{n+m} を除いた全ての i_j について和を取ると

    {
\begin{eqnarray}
&   & P(X_0=i_0,X_n=i_n,X_{n+m}=i_{n+m}) \\
& = & \sum_{i_i,\ldots,i_{n-1}} P(X_0=i_0)p_{i_0,i_1}\ldots p_{i_{n-1},i_n} \sum_{i_{n+1},\ldots,i_{n+m-1}} p_{i_n,i_{n+1}}\ldots p_{i_{n+m-1},i_{n+m}} \\
& = & P(X_0=i_0,X_{n}=i_n)P(X_{n+m}=i_{n+m} | X_n=i_n)
\end{eqnarray}
}

    である。ここで両辺を P(X_0=i_0,X_n=i_n) で割ると

    {
\begin{equation}
P(X_{n+m}=i_{n+m} | X_0=i_0,X_n=i_n) = P(X_{n+m}=i_{n+m} | X_n=i_n)
\end{equation}
}

    を得る。これはマルコフ連鎖の式の別表現である。

    補題 (チャップマン・コルモゴロフの公式)

    任意の整数 m,n \ge 0i,j \in S に対して
    {
\begin{equation}
p_{i,j}^{(n+m)}=\sum_{k \in S} p_{i,k}^{(n)} p_{k,j}^{(m)} \;\;\;\;\; (※)
\end{equation}
}
    が成り立つ。

    証明

    \cup_{k\in S} \{X_n=k\}=\Omega であるから
    {
\begin{eqnarray}
p_{i,j}^{(n+m)} & = & P(X_{n+m}=j|X_0=i) \\
& = & \sum_{k\in S} P(X_{n+m}=j,X_n=i_k|X_0=i) \\
& = & \sum_{k\in S} P(X_{n+m}=j|X_n=k,X_0=i)P(X_n=k|X_0=i) \\
& = & \sum_{k\in S} P(X_{x+m}=j|X_n=k)P(X_n=k|X_0=i) \\
& = & \sum_{k\in S} p_{k,j}^{(m)}p_{i,k}^{(n)} \\
& = & \sum_{k\in S} p_{i,k}^{(n)}p_{k,j}^{(m)} \;\;\;\; \Box
\end{eqnarray}
}

    同じ状態空間 S より定義された2つの推移行列 P=\{p_{i,j}\},Q=\{q_{i,j}\}の積 PQ を通常の行列の積と同様に

    {
\begin{equation}
PQの(i,j)要素=\sum_{k\in S} p_{i,k}q_{k,j}
\end{equation}
}

    により定義する。そうすると(※)を

    {
\begin{equation}
P^{(n+m)}=P^{(n)}P^{(m)}
\end{equation}
}

    と表すことができ、更に

    {
\begin{equation}
P^{(n)}=P^{(n-1)}P=\ldots=P^n
\end{equation}
}

    よりn次の推移行列は推移行列のn回の積であることが分かる。

    参考書籍

    宮沢政清(2013)『確率と確率過程』(現代数学ゼミナール17)近代科学社