Probability Theory
Independence
Definition Pair-wise Independence
- \(\{ \mathcal{A}_{i} \}_{i \in I}\),
- The familyt of $\sigma$ -algebra over $\mathcal{F}$
\(\{ \mathcal{A}_{i} \}_{i \in I}\) is said to be pairwise independence if
\[\forall i \neq j, \quad P(A_{i} \cap A_{j}) = P(A_{i}) P(A_{j}), \quad \forall A_{i} \in \mathcal{A}_{i}, \forall A_{j} \in \mathcal{A}_{j}\]Definition Independence of $\sigma$-algebra
- \(\{ \mathcal{A}_{i} \}_{i \in I}\),
- The familyt of $\sigma$ -algebra over $\mathcal{F}$ \(\{ \mathcal{A}_{i} \}_{i \in I}\) is said to be independent if
Definition Independence of random variables
- \(\{X_{i}\}_{i \in I}\),
- a family of r.v. over $\mathcal{F}$
\(\{X_{i}\}_{i \in I}\) is said to be independent if $\sigma$-algebras generated by the r.v.s are independent. In other words,
\[\forall N \in \mathbb{N}, \quad \forall i_{1}, \ldots, i_{N} \in I, \quad P(A_{i_{1}} \cap \cdots \cap A_{i_{N}}) = \prod_{j=1}^{N}P(A_{i_{j}}), \quad \forall A_{i_{1}} \in \sigma(X_{i_{1}}), \ldots, \forall A_{i_{N}} \in \sigma(X_{i_{N}}). .\]Remark
独立性は$\sigma$-algebraを通して定義される。 よって、$\sigma$-algbera上での独立を議論すれば十分である。
Remark
$\forall i \neq j$について、$A_{i}$と$A_{j}$が独立であっても、$A_{1}, \ldots, A_{N}$が独立であるとは限らない。 実際、
- $N=3$
- $\Omega := \{\omega_{000}, \omega_{001}, \omega_{010}, \ldots, \omega_{111} \}$
- $\mathcal{F} := 2^{\Omega}$
- $\Omega$のべき集合
- $X_{1}, X_{2}, X_{3}$は0,1の値を取る確率変数
- $X_{i}(\omega_{k_{1}k_{2}k_{3}}) := k_{i}$とする
確率変数の確率$P$を以下で定義する。
- $P(X_{1}=1,\ X_{2}=1,\ X_{3}=1) = 1/8$
- $P(X_{1}=1,\ X_{2}=1,\ X_{3}=0) = 0$
- $P(X_{1}=1,\ X_{2}=0,\ X_{3}=1) = 0$
- $P(X_{1}=1,\ X_{2}=0,\ X_{3}=0) = 1/8$
- $P(X_{1}=0,\ X_{2}=1,\ X_{3}=1) = 1/8$
- $P(X_{1}=0,\ X_{2}=1,\ X_{3}=0) = 1/4$
- $P(X_{1}=0,\ X_{2}=0,\ X_{3}=1) = 1/4$
- $P(X_{1}=0,\ X_{2}=0,\ X_{3}=0) = 1/8$
以上より、
- $P(X_{1} = 1) = 1/4$
- $P(X_{1} = 0) = 3/4$
- $P(X_{2} = 1) = 1/2$
- $P(X_{2} = 0) = 1/2$
- $P(X_{3} = 1) = 1/2$
- $P(X_{3} = 0) = 1/2$
- $P(X_{1} = 1)P(X_{2} = 1) = 1/8$
- $P(X_{1} = 1)P(X_{2} = 0) = 1/8$
- $P(X_{1} = 0)P(X_{2} = 1) = 3/8$
- $P(X_{1} = 0)P(X_{2} = 0) = 3/8$
- $P(X_{1} = 1)P(X_{3} = 1) = 1/8$
- $P(X_{1} = 1)P(X_{3} = 0) = 1/8$
- $P(X_{1} = 0)P(X_{3} = 1) = 3/8$
- $P(X_{1} = 0)P(X_{3} = 0) = 3/8$
- $P(X_{1} = 1,\ X_{2} = 1) = 1/8$
- $P(X_{1} = 1,\ X_{2} = 0) = 1/8$
- $P(X_{1} = 0,\ X_{2} = 1) = 3/8$
- $P(X_{1} = 0,\ X_{2} = 0) = 3/8$
- $P(X_{1} = 1,\ X_{3} = 1) = 1/8$
- $P(X_{1} = 1,\ X_{3} = 0) = 1/8$
- $P(X_{1} = 0,\ X_{3} = 1) = 3/8$
- $P(X_{1} = 0,\ X_{3} = 0) = 3/8$
であり、$\forall i \neq j$について$X_{i}, X_{j}$は独立である。 一方、
- $P(X_{1}=1,\ X_{2}=1,\ X_{3}=1) = 1/8$
- $P(X_{1}=1)P(X_{2}=1)P(X_{3}=1) = 1/16$
で$X_{1}, X_{2}, X_{3}$は独立でない。
Proposition
確率変数が密度関数をもつ場合は密度関数によって、独立性を定義できる。
$X_{1}, \ldots, X_{N}$を確率変数とする。 \(f_{X_{1}, \ldots, X_{N}}(x_{1}, \ldots, x_{N})\)を\(X_{1}, \ldots, X_{N}\)を同時密度関数とする。 また、\(f_{X_{1}}, \ldots, f_{X_{N}}\)を確率変数の周辺密度関数とする。 このとき以下は同値
- \(X_{1}, \ldots, X_{N}\)が独立
- 密度関数について以下が成立
proof.
\[\begin{eqnarray} \prod_{j=1}^{N} P(X_{i_{j}} \in A_{j}) & = & \prod_{j=1}^{N} \int_{A_{j}} f_{X_{i_{j}}}(x_{j})\ d x_{j} \nonumber \\ & = & \int_{A_{j}} \prod_{j=1}^{N} f_{X_{i_{j}}}(x_{j}) \ d x_{j} \nonumber \end{eqnarray}\]に注意すれば良い。
Proposition(Independence with p.d.f.)
確率変数が密度関数をもつ場合は、独立性はやや簡単になる。 次が成立する。
\(X_{1}, \ldots, X_{N}\)を確率変数とし、joint p.d.f \(f_{X_{1}, \ldots, X_{N}}\)を持つとする。 このとき、以下は同値
- \(X_{1}, \ldots, X_{N}\)が独立
- 以下が成立
つまり、最長のjoint p.d.fについてのみ、考慮すれば良い。
proof.
1から2は自明である。 2から1は、marginal p.d.f. がjoint p.d.f.でかけることを利用すれば良い。 例えば、
\[\begin{eqnarray} f_{X_{1}, \ldots, X_{N-1}}(x_{1}, \ldots, x_{N-1}) & = & \int f_{X_{1}, \ldots, X_{N}}(x_{1}, \ldots, x_{N})\ dx_{N} \nonumber \\ & = & \int \prod_{i=1}^{N} f_{X_{i}}(x_{i}) \ dx_{N} \nonumber \\ & = & \prod_{i=1}^{N-1} f_{X_{i}}(x_{i}) \end{eqnarray}\]である。 同様に任意の有限個の組について示すことができる。
Theorem (Dynkin’s theorem)
Dynkin族定理。
proof.
Proposition
\(\{ \mathcal{G}_{i} \}_{i \in I}\)をsub $\sigma$-algberaとする。 \(\mathcal{C}_{i}\)を$\pi$系とし、\(\sigma(\mathcal{C}_{i}) = \mathcal{G}_{i}\)とする。 以下は同値
- \(\{\mathcal{G}_{i}\}_{i \in I}\)が独立
- 以下が成立
proof.
1から2は自明であるので、2から1を示す。
Definition Conditional Independence
TBD.
Conditional Probability Density Function
条件付き確率密度関数について考える。
Gaussian Distribution
Proposition
- \((\Omega, \mathcal{F}, P)\),
- \(X: \Omega \rightarrow \mathbb{R}\),
- r.v.
- 分布関数が連続
このとき、$\forall x \in \mathbb{R}$, $P({X = x}) = 0$である。
proof.
$\exists x \in \mathbb{R}$, $c := P({X = x}) > 0$とする。 $c > \epsilon > 0$について、$\forall 1 > \delta > 0$
\[|F(x) - F(x - \delta)| = |PX^{-1}((-\infty, x]) - PX^{-1}((-\infty, x - \delta])|\]Convergence
Definition Convergence in probability
- \((\Omega, \mathcal{F}, P)\),
- $X_{1}, X_{2}, \ldots$,
- $X$,
$X_{n}$ is said to converge to $X$ in probability as $n$ approch to $\infity$ if
\[\forall \epsilon > 0, \ \lim_{n \rightarrow \infty} P(\abs{X_{n} - X} > \epsilon) = 0 .\]Definition Convergence in distribution
- \((\Omega, \mathcal{F}, P)\),
- $X_{1}, X_{2}, \ldots$,
- $X$,
$X_{n}$ is said to converge to $X$ in distribution as $n$ approch to $infinity$ if
\[\forall x \in \mathbb{R}, \ \lim_{n \rightarrow \infty} F_{X_{n}}(x) = F_{X}(x) .\]It is also said that $X_{n}$ converges to $X$ in law, converge weakly to $X$.