独立のときの共分散

X,Y が独立のとき,p(X=x)=p(X+a=x+a)p(Y=y)=p(Y+a=y+a) だから X+a,Y+b も独立である

よって a=-\overline{X}b=-\overline{Y} とした X-\overline{X}Y-\overline{Y} は独立である.

よって
\textrm{Cov}[X,Y]=E\left[(X-\overline{X})(Y-\overline{Y})\right]=E\left[(X-\overline{X})\right]\cdot E\left[(Y-\overline{Y})\right]=0
が成立する.

このような証明もあまり見ないなぁ.実質的には同じだけど普通は
\textrm{Cov}[X,Y]=E\left[(X-\overline{X})(Y-\overline{Y})\right]=E[XY]-\overline{X}\cdot E[Y]-E[X]\cdot \overline{Y}+\overline{X}\cdot \overline{Y}=E[XY]-\overline{X}\cdot \overline{Y}-\overline{X}\cdot \overline{Y}+\overline{X}\cdot \overline{Y}=E[XY]-\overline{X}\cdot \overline{Y}=0
のようにやる.

大事なことは,X-\overline{X}Y-\overline{Y} は独立なのだから,
「わざわざ展開しなくて良いのでは?」
と思えることである.

なお,これから X_i が i.i.d. のとき
V[X_i+X_j]=V[X_i]+V[X_j]
が成立する.また独立かどうかに関係なく期待値の和は和の期待値となるので
E[X_i+X_j]=E[X_i]+E[X_j]

よって
E[\overline{X}]=\dfrac{1}{n}\displaystyle\sum_{i=1}^n E[X_i]=E[X_1]
V[\overline{X}]=\dfrac{1}{n^2}\displaystyle\sum_{i=1}^n V[X_i]=\dfrac{1}{n}V[X_1]
となる.

これを使って

(1) 2項分布の平均と分散を、ベルヌイ分布の平均と分散を利用して求める

(2) 母集団からの標本に対して
\overline{X} の平均は母平均に等しく,分散は母分散の \dfrac{1}{n} となる.

を理解しておこう.