aibiology

Artificial intelligence in biology

0%

1.期望数学定义及性质证明

在n次独立重复的试验中观察随机变量\(\xi\)的取值,则取\(x_i\)的值大致 应该出现在\(np_i\)次,根据n次试验结果计算该随机变量的平均值大致如下: \[ \frac{1}{n}[np_1x_1+np_2x_2+...+np_kx_k] = \sum_{i=1}^{k}p_ix_i \] 定义:实数\(E\xi = \sum_{i=1}^{k}x_iP(A_i)\),称作随机变量\(\xi=\sum_{i=1}^{k}x_iI(A_i)\) 的数学期望或平均值。 数学期望的基本性质

  1. \(\xi \ge 0\),则\(E\xi \ge 0\).
  2. \(E(a\xi+b\eta) = aE\xi + bE\eta\),其中a,b为常数.
  3. \(\xi \ge \eta\),则\(E\xi \ge E\eta\).
  4. \(|E\xi| \le E|\xi|\).
  5. \(\xi\)\(\eta\)独立,则\(E\xi\eta=E\xi \cdot E\eta\).
  6. \((E|\xi|)^2 \le E{\xi}^2 \cdot E{\eta}^2\),柯西-瓦尔茨不等式.
  7. \(\xi = I(A)\),则\(E\xi = P(A)\).

证明: 性质1显然成立 性质7,根据示性函数,由于 \[ \xi = I_A(\omega)= \begin{cases} 1, \omega \in A, \\ 0, \omega \in A. \end{cases} \] 由于伯努利试验只有0,1,所以根据随机变量期望的定义,性质7成立。

性质2的证明: 设 \(\xi=\sum x_iI(A_i), \eta=\sum y_jI(B_j)\),

\[\begin{equation} \begin{aligned} a\xi+b\eta &= a\sum_{i,j}x_i I(A_i \cap B_j) + b\sum_{i,j} y_j I(A_i \cap B_j) \\ &=\sum_{i,j}(a x_i+b y_j)I(A_i \cap B_j) \\ \end{aligned} \end{equation}\]

\[\begin{equation} \begin{aligned} E(a\xi+b\eta) &= \sum_{i,j}(a x_i+b y_i)P(A_i \cap B_j) \\ &=\sum_{i}a x_iP(A_i) + \sum_{j}b y_jP(B_j) \\ &=a\sum_{i}x_iP(A_i) + b\sum_{j}y_jP(B_j) \\ &=a\sum(\xi) + b\sum(\eta) \\ \end{aligned} \end{equation}\]

性质3 的证明: 由性质1,2可以证明3。

性质4的证明: \[ |E\xi| = |\sum_{i}x_iP(A_i)| \le \sum_{i}|x_i|P(B_j)=E|\xi| \]

性质5的证明: \[\begin{equation} \begin{aligned} E\xi\eta &= E(\sum_{i}x_i I(A_i))(\sum_{j}y_j I(B_j)) \\ &=E\sum_{i,j}x_iy_jI(A_i \cap B_j) \\ &=\sum_{i,j}x_i y_jP(A_i \cap B_j) \\ &=\sum x_j y_jP(A_i)P(B_j) \\ &=(\sum_{i}x_i P(A_i))(\sum_{j}y_i P(B_j)) \\ &=E\xi \cdot E\eta \\ \end{aligned} \end{equation}\] 证明过程中,对于独立的随机变量\(\xi\) ,\(\eta\), 事件 \(A_i = {\omega:\xi(\omega)=x_i}\)\(B_j={\omega:\eta(\omega)=y_j}\) 事件独立:\(P(A_i \cap B_j) = P(A_i)P(B_j)\)

性质6 的证明: 已知 \[ \xi^2 = \sum_{i=1}^{l}x_i^2 I(A_i), \eta^2 = \sum y_i^2 I(b_j)\] \[ E\xi^2 = \sum_{i=1}^l x_i^2 P(A_i), E\eta^2 = \sum_{j=1}^k y_i^2P(B_j) \]

\(E\xi^2 > 0\) ;\(E\eta^2 > 0\), 记 \(\widetilde{\xi} = \frac{\xi}{\sqrt{E\xi^2}}\) ,\(\widetilde{\eta} = \frac{\eta}{\sqrt{E\eta^2}}\)

由于 \(2|\widetilde{\xi} \widetilde{\eta}| \le {\widetilde{\xi}}^2 + {\widetilde{\eta}}^2\) 可得 \(2E|\widetilde{\xi} \widetilde{\eta}| \le E{\widetilde{\xi}}^2 + E {\widetilde{\eta}}^2 = 1+1=2\) 所以 \(E|\widetilde{\xi} \widetilde{\eta}| \le 1\) \[\begin{equation} \begin{aligned} (E|\xi\eta|)^2 = (E|\widetilde{\xi}\sqrt{E\xi^2} \widetilde{\eta}\sqrt{E\eta^2}|)^2 \\ &=(E|\sqrt{E\xi^2E\eta^2}\widetilde{\xi}\widetilde{\eta}|)^2 \\ &=E\xi^2 E\eta^2(E|\widetilde{\xi}\widetilde{\eta}|)^2 \\ \end{aligned} \end{equation}\] 由于 \(E|\widetilde{\xi} \widetilde{\eta}| \le 1\) 所以 \((E|\widetilde{\xi} \widetilde{\eta}|)^2 \le 1\) 因此 \((E|\xi\eta|)^2 = E\xi^2 E\eta^2(E|\widetilde{\xi}\widetilde{\eta}|)^2 \le E\xi^2 \times E\eta^2\) 所以性质6 得证。

因为设 \(E\xi > 0\),所以还有一种特殊情况要证明。 假设 \(E\xi^2 = 0\) , \(\sum_{i}x_i^2P(A_i) = 0\) 因此0是\(\xi\)的可能的值,且 \(P{\omega : \xi(\omega) = 0} = 1\) 因为\(E\xi^2\) 或者 \(E\eta^2=0\) ,显然 \(E|\xi\eta| = 0\) ,性质6依然成立。

2.方差的定义及性质证明

方差是来描述数据分散程度的指标

\[D\xi = E(\xi - E\xi)^2\] \(D\xi\)记为方差,\(\sigma = \sqrt{D\xi}\)记为标准差。

性质1 由于 \[ E(\xi-E\xi)^2 = E[\xi^2 - 2\xi E\xi + (E\xi)^2] = E(\xi^2) - (E\xi)^2 \] 所以 \[D\xi = E\xi^2 - (E\xi)^2\]

根据方差的定义,可知\(D\xi\ge0\)

性质2 对于任意常数的a,b \(D(a+b\xi) = b^2D\xi\)\(Da=0\),\(D(b\xi) = b^2D\xi\)

性质3 对于二个随机变量\(\xi\),\(\eta\)

\[D(\xi+\eta) = E[(\xi-E\xi)+(\eta - E\eta)]^2 = D\xi + D\eta +2E(\xi-E\xi)(\eta-E\eta)\]

记: \[ cov(\xi,\eta) = E(\xi-E\xi)(\eta-E\eta) \] 称作随机变量\(\xi\)\(\eta\)的协方差,如果\(D\xi \ge 0\), \(D\eta \ge 0\), 则 \(\rho(\xi,\eta) = \frac{cov(\xi,\eta)}{\sqrt{D\xi \times D\eta}}\) 称作随机变量\(\xi\)\(\eta\)的相关系数。

1.二项分布(binomial distribution)

两点分布重复n次,就得到了二项分布,二项分布的概率质量函数(probability mass function, PMF): n为实验的总次数,k为实验成功的次数,p是成功的概率 \[ P(X=k)=C_n^kp^k(1-p)^{n-k} \] 服从二项分布的随机变量记为 \(X \sim B(n,p)\)

2.二项分布的期望

二项分布分布,事件发生的概率为p, 不发生的概率为q=1-p, 这里的 \(C_n^k\) 称为二项系数,根据二项展开式的系数,可以反推二项分布的概率和为1. \[ \sum_{k=0}^nP(X=k) = \sum_{k=0}^nC_n^kp^k(1-p)^{n-k} = (p+(1-p))^n=1 \] 期望是离散型随机变量的特征之一,定义如下: 设\(\xi\) 为离散型随机变量,它可以取值\(x_1,x_2,x_3,...\),对应的概率为\(p_1,p_2,p_3,...\) 如果级数 \[\sum_{i=1}^{\infty}x_ip_i\] 绝对收敛,则把它称为\(\xi\)的数学期望(mathematical expectation),简称期望,期望值或均值(mean),记为\(E\xi\)\(\sum_{i=1}^{\infty}{\vert}x_i{\vert}p_i\) 发散时,则\(\xi\)的数学期望不存在。

\[\begin{equation} \begin{aligned} \sum_{k=0}^{n}kp_k &= \sum_{k=1}{n}{n \choose k}p^kq^{n-k} \\ &= np \sum_{k=1}^{n}{n-1 \choose k-1}p^{k-1}q^{n-k} \\ &=np(p+q)^{n-1} \\ &=np \end{aligned} \end{equation}\]

二项分布期望证明二:

\(\xi_1,\xi_2,...\xi_n\) 是n个伯努利随机变量,以概率\(P\{\xi_i=1\} = p\)\(P\{\xi_i=0\} = q,p + q = 1\), 则对于: \[S_n = \xi_1+\xi_2+...+\xi_n\] 根据期望的基本性质,\(S_n\)的数学期望为 \[ES_n = E(\xi_1)+E(\xi_2) + ... + E(\xi_n) = np \] 证明的过程比第一个证明要简单快捷。

3.二项分布的方差

随机变量\(\xi\),如果\(E(\xi-E\xi)^2\)存在,则称它为随机变量\(\xi\)的方差(variance). 并记为\(D\xi\),而\(\sqrt{D\xi}\)称为标准差(standard deviation),描述的是随机变量 对其数学期望的偏离程度(dispersion)。

\[ E(X) = np\]

\[\begin{equation} \begin{aligned} E(X^2) &= \sum_{k=0}^{n} k^2 C_n^kp^kq^{n-k} \\ &=\sum_{k=1}^{n} [k(k-1)+k]\frac{n!}{k!(n-k)!}p^kq^{n-k} \\ &=\sum_{k=2}^{n} \frac{n!}{(k-2)!(n-k)!} + E(X) \\ &=n(n-1)p^2 \sum_{k=2}^{n} \frac{(n-2)!}{(k-2)![(n-2) - (k-2)]!} \cdot p^{k-2}q^{(n-2)-(k-2)} +E(X) \\ &=n(n-1)p^2 \sum_{k{'}=0}^{n-2} C_{n-2}^k{'}p^k{'}q^{(n-2)-k{'}} + E(X) \\ &=n(n-1)p^2 + np \\ &=n^2p^2 + np(1-p) \\ \end{aligned} \end{equation}\]

由于方差恒等式\(D(X) = E(X^2) - [E(X)]^2\),所以 \(D(X) = np(1-p)\)

二项分布方差证明二:

\(\xi\)是伯努利随机变量,以概率\(P\{\xi_i=1\} = p\)\(P\{\xi_i=0\} = q,p + q = 1\), 根据方差的定义:

伯努利期望\(E\xi = p\), \[ D\xi = E(\xi - E\xi)^2 = E(\xi - p)^2=(1-p)^2p + (0-p)^q = pq \] 由此可见,\(\xi_1,\xi_2,...\xi_n\)是独立同分布的伯努利随机变量序列,且\(S_n = \xi_1+\xi_2+...+\xi_n\)\[DS_n = npq\] 这里参考了方差的性质:如果\(\xi\)\(\eta\)独立,则和\(\xi+\eta\)的方差等于方差之和。 \[D(\xi+\eta) = D\xi + D\eta\]

1.伯努利分布(bernoulli distribution)

伯努利分布,又名两点分布或者0-1分布,是一个离散型的随机分布。 如果伯努利试验成功,则伯努利随机变量取值为1,如果失败,伯努利 随机变量取值为0。记其成功概率为p,失败概率为q=1-p.

则其概率质量函数为:

\[f(x) = p^x(1-p)^{1-x} = \begin{cases} p & if x = 1, \\ q & if x = 0. \end{cases}\]

2.伯努利分布的期望

\[E[X] = \sum_{i=0}^{1}x_if(x_i)=1 \cdot p+0 \cdot p=p\]

3.伯努利分布的方差

\[var[X] = \sum_{i=0}^{1}(x_i-E[X])^2f(x_i) = (0-p)^2(1-p)+(1-p)^2p=p(1-p)=pq\]

\(p=q=\frac{1}{2}\)时,方差最大。

正态分布

\[f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^\frac{(x-\mu)^2}{2\sigma^2}\]

正太分布的推导

这里介绍高斯的推导方法,采用误差

\[\begin{align*} L(\theta) &= L(\theta;x_1,\cdots,x_n)=f(e_1)\cdots f(e_n) \\ & = f(x_1-\theta)\cdots f(x_n-\theta) \end{align*}\]

\(\frac{d \log L(\theta)}{d \theta} = 0\)

\(\sum_{i=1}^n \frac{f'(x_i-\theta)}{f(x_i-\theta)} = 0\)

\(g(x) = \frac{f'(x)}{f(x)}\)

\(\sum_{i=1}^n g(x_i-\theta) = 0\)

\[\begin{equation} \sum_{i=1}^n g(x_i-\bar{x}) = 0 \quad (1) \end{equation}\]

  1. 式中取 \(n=2\), 有

\(g(x_1-\bar{x}) + g(x_2-\bar{x}) = 0\)

由于此时有 \(x_1-\bar{x} = -(x_2-\bar{x})\)

1.KEGG 数据库

KEGG是现在主流的基因注释的数据库之一,KEGG 是一个集成的数据库资源, 主要有18个子库构成,分成四个主要部分,包括: 系统信息(KEGG 代谢通路,简介,模块); 基因组信息(直系的功能基因,基因组,基因,基因序列相似性); 化学信息(小分子,聚糖,反应,反应类型,酶命名) 健康信息(疾病和变异相关的网络,人类基因组变异,人类疾病,药物,药物群,健康相关物质)

2.生物信息学常用的子库介绍

2.1 KEGG Orthology

KEGG Orthology(KO)是用功能直系同源基因表示分子功能的数据库。 功能直系同源是手动

1. VGG16

VGG16是运用高深度的卷积神经网络在图像识别方面的一个重要的应用,并在2014年夺得ImageNet的定位第一和分类第二。 论文PDF

2. 网络结构

文章中网络结构如下: 'vgg'

3. 代码实现

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
def conv_layer(chann_in, chann_out, k_size, p_size):
layer = tnn.Sequential(
tnn.Conv2d(chann_in, chann_out, kernel_size=k_size, padding=p_size),
tnn.BatchNorm2d(chann_out),
tnn.ReLU()
)
return layer

def vgg_conv_block(in_list, out_list, k_list, p_list, pooling_k, pooling_s):

layers = [ conv_layer(in_list[i], out_list[i], k_list[i], p_list[i]) for i in range(len(in_list)) ]
layers += [ tnn.MaxPool2d(kernel_size = pooling_k, stride = pooling_s)]
return tnn.Sequential(*layers)

def vgg_fc_layer(size_in, size_out):
layer = tnn.Sequential(
tnn.Linear(size_in, size_out),
tnn.BatchNorm1d(size_out),
tnn.ReLU()
)
return layer

pytorch,深度学习流行的框架之一,Facebook开发维护,社区活跃度高。

1.pytorch维度转化相关

1.1 permute vs transpose

词义是重新排列,改变次序的意思,在pytorch中主要用来实现tensor的维度转换。

pytorch官方的解释如下:

1
2
3
4
$ permute(*dims) → Tensor
$ Returns a view of the original tensor with its dimensions permuted.
$ Parameters
$ *dims (int...) – The desired ordering of dimensions

Example

1
2
3
4
5
>>> x = torch.randn(1, 2, 3, 5)
>>> x.size()
torch.Size([1, 2, 3, 5])
>>> x.permute(3, 2, 0, 1).size()
torch.Size([5, 3, 1, 2])
Tensor.permute(a,b,c,d, ...):permute函数可以对任意高维矩阵进行转置; 但没有 torch.permute() 这个调用方式,只能 Tensor.permute();

torch.transpose(Tensor, a,b):transpose只能操作2D矩阵的转置, 但是多次的2D转换的结果和permute的一致。

1
2
3
4
5
6
>>> torch.randn(1,2,3,5).transpose(2,0).shape
torch.Size([3, 2, 1, 5])
>>> torch.randn(1,2,3,5).transpose(2,0).transpose(3,0)
torch.Size([5, 2, 1, 3])
>>> torch.randn(1,2,3,5).transpose(2,0).transpose(3,0).transpose(3,1)
torch.Size([5, 3, 1, 2])
总结,复杂的转换可以使用permute,简答的2D转换用transpose。

1.2 view

改变tensor的形状,但是和permute和transpose不同; 参数中的-1就代表这个位置由其他位置的数字来推断;

pytorch的官方解释如下: Returns a new tensor with the same data as the self tensor but of a different shape.

1
2
3
$ view(*shape) → Tensor
$ Parameters
$ shape (torch.Size or int...) – the desired size
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
>>> x = torch.randn(4, 4)
>>> x.size()
torch.Size([4, 4])
>>> y = x.view(16)
>>> y.size()
torch.Size([16])
>>> z = x.view(-1, 8) # the size -1 is inferred from other dimensions
>>> z.size()
torch.Size([2, 8])

>>> a = torch.randn(1, 2, 3, 4)
>>> a.size()
torch.Size([1, 2, 3, 4])
>>> b = a.transpose(1, 2) # Swaps 2nd and 3rd dimension
>>> b.size()
torch.Size([1, 3, 2, 4])
>>> c = a.view(1, 3, 2, 4) # Does not change tensor layout in memory
>>> c.size()
torch.Size([1, 3, 2, 4])
>>> torch.equal(b, c)
False

泊松分布,二项分布的极限形式,广泛应用于管理科学,运筹学,自然科学中。生活中某个十字路口在一定时间内经过的车辆数,就服从泊松分布。 它描述的是在单位时间(空间)内随机事件发生的次数。 泊松分布的推导如下:

二项分布(binomial distribution)

两点分布重复n次,就得到了二项分布,二项分布的概率质量函数(probability mass function, PMF): n为实验的总次数,k为实验成功的次数,p是成功的概率 \[ P(X=k)=C_n^kp^k(1-p)^{n-k} \] 服从二项分布的随机变量记为 \(X \sim B(n,p)\)

二项分布的期望

二项分布分布,事件发生的概率为p, 不发生的概率为q=1-p, 这里的 \(C_n^k\) 称为二项系数,根据二项展开式的系数,可以反推二项分布的概率和为1. \[ \sum_{k=0}^nP(X=k) = \sum_{k=0}^nC_n^kp^k(1-p)^{n-k} = (p+(1-p))^n=1 \] 期望是离散型随机变量的特征之一,定义如下: 设\(\xi\) 为离散型随机变量,它可以取值\(x_1,x_2,x_3,...\),对应的概率为\(p_1,p_2,p_3,...\) 如果级数 \[\sum_{i=1}^{\infty}x_ip_i\] 绝对收敛,则把它称为\(\xi\)的数学期望(mathematical expectation),简称期望,期望值或均值(mean),记为\(E\xi\)\(\sum_{i=1}^{\infty}{\vert}x_i{\vert}p_i\) 发散时,则\(\xi\)的数学期望不存在。

\[\begin{equation} \begin{aligned} \sum_{k=0}^{n}kp_k &= \sum_{k=1}{n}{n \choose k}p^kq^{n-k} \\ &= np \sum_{k=1}^{n}{n-1 \choose k-1}p^{k-1}q^{n-k} \\ &=np(p+q)^{n-1} \\ &=np \end{aligned} \end{equation}\]

二项分布的方差

随机变量\(\xi\),如果\(E(\xi-E\xi)^2\)存在,则称它为随机变量\(\xi\)的方差(variance). 并记为\(D\xi\),而\(\sqrt{D\xi}\)称为标准差(standard deviation),描述的是随机变量 对其数学期望的偏离程度(dispersion)。

\[ E(X) = np\]

\[\begin{equation} \begin{aligned} E(X^2) &= \sum_{k=0}^{n} k^2 C_n^kp^kq^{n-k} \\ &=\sum_{k=1}^{n} [k(k-1)+k]\frac{n!}{k!(n-k)!}p^kq^{n-k} \\ &=\sum_{k=2}^{n} \frac{n!}{(k-2)!(n-k)!} + E(X) \\ &=n(n-1)p^2 \sum_{k=2}^{n} \frac{(n-2)!}{(k-2)![(n-2) - (k-2)]!} \cdot p^{k-2}q^{(n-2)-(k-2)} +E(X) \\ &=n(n-1)p^2 \sum_{k{'}=0}^{n-2} C_{n-2}^k{'}p^k{'}q^{(n-2)-k{'}} + E(X) \\ &=n(n-1)p^2 + np \\ &=n^2p^2 + np(1-p) \\ \end{aligned} \end{equation}\]

由于方差恒等式\(D(X) = E(X^2) - [E(X)]^2\),所以 \(D(X) = np(1-p)\)

泊松分布(possion distribution)

在下面的情形下,\(n \to \infty,\,p,\,\lambda > 0,\,\lambda=np,\,p = \frac{\lambda}{n}\) \[P(X=k)=\displaystyle \lim_{n \to \infty} C_n^k \cdot (\frac{\lambda}{n})^k \cdot (1-\frac{\lambda}{n})^{n-k}\] \[C_n^k \cdot (\frac{\lambda}{n})^k \cdot (1-\frac{\lambda}{n})^{n-k}=\frac{1}{k!} \cdot \frac{n(n-1)...(n-k+1)}{n^k} \cdot \lambda^k \cdot\frac{(1-\frac{\lambda}{n})^n}{(1-\frac{\lambda}{n})^k}\] 因为\(n \to \infty\), k不变,第二个因子

\[\displaystyle \lim_{n \to \infty} \frac{n(n-1)...(n-k+1)}{n^k}=\frac{n}{n} \cdot \frac{n-1}{n}...\frac{n-(k-1)}{n}=1\]

第四个因子中的分母

\[\displaystyle \lim_{n \to \infty}(1-\frac{\lambda}{n})^k = 1\]

第四个因子中的分子 \[(1-\frac{\lambda}{n})^n = [(1-\frac{\lambda}{n})^{-\frac{n}{\lambda}}]^{-\lambda}\] 因为 \(\displaystyle \lim_{n \to \infty} (1-\frac{\lambda}{n})^{-\frac{n}{\lambda}} = e\),所以 \((1-\frac{\lambda}{n})^n = e^{-\lambda}\)

因此 \[\displaystyle \lim_{n \to \infty} C_n^k \cdot (\frac{\lambda}{n})^k \cdot (1-\frac{\lambda}{n})^{n-k}=\frac{\lambda^k}{k!}e^{-\lambda}\] 综上 \[P(X=k)=\frac{\lambda^k}{k!}e^{-\lambda},k=0,1,2...\] 服从泊松分布随机变量记为 \(X \sim p(\lambda)\) 在应用中,当p相当小(p <= 0.1)时,我们用下面的近似公式 \(b(k;n,p) \sim \frac{(np)^k}{k!}e^{-np}\)

泊松分布期望

证明泊松分布的概率和为1 \[ \sum_{k=0}^{\infty}p(k;\lambda) = \sum_{k=0}^{\infty} \frac{\lambda^k}{k!}e^{-\lambda}=e^{-\lambda} \cdot e^{\lambda}=1\] \(e^{\lambda} = \sum_{k=0}^{\infty} \frac{\lambda^k}{k!}\) 为指数函数的泰勒展开式

\[\begin{equation} \begin{aligned} \sum_{k=0}^{\infty}kp_k &= \sum_{k=1}^{\infty}k \cdot \frac{\lambda^k}{k!}e^{-\lambda} \\ &=\lambda e^{-\lambda}\sum_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!} \\ &=\lambda e^{-\lambda} \cdot e^\lambda \\ &=\lambda \end{aligned} \end{equation}\]

泊松分布方差

方差的推导如下: 对于泊松分布期望:\(E(\xi)=\lambda\)

\[\begin{equation} \begin{aligned} E(\xi)^2 &= \sum k^2p_k \\ &=\sum_{k=1}^{\infty}k^2 \cdot \frac{\lambda^k}{k!}e^{-\lambda} \\ &=\sum_{k=1}^{\infty}k \frac{\lambda^k}{(k-1)!} e^{-\lambda} \\ &=\sum_{k=1}^{\infty} [(k-1)+1] \cdot \frac{\lambda^k}{(k-1)!} e^{-\lambda} \\ &=\sum_{k=2}^{\infty} \frac{\lambda^k}{(k-2)!}e^{-\lambda} + \sum_{k=1}^{\infty} \frac{\lambda^k}{(k-1)!}e^{-\lambda} \\ &=\lambda^2\sum_{k{'}=0}^{\infty} \frac{\lambda^k{'}}{(k{'})!}e^{-\lambda} + \lambda\sum_{k{''}=0}^{\infty} \frac{\lambda^k{''}}{(k{''})!}e^{-\lambda} \\ &=\lambda^2+\lambda \end{aligned} \end{equation}\]

\[D\xi = E(\xi^2) - [E(\xi)]^2 = \lambda^2+\lambda -\lambda^2 = \lambda\] 附方差恒等式的证明 \[D\xi = E(\xi^2) - [E(\xi)]^2 \]

\[\begin{equation} \begin{aligned} D(\xi) &= E[\xi - E(\xi)]^2 \\ &=E{\xi^2 - 2E(\xi) \cdot \xi +[E(\xi)]^2} \\ &=E(\xi^2) - E[2E(\xi) \cdot \xi] + E[E(\xi)]^2 \\ &=E(\xi^2) - 2E(\xi) \cdot E(\xi) + [E(\xi)]^2\\ &=E(\xi^2) - [E(\xi)]^2 \end{aligned} \end{equation}\]

方差恒等式证明二: 以\(\xi \sim p(\xi)\)为例

\[\begin{equation} \begin{aligned} D(\xi) &= \int_{-\infty}^{\infty}[\xi - E(\xi)]^2p(\xi)d\xi \\ &=\int_{-\infty}^{\infty}\{\xi^2 - 2E(\xi) \cdot \xi + [E(\xi)]^2\}p(\xi)d\xi \\ &=\int_{-\infty}^{\infty}\xi^2p(\xi)d\xi - 2E(\xi)\int_{-\infty}^{\infty}\xi p(\xi)d\xi + [E(\xi)]^2\int_{-\infty}^{\infty}p(\xi)d\xi \\ &=E(\xi^2) - 2E(\xi) \cdot E(\xi) + [E(\xi)]^2 \cdot 1 \\ &=E(\xi^2) - [E(\xi)]^2 \end{aligned} \end{equation}\]

Hexo是一款基于Node.js的静态博客框架,依赖少易于安装使用,可以方便的生成静态网页托管在GitHub和Heroku上,是搭建博客的首选框架。

搭建步骤

  1. 获取域名
  2. 建立github仓库
  3. 安装git
  4. 安装Node.js
  5. 安装Hexo
  6. 推送网站
  7. 绑定域名
  8. 更换主题

\[E[X]=x^4\]

Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.

Quick Start

Create a new post

1
$ hexo new "My New Post"

More info: Writing

Run server

1
$ hexo server

More info: Server

Generate static files

1
$ hexo generate

More info: Generating

Deploy to remote sites

1
$ hexo deploy

More info: Deployment