文章目录
- 1. 数据期望定义
- 2. 随机变量函数的数学期望
- 3. 二维随机变量函数的期望
- 4. 数学期望性质
- 5. 常见随机变量分布的期望
- 5.1 ( 0 − 1 ) (0-1) (0−1)分布
- 5.2 二项分布
- 5.3 泊松分布
- 5.4 几何分布
- 5.5 超几何分布
- 5.6 均匀分布
- 5.7 指数分布
- 5.8 正态分布
- 5.9 总结
1. 数据期望定义
-
设离散型随机变量 X X X的分布律为 P { X = x k } = p k , k = 0 , 1 , 2 , ⋯ . P\{X=x_k\}=p_k,\quad k=0,1,2,\cdots. P{X=xk}=pk,k=0,1,2,⋯. 若级数 ∑ k = 1 ∞ x k p k \sum\limits_{k=1}^{\infty}x_kp_k k=1∑∞xkpk 绝对收敛,则称级数 ∑ k = 1 ∞ x k p k \sum\limits_{k=1}^{\infty}x_kp_k k=1∑∞xkpk 的和为随机变量 X X X的数学期望,记为 E ( X ) E(X) E(X). 即 E ( X ) = ∑ k = 1 ∞ x k p k . E(X) = \sum\limits_{k=1}^{\infty}x_kp_k. E(X)=k=1∑∞xkpk.
-
设连续型随机变量 X X X的概率密度为 f ( x ) f(x) f(x) ,若积分 ∫ − ∞ + ∞ x f ( x ) d x \int_{-\infty}^{+\infty}xf(x)dx ∫−∞+∞xf(x)dx 绝对收敛,则称积分 ∫ − ∞ + ∞ x f ( x ) d x \int_{-\infty}^{+\infty}xf(x)dx ∫−∞+∞xf(x)dx的值为随机变量 X X X的数学期望,记为 E ( X ) E(X) E(X). 即 E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x . E(X)=\int_{-\infty}^{+\infty}xf(x)dx. E(X)=∫−∞+∞xf(x)dx.
-
数学期望简称期望,又称均值
可以用加权平均值来理解期望。
2. 随机变量函数的数学期望
- 设 Y Y Y是随机变量 X X X的函数: Y = g ( X ) Y=g(X) Y=g(X) ( g g g是连续函数).
- 如果 X X X是离散型随机变量,它的分布律为 P { X = x k } = p k , k = 0 , 1 , 2 , ⋯ , P\{X=x_k\}=p_k,\quad k=0,1,2,\cdots, P{X=xk}=pk,k=0,1,2,⋯, 若 ∑ k = 1 ∞ g ( x k ) p k \sum\limits_{k=1}^{\infty}g(x_k)p_k k=1∑∞g(xk)pk 绝对收敛,则有 E ( Y ) = E [ g ( X ) ] = ∑ k = 1 ∞ g ( x k ) p k . E(Y)=E[g(X)]=\sum\limits_{k=1}^{\infty}g(x_k)p_k. E(Y)=E[g(X)]=k=1∑∞g(xk)pk.
- 如果 X X X是连续型随机变量,它的概率密度为 f ( x ) f(x) f(x),若积分 ∫ − ∞ + ∞ g ( x ) f ( x ) d x \int_{-\infty}^{+\infty}g(x)f(x)dx ∫−∞+∞g(x)f(x)dx 绝对收敛,则有 E ( Y ) = E [ g ( X ) ] = ∫ − ∞ + ∞ g ( x ) f ( x ) d x . E(Y)=E[g(X)]=\int_{-\infty}^{+\infty}g(x)f(x)dx. E(Y)=E[g(X)]=∫−∞+∞g(x)f(x)dx.
3. 二维随机变量函数的期望
- 设 Z Z Z是随机变量 X X X, Y Y Y的函数: Z = g ( X , Y ) Z=g(X,Y) Z=g(X,Y) ( g g g是连续函数),那么, Z Z Z 是一个一维随机变量
- 若 ( X , Y ) (X,Y) (X,Y)为离散型随机变量,其分布律为 P { X = x i , Y = y j } = p i j , i , j = 1 , 2 , ⋯ , P\{X=x_i,Y=y_j\}=p_{ij},\quad i,j=1,2,\cdots, P{X=xi,Y=yj}=pij,i,j=1,2,⋯, 则有 E ( Z ) = E [ g ( X , Y ) ] = ∑ j = 1 ∞ ∑ i = 1 ∞ g ( x i , y j ) p i j E(Z)=E[g(X,Y)] = \sum\limits_{j=1}^{\infty}\sum\limits_{i=1}^{\infty}g(x_i,y_j)p_{ij} E(Z)=E[g(X,Y)]=j=1∑∞i=1∑∞g(xi,yj)pij,这里假设上式右边的级数绝对收敛。
- 若 ( X , Y ) (X,Y) (X,Y)为连续型随机变量,其概率密度为 f ( x , y ) f(x,y) f(x,y),则有 E ( Z ) = E [ g ( X , Y ) ] = ∫ − ∞ + ∞ ∫ − ∞ + ∞ g ( x , y ) f ( x , y ) d x d y \begin{aligned} E(Z)=E[g(X,Y)] = \int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}g(x,y)f(x,y)dxdy\end{aligned} E(Z)=E[g(X,Y)]=∫−∞+∞∫−∞+∞g(x,y)f(x,y)dxdy
4. 数学期望性质
-
设 C C C是常数,则有 E ( C ) = C . E(C)=C. E(C)=C.
目前我们主要研究离散型随机变量和连续性随机变量,因此,我们从两个方面证明期望性质的正确性
证明:
对于离散型,有
E ( X ) = ∑ k = 1 ∞ x k p k = C ∑ k = 1 ∞ x k = C E(X) = \sum\limits_{k=1}^{\infty}x_kp_k = C\sum\limits_{k=1}^{\infty}x_k = C E(X)=k=1∑∞xkpk=Ck=1∑∞xk=C
对于连续型,有
E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x . = C ∫ − ∞ + ∞ f ( x ) d x = C E(X)=\int_{-\infty}^{+\infty}xf(x)dx. = C\int_{-\infty}^{+\infty}f(x)dx = C E(X)=∫−∞+∞xf(x)dx.=C∫−∞+∞f(x)dx=C
-
设 X X X 是一个随机变量, C C C是常数,则有 E ( C X ) = C E ( X ) . E(CX)=CE(X). E(CX)=CE(X).
证明:
对于离散型,有
E ( C X ) = ∑ k = 1 ∞ C x k p k = C ∑ k = 1 ∞ x k p k = C E ( X ) E(CX) = \sum\limits_{k=1}^{\infty}Cx_kp_k = C\sum\limits_{k=1}^{\infty}x_kp_k = CE(X) E(CX)=k=1∑∞Cxkpk=Ck=1∑∞xkpk=CE(X)
对于连续型,有
E ( X ) = ∫ − ∞ + ∞ C x f ( x ) d x . = C ∫ − ∞ + ∞ x f ( x ) d x = C E ( X ) E(X)=\int_{-\infty}^{+\infty}Cxf(x)dx. = C\int_{-\infty}^{+\infty}xf(x)dx = CE(X) E(X)=∫−∞+∞Cxf(x)dx.=C∫−∞+∞xf(x)dx=CE(X)
-
设 X X X, Y Y Y 是两个随机变量,则有 E ( X + Y ) = E ( X ) + E ( Y ) . E(X+Y)=E(X)+E(Y). E(X+Y)=E(X)+E(Y).
证明
对于离散型,有
E ( X + Y ) = ∑ j = 1 ∞ ∑ i = 1 ∞ ( x i + y j ) p i j = ∑ j = 1 ∞ ∑ i = 1 ∞ x i p i j + ∑ j = 1 ∞ ∑ i = 1 ∞ y j p i j = E ( X ) + E ( Y ) E(X+Y) = \sum\limits_{j=1}^{\infty}\sum\limits_{i=1}^{\infty}(x_i+y_j)p_{ij} = \sum\limits_{j=1}^{\infty}\sum\limits_{i=1}^{\infty}x_ip_{ij}+\sum\limits_{j=1}^{\infty}\sum\limits_{i=1}^{\infty}y_jp_{ij} = E(X)+E(Y) E(X+Y)=j=1∑∞i=1∑∞(xi+yj)pij=j=1∑∞i=1∑∞xipij+j=1∑∞i=1∑∞yjpij=E(X)+E(Y)
对于连续型,有
E ( X + Y ) = ∫ − ∞ + ∞ ∫ − ∞ + ∞ ( x + y ) f ( x , y ) d x d y = ∫ − ∞ + ∞ ∫ − ∞ + ∞ x f ( x , y ) d x d y + ∫ − ∞ + ∞ ∫ − ∞ + ∞ y f ( x , y ) d x d y = ∫ − ∞ + ∞ x d x [ ∫ − ∞ + ∞ f ( x , y ) d y ] + ∫ − ∞ + ∞ y d y [ ∫ − ∞ + ∞ f ( x , y ) d y ] = ∫ − ∞ + ∞ x f X ( x ) d x + ∫ − ∞ + ∞ y f Y ( y ) d y = E ( X ) + E ( Y ) \begin{aligned} E(X+Y)&=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}(x+y)f(x,y)dxdy\\&=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}xf(x,y)dxdy+\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}yf(x,y)dxdy\\&=\int_{-\infty}^{+\infty}xdx[\int_{-\infty}^{+\infty}f(x,y)dy]+\int_{-\infty}^{+\infty}ydy[\int_{-\infty}^{+\infty}f(x,y)dy]\\&=\int_{-\infty}^{+\infty}xf_X(x)dx + \int_{-\infty}^{+\infty}yf_Y(y)dy\\&=E(X)+E(Y)\end{aligned} E(X+Y)=∫−∞+∞∫−∞+∞(x+y)f(x,y)dxdy=∫−∞+∞∫−∞+∞xf(x,y)dxdy+∫−∞+∞∫−∞+∞yf(x,y)dxdy=∫−∞+∞xdx[∫−∞+∞f(x,y)dy]+∫−∞+∞ydy[∫−∞+∞f(x,y)dy]=∫−∞+∞xfX(x)dx+∫−∞+∞yfY(y)dy=E(X)+E(Y)
该性质可推广到任意有限个随机变量之和的情况
-
设 X X X, Y Y Y 是两个相互独立的随机变量,则有 E ( X Y ) = E ( X ) E ( Y ) . E(XY)=E(X)E(Y). E(XY)=E(X)E(Y).
证明
对于离散型,有
E ( X Y ) = ∑ j = 1 ∞ ∑ i = 1 ∞ ( x i y j ) p i j = ∑ j = 1 ∞ ∑ i = 1 ∞ x i y j p i ⋅ p ⋅ j = ∑ i = 1 ∞ x i p i ⋅ ⋅ ∑ j = 1 ∞ y j p ⋅ j = E ( X ) ⋅ E ( Y ) E(XY) = \sum\limits_{j=1}^{\infty}\sum\limits_{i=1}^{\infty}(x_iy_j)p_{ij} = \sum\limits_{j=1}^{\infty}\sum\limits_{i=1}^{\infty}x_iy_jp_{i\cdot}p_{\cdot j} = \sum\limits_{i=1}^{\infty}x_ip_{i\cdot}\cdot\sum\limits_{j=1}^{\infty}y_jp_{\cdot j} = E(X)\cdot E(Y) E(XY)=j=1∑∞i=1∑∞(xiyj)pij=j=1∑∞i=1∑∞xiyjpi⋅p⋅j=i=1∑∞xipi⋅⋅j=1∑∞yjp⋅j=E(X)⋅E(Y)
对于连续型,有
E ( X Y ) = ∫ − ∞ + ∞ ∫ − ∞ + ∞ x y f ( x , y ) d x d y = ∫ − ∞ + ∞ ∫ − ∞ + ∞ x f X ( x ) y f Y ( y ) d x d y = [ ∫ − ∞ + ∞ x f X ( x ) d x ] ⋅ [ ∫ − ∞ + ∞ y f Y ( y ) d y ] = E ( X ) E ( Y ) \begin{aligned} E(XY)&=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}xyf(x,y)dxdy\\&=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}xf_X(x)yf_Y(y)dxdy\\&=[\int_{-\infty}^{+\infty}xf_X(x)dx]\cdot[\int_{-\infty}^{+\infty}yf_Y(y)dy]\\&=E(X)E(Y)\end{aligned} E(XY)=∫−∞+∞∫−∞+∞xyf(x,y)dxdy=∫−∞+∞∫−∞+∞xfX(x)yfY(y)dxdy=[∫−∞+∞xfX(x)dx]⋅[∫−∞+∞yfY(y)dy]=E(X)E(Y)
该性质可推广到任意有限个相互独立的随机变量之积的情况
5. 常见随机变量分布的期望
5.1 ( 0 − 1 ) (0-1) (0−1)分布
-
随机变量 X X X服从 ( 0 − 1 ) (0-1) (0−1)分布,则其分布律为 P { X = k } = p k ( 1 − p ) 1 − k , k = 0 , 1 P\{X=k\} = p^k(1-p)^{1-k}, \quad k=0,1 P{X=k}=pk(1−p)1−k,k=0,1
此时有 E ( X ) = p E(X)=p E(X)=p .
证明:
E ( X ) = ∑ k = 0 1 x k p k = 0 ⋅ p 0 ( 1 − p ) 1 − 0 + 1 ⋅ p 1 ( 1 − p ) 1 − 1 = p E(X)=\sum\limits_{k=0}^{1}x_kp_k = 0\cdot p^0(1-p)^{1-0}+1\cdot p^1(1-p)^{1-1} = p E(X)=k=0∑1xkpk=0⋅p0(1−p)1−0+1⋅p1(1−p)1−1=p
5.2 二项分布
-
X ∼ b ( n , p ) X\sim b(n,p) X∼b(n,p) ,则其分布律为 P { X = k } = ( k n ) p k q n − k k = 0 , 1 , 2 ⋯ , n P\{X=k\} = \left(_k^n\right)p^kq^{n-k} \quad k=0,1,2\cdots, n P{X=k}=(kn)pkqn−kk=0,1,2⋯,n ,此时有 E ( X ) = n p . E(X)=np. E(X)=np.
证明:
E ( X ) = ∑ k = 0 n k ( k n ) p k q n − k = ∑ k = 0 n k n ! k ! ( n − k ) ! p k q n − k = ∑ k = 1 n n p ( n − 1 ) ! ( k − 1 ) ! ( n − k ) ! p k − 1 q n − k ( k 变 成 从 1 到 n , 原 因 计 算 期 望 时 k = 0 的 一 项 为 0 , 不 影 响 结 果 , 且 这 一 步 能 避 免 出 现 ( − 1 ) ! ) = n p ⋅ ( p + q ) n − 1 ( 上 式 中 只 有 k 是 未 知 数 , 因 此 n p 在 累 加 时 可 提 出 , 累 加 项 刚 好 为 ( p + q ) n − 1 的 二 项 展 开 项 ) = n p \begin{aligned}E(X) &= \sum\limits_{k=0}^{n}k(_k^n)p^kq^{n-k} \\&=\sum\limits_{k=0}^{n}k\frac{n!}{k!(n-k)!}p^kq^{n-k} \\&= \sum\limits_{k=1}^{n}np\frac{(n-1)!}{(k-1)!(n-k)!}p^{k-1}q^{n-k} \quad (k变成从1到n,原因计算期望时k=0的一项为0,不影响结果,且这一步能避免出现(-1)!) \\&= np\cdot (p+q)^{n-1} \quad (上式中只有k是未知数,因此np在累加时可提出,累加项刚好为(p+q)^{n-1}的二项展开项) \\&=np \end{aligned} E(X)=k=0∑nk(kn)pkqn−k=k=0∑nkk!(n−k)!n!pkqn−k=k=1∑nnp(k−1)!(n−k)!(n−1)!pk−1qn−k(k变成从1到n,原因计算期望时k=0的一项为0,不影响结果,且这一步能避免出现(−1)!)=np⋅(p+q)n−1(上式中只有k是未知数,因此np在累加时可提出,累加项刚好为(p+q)n−1的二项展开项)=np
5.3 泊松分布
-
X ∼ π ( λ ) X\sim \pi(\lambda) X∼π(λ) ,则其分布律为 P { X = k } = λ k k ! e − λ k = 0 , 1 , 2 , ⋯ P\{X=k\} = \frac{\lambda^k}{k!}e^{-\lambda} \quad k=0,1,2,\cdots P{X=k}=k!λke−λk=0,1,2,⋯ ,此时有 E ( X ) = λ . E(X)=\lambda. E(X)=λ.
证明:
E ( X ) = ∑ k = 0 ∞ k λ k k ! e − λ = λ e − λ ∑ k = 1 ∞ λ k − 1 ( k − 1 ) ! ( k 变 成 从 1 到 n , 原 因 计 算 期 望 时 k = 0 的 一 项 为 0 , 不 影 响 结 果 , 且 这 一 步 能 避 免 出 现 ( − 1 ) 的 阶 乘 . λ e − λ 为 常 数 , 可 以 从 累 加 式 中 提 出 ) = λ e − λ e λ ( 泰 勒 公 式 可 知 e λ = ∑ n = 0 N 1 n ! x n , 如 果 看 不 出 来 , 令 ( k − 1 ) = n , 则 ∑ k = 1 ∞ λ k − 1 ( k − 1 ) ! = ∑ n = 0 ∞ λ n n ! ) = λ \begin{aligned}E(X) &= \sum\limits_{k=0}^{\infty}k\frac{\lambda^k}{k!}e^{-\lambda} \\&=\lambda e^{-\lambda}\sum\limits_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!} \quad (k变成从1到n,原因计算期望时k=0的一项为0,不影响结果,且这一步能避免出现(-1)的阶乘.\lambda e^{-\lambda}为常数,可以从累加式中提出 )\\&= \lambda e^{-\lambda}e^{\lambda} \quad (泰勒公式可知e^{\lambda}=\sum\limits_{n=0}^{N}\frac{1}{n!}x^n,如果看不出来,令(k-1)=n,则 \sum\limits_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!}=\sum\limits_{n=0}^{\infty}\frac{\lambda^{n}}{n!} ) \\&= \lambda \quad \end{aligned} E(X)=k=0∑∞kk!λke−λ=λe−λk=1∑∞(k−1)!λk−1(k变成从1到n,原因计算期望时k=0的一项为0,不影响结果,且这一步能避免出现(−1)的阶乘.λe−λ为常数,可以从累加式中提出)=λe−λeλ(泰勒公式可知eλ=n=0∑Nn!1xn,如果看不出来,令(k−1)=n,则k=1∑∞(k−1)!λk−1=n=0∑∞n!λn)=λ
关于泰勒公式之前文章 离散型随机变量及其常见分布律 有相关描述.证明方法二:
E ( X ) = ∑ k = 0 ∞ k λ k k ! e − λ = λ ∑ k = 1 ∞ λ k − 1 ( k − 1 ) ! e − λ 令 k − 1 = n , 则 E ( X ) = λ ∑ n = 0 ∞ λ n n ! e − λ = λ ⋅ 1 ( ∑ n = 0 ∞ λ n n ! e − λ 刚 好 是 泊 松 分 布 , 所 有 可 能 取 值 的 概 率 和 , 即 为 1 ) = λ \begin{aligned}E(X) &= \sum\limits_{k=0}^{\infty}k\frac{\lambda^k}{k!}e^{-\lambda} =\lambda \sum\limits_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!}e^{-\lambda} \quad \\&令k-1=n, 则\\E(X)&= \lambda \sum\limits_{n=0}^{\infty}\frac{\lambda^{n}}{n!}e^{-\lambda}\\ &=\lambda \cdot1 \quad (\sum\limits_{n=0}^{\infty}\frac{\lambda^{n}}{n!}e^{-\lambda} 刚好是泊松分布,所有可能取值的概率和,即为 1) \\&= \lambda \quad \end{aligned} E(X)E(X)=k=0∑∞kk!λke−λ=λk=1∑∞(k−1)!λk−1e−λ令k−1=n,则=λn=0∑∞n!λne−λ=λ⋅1(n=0∑∞n!λne−λ刚好是泊松分布,所有可能取值的概率和,即为1)=λ
关于泊松分布所有可能取值的概率和为1的证明, 感兴趣的同学可以看看之前的文章 离散型随机变量及其常见分布律 有相关证明.
5.4 几何分布
-
X ∼ G ( p ) X\sim G(p) X∼G(p) ,则其分布律为 P { X = k } = ( 1 − p ) k − 1 p k = 1 , 2 , 3 , ⋯ P\{X=k\} = (1-p)^{k-1}p \quad k = 1,2,3,\cdots P{X=k}=(1−p)k−1pk=1,2,3,⋯ ,此时有 E ( X ) = 1 p . E(X)=\frac{1}{p}. E(X)=p1.
证明:
E ( X ) = ∑ k = 1 ∞ k ( 1 − p ) k − 1 p = p ∑ k = 1 ∞ k ( 1 − p ) k − 1 令 S = ∑ k = 1 ∞ k ( 1 − p ) k − 1 = 1 ⋅ ( 1 − p ) 0 + 2 ⋅ ( 1 − p ) 1 + 3 ⋅ ( 1 − p ) 2 + ⋯ + ( k − 1 ) ⋅ ( 1 − p ) k − 2 + k ⋅ ( 1 − p ) k − 1 ( 1 ) ( 1 − p ) S = 1 ⋅ ( 1 − p ) 1 + 2 ⋅ ( 1 − p ) 2 + 3 ⋅ ( 1 − p ) 3 + ⋯ + ( k − 1 ) ⋅ ( 1 − p ) k − 1 + k ⋅ ( 1 − p ) k ( 2 ) 由 ( 1 ) − ( 2 ) 可 得 , p S = ( 1 − p ) 0 + ( 1 − p ) 1 + ( 1 − p ) 2 + ⋯ + ( 1 − p ) k − 2 + ( 1 − p ) k − 1 − k ⋅ ( 1 − p ) k ∴ p S = 1 p − ( 1 p + k ) ( 1 − p ) k ∵ 0 ≤ ( 1 − p ) ≤ 1 且 k → ∞ ∴ lim k → ∞ ( 1 − p ) k = 0 ∴ p S = 1 p ∴ S = ∑ k = 1 ∞ k ( 1 − p ) k − 1 = 1 p 2 ∴ E ( X ) = p ∑ k = 1 ∞ k ( 1 − p ) k − 1 = p S = 1 p \begin{aligned} &E(X) = \sum\limits_{k=1}^{\infty}k(1-p)^{k-1}p = p\sum\limits_{k=1}^{\infty}k(1-p)^{k-1}\\ &令 S = \sum\limits_{k=1}^{\infty}k(1-p)^{k-1} = 1\cdot(1-p)^0+2\cdot(1-p)^1+3\cdot(1-p)^2+\cdots+(k-1)\cdot(1-p)^{k-2}+k\cdot(1-p)^{k-1} \quad (1)\\&(1-p)S=1\cdot(1-p)^1+2\cdot(1-p)^2+3\cdot(1-p)^3+\cdots+(k-1)\cdot(1-p)^{k-1}+k\cdot(1-p)^{k} \quad (2)\\&由 (1)-(2) 可得, pS = (1-p)^0+(1-p)^1+(1-p)^2+\cdots+(1-p)^{k-2}+(1-p)^{k-1}-k\cdot(1-p)^{k} \\&\therefore pS = \frac{1}{p}-(\frac{1}{p}+k)(1-p)^k\quad \because 0 \leq (1-p) \leq 1 且 k \to \infty \quad \therefore \lim\limits_{k\to \infty}(1-p)^k=0 \quad \therefore pS=\frac{1}{p}\\&\therefore S=\sum\limits_{k=1}^{\infty}k(1-p)^{k-1} = \frac{1}{p^2} \\&\therefore E(X) = p\sum\limits_{k=1}^{\infty}k(1-p)^{k-1}=pS = \frac{1}{p} \end{aligned} E(X)=k=1∑∞k(1−p)k−1p=pk=1∑∞k(1−p)k−1令S=k=1∑∞k(1−p)k−1=1⋅(1−p)0+2⋅(1−p)1+3⋅(1−p)2+⋯+(k−1)⋅(1−p)k−2+k⋅(1−p)k−1(1)(1−p)S=1⋅(1−p)1+2⋅(1−p)2+3⋅(1−p)3+⋯+(k−1)⋅(1−p)k−1+k⋅(1−p)k(2)由(1)−(2)可得,pS=(1−p)0+(1−p)1+(1−p)2+⋯+(1−p)k−2+(1−p)k−1−k⋅(1−p)k∴pS=p1−(p1+k)(1−p)k∵0≤(1−p)≤1且k→∞∴k→∞lim(1−p)k=0∴pS=p1∴S=k=1∑∞k(1−p)k−1=p21∴E(X)=pk=1∑∞k(1−p)k−1=pS=p1
证明方法二:
E ( X ) = ∑ k = 1 ∞ k ( 1 − p ) k − 1 p = p ∑ k = 1 ∞ k ( 1 − p ) k − 1 \begin{aligned} &E(X) = \sum\limits_{k=1}^{\infty}k(1-p)^{k-1}p = p\sum\limits_{k=1}^{\infty}k(1-p)^{k-1} \end{aligned} E(X)=k=1∑∞k(1−p)k−1p=pk=1∑∞k(1−p)k−1
我们注意到,求和级数的形式为 k x k − 1 kx^{k-1} kxk−1 , 求和不便,但是我们知道 ( x k ) ′ = k x k − 1 (x^k)' = kx^{k-1} (xk)′=kxk−1
∴ ∑ k = 1 ∞ k x k − 1 = ( ∑ k = 1 ∞ x k ) ′ = ( x ( 1 − x k ) 1 − x ) ′ 当 0 < x < 1 且 k → ∞ 时 , lim k → ∞ x k = 0 ∴ ∑ k = 1 ∞ k x k − 1 = ( x 1 − x ) ′ = 1 ( 1 − x ) 2 \begin{aligned} &\therefore \sum\limits_{k=1}^{\infty}kx^{k-1} =(\sum\limits_{k=1}^{\infty}x^k)' =(\frac{x(1-x^k)}{1-x})' \\&当0 <x<1 且 k\to \infty 时,\lim\limits_{k\to \infty} x^k=0 \\&\therefore \sum\limits_{k=1}^{\infty}kx^{k-1} = (\frac{x}{1-x})' = \frac{1}{(1-x)^2}\end{aligned} ∴k=1∑∞kxk−1=(k=1∑∞xk)′=(1−xx(1−xk))′当0<x<1且k→∞时,k→∞limxk=0∴k=1∑∞kxk−1=(1−xx)′=(1−x)21
∴ E ( X ) = p ∑ k = 1 ∞ k ( 1 − p ) k − 1 = p 1 ( 1 − ( 1 − p ) ) 2 ( 0 < 1 − p < 1 且 k → ∞ ) = p 1 p 2 = 1 p \begin{aligned} \therefore E(X) &= p\sum\limits_{k=1}^{\infty}k(1-p)^{k-1} \\& =p\frac{1}{(1-(1-p))^2} \quad (0 <1-p<1 且 k\to \infty)\\&=p\frac{1}{p^2}\\&=\frac{1}{p}\end{aligned} ∴E(X)=pk=1∑∞k(1−p)k−1=p(1−(1−p))21(0<1−p<1且k→∞)=pp21=p1
5.5 超几何分布
-
X ∼ H ( n , M , N ) X\sim H(n,M,N) X∼H(n,M,N) ,则其分布律为 P { X = k } = ( k M ) ( n − k N − M ) ( n N ) k = 0 , 1 , ⋯ , m i n { n , M } . P\{X=k\} = \frac{(_k^M)(_{n-k}^{N-M})}{(_n^N)} \quad k= 0,1,\cdots,min\{n,M\}. P{X=k}=(nN)(kM)(n−kN−M)k=0,1,⋯,min{n,M}. ,此时有 E ( X ) = n M N . E(X)=n\frac{M}{N}. E(X)=nNM.
证明:
E ( X ) = ∑ k = 0 m i n { n , M } k ( k M ) ( n − k N − M ) ( n N ) = ∑ k = 0 m i n { n , M } k M ! k ! ( M − k ) ! ( N − M ) ! ( n − k ) ! ( N − M − n + k ) ! n ! ( N − n ) ! N ! = ∑ k = 1 m i n { n , M } M ( M − 1 ) ! ( k − 1 ) ! ( M − k ) ! ( N − M ) ! ( n − k ) ! ( N − M − n + k ) ! n ( n − 1 ) ! ( N − n ) ! N ( N − 1 ) ! = n M N 1 ( n − 1 N − 1 ) ∑ k = 1 m i n { n , M } ( k − 1 M − 1 ) ( n − k N − M ) = n M N 1 ( n − 1 N − 1 ) ( n − 1 N − 1 ) ( 范 德 蒙 恒 等 式 C m + n k = ∑ i = 0 k C m i C n k − i ) = n M N \begin{aligned} E(X) &= \sum\limits_{k=0}^{min\{n,M\}}k\frac{(_k^M)(_{n-k}^{N-M})}{(_n^N)} \\&=\sum\limits_{k=0}^{min\{n,M\}}k\frac{M!}{k!(M-k)!}\frac{(N-M)!}{(n-k)!(N-M-n+k)!}\frac{n!(N-n)!}{N!} \\&=\sum\limits_{k=1}^{min\{n,M\}}\frac{M(M-1)!}{(k-1)!(M-k)!}\frac{(N-M)!}{(n-k)!(N-M-n+k)!}\frac{n(n-1)!(N-n)!}{N(N-1)!}\\ &= n\frac{M}{N}\frac{1}{(^{N-1}_{n-1})}\sum\limits_{k=1}^{min\{n,M\}}(_{k-1}^{M-1})(_{n-k}^{N-M}) \\&=n\frac{M}{N}\frac{1}{(^{N-1}_{n-1})}(^{N-1}_{n-1}) \quad (范德蒙恒等式C_{m+n}^k = \sum\limits_{i=0}^{k}C_{m}^iC_{n}^{k-i}) \\&=n\frac{M}{N} \end{aligned} E(X)=k=0∑min{n,M}k(nN)(kM)(n−kN−M)=k=0∑min{n,M}kk!(M−k)!M!(n−k)!(N−M−n+k)!(N−M)!N!n!(N−n)!=k=1∑min{n,M}(k−1)!(M−k)!M(M−1)!(n−k)!(N−M−n+k)!(N−M)!N(N−1)!n(n−1)!(N−n)!=nNM(n−1N−1)1k=1∑min{n,M}(k−1M−1)(n−kN−M)=nNM(n−1N−1)1(n−1N−1)(范德蒙恒等式Cm+nk=i=0∑kCmiCnk−i)=nNM
5.6 均匀分布
-
X ∼ U ( a , b ) X\sim U(a,b) X∼U(a,b) ,则其概率密度为 f ( x ) = { 1 b − a , a < x < b , 0 , e l s e . f(x)=\begin{cases} \frac{1}{b-a},\quad a<x<b, \\ 0,\quad else \end{cases}. f(x)={b−a1,a<x<b,0,else. ,此时有 E ( X ) = a + b 2 . E(X)=\frac{a+b}{2}. E(X)=2a+b.
证明:
E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x = ∫ − ∞ a x ⋅ 0 d x + ∫ a b x 1 b − a d x + ∫ b + ∞ x ⋅ 0 d x = 0 + ( 1 2 1 b − a x 2 ) ∣ a b + 0 = a + b 2 \begin{aligned} E(X) &= \int_{-\infty}^{+\infty}xf(x)dx = \int_{-\infty}^{a}x\cdot0dx+\int_{a}^{b}x\frac{1}{b-a}dx+\int_{b}^{+\infty}x\cdot0dx\\&=0+(\frac{1}{2}\frac{1}{b-a}x^2)\bigg|_a^b+0 \\&=\frac{a+b}{2}\end{aligned} E(X)=∫−∞+∞xf(x)dx=∫−∞ax⋅0dx+∫abxb−a1dx+∫b+∞x⋅0dx=0+(21b−a1x2)∣∣∣∣ab+0=2a+b
5.7 指数分布
-
X ∼ E ( θ ) X\sim E(\theta) X∼E(θ) ,则其概率密度为 f ( x ) = { 1 θ e − x / θ , 0 < x , 0 , e l s e ( θ > 0 ) . f(x)=\begin{cases} \frac{1}{\theta}e^{-x/\theta},\quad 0<x, \\ 0,\quad else \end{cases} \quad (\theta>0). f(x)={θ1e−x/θ,0<x,0,else(θ>0). ,此时有 E ( X ) = θ . E(X)=\theta. E(X)=θ.
证明:
E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x = ∫ − ∞ 0 x ⋅ 0 d x + ∫ 0 + ∞ x 1 θ e − x / θ d x = 0 + ( − x e − x / θ ) ∣ 0 + ∞ − ∫ 0 + ∞ − e − x / θ d x ( 分 部 积 分 法 ) = 0 − ( θ e − x / θ ) ∣ 0 + ∞ = − ( 0 − θ ) = θ \begin{aligned} E(X) &= \int_{-\infty}^{+\infty}xf(x)dx = \int_{-\infty}^{0}x\cdot0dx+\int_{0}^{+\infty}x\frac{1}{\theta}e^{-x/\theta}dx\\&=0+(-xe^{-x/\theta})\bigg|_0^{+\infty} -\int_{0}^{+\infty}-e^{-x/\theta}dx \quad (分部积分法)\\&=0-(\theta e^{-x/\theta})\bigg|_0^{+\infty}\\&= -(0-\theta) \\&= \theta\end{aligned} E(X)=∫−∞+∞xf(x)dx=∫−∞0x⋅0dx+∫0+∞xθ1e−x/θdx=0+(−xe−x/θ)∣∣∣∣0+∞−∫0+∞−e−x/θdx(分部积分法)=0−(θe−x/θ)∣∣∣∣0+∞=−(0−θ)=θ
证明方法二:
E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x = ∫ − ∞ 0 x ⋅ 0 d x + ∫ 0 + ∞ x 1 θ e − x / θ d x = 0 + ( − x e − x / θ ) ∣ 0 + ∞ − ∫ 0 + ∞ − e − x / θ d x ( 分 部 积 分 法 ) = θ ∫ 0 + ∞ 1 θ e − x / θ d x ( 构 造 θ 和 1 θ , 不 影 响 其 结 果 , 好 处 是 积 分 项 ∫ 0 + ∞ 1 θ e − x / θ d x = F ( + ∞ ) − F ( 0 ) = 1 ) = θ ⋅ 1 = θ \begin{aligned} E(X) &= \int_{-\infty}^{+\infty}xf(x)dx = \int_{-\infty}^{0}x\cdot0dx+\int_{0}^{+\infty}x\frac{1}{\theta}e^{-x/\theta}dx\\&=0+(-xe^{-x/\theta})\bigg|_0^{+\infty} -\int_{0}^{+\infty}-e^{-x/\theta}dx \quad (分部积分法)\\&=\theta\int_{0}^{+\infty}\frac{1}{\theta}e^{-x/\theta}dx \quad (构造\theta和\frac{1}{\theta},不影响其结果,好处是积分项\int_{0}^{+\infty}\frac{1}{\theta}e^{-x/\theta}dx=F(+\infty)-F(0)=1 )\\&= \theta \cdot 1 \\&= \theta\end{aligned} E(X)=∫−∞+∞xf(x)dx=∫−∞0x⋅0dx+∫0+∞xθ1e−x/θdx=0+(−xe−x/θ)∣∣∣∣0+∞−∫0+∞−e−x/θdx(分部积分法)=θ∫0+∞θ1e−x/θdx(构造θ和θ1,不影响其结果,好处是积分项∫0+∞θ1e−x/θdx=F(+∞)−F(0)=1)=θ⋅1=θ
5.8 正态分布
-
X ∼ N ( μ , σ 2 ) X\sim N(\mu,\sigma^2) X∼N(μ,σ2) ,则其概率密度为 f ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 , − ∞ < x < + ∞ . f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} , \quad -\infty<x<+\infty. f(x)=2π σ1e−2σ2(x−μ)2,−∞<x<+∞. ,此时有 E ( X ) = μ . E(X)=\mu. E(X)=μ.
证明:
E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x = ∫ − ∞ + ∞ x 1 2 π σ e − ( x − μ ) 2 2 σ 2 d x 令 x − μ σ = t , 则 x = t σ + μ = 1 2 π σ ∫ − ∞ + ∞ ( t σ + μ ) e − t 2 2 σ d t = 1 2 π ( ∫ − ∞ + ∞ t σ e − t 2 2 d t + ∫ − ∞ + ∞ μ e − t 2 2 d t ) = 1 2 π ( − e − t 2 2 ) ∣ − ∞ + ∞ + 1 2 π μ 2 π ( 在 介 绍 连 续 型 随 机 变 量 概 率 密 度 时 , 有 证 明 ∫ − ∞ + ∞ e − t 2 2 d t = 2 π ) = 0 + μ = μ \begin{aligned} E(X) &= \int_{-\infty}^{+\infty}xf(x)dx = \int_{-\infty}^{+\infty}x\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}dx\\& 令 \frac{x-\mu}{\sigma}=t,则 x= t\sigma+\mu\\&=\frac{1}{\sqrt{2\pi}\sigma}\int_{-\infty}^{+\infty}(t\sigma+\mu)e^{-\frac{t^2}{2}}\sigma dt\\&= \frac{1}{\sqrt{2\pi}}(\int_{-\infty}^{+\infty}t\sigma e^{-\frac{t^2}{2}}dt+\int_{-\infty}^{+\infty}\mu e^{-\frac{t^2}{2}} dt) \\&= \frac{1}{\sqrt{2\pi}}(-e^{-\frac{t^2}{2}})\bigg|_{-\infty}^{+\infty}+\frac{1}{\sqrt{2\pi}}\mu\sqrt{2\pi} \quad(在介绍连续型随机变量概率密度时,有证明 \int_{-\infty}^{+\infty}e^{-\frac{t^2}{2}} dt=\sqrt{2\pi}) \\&=0+\mu \quad \\&= \mu \end{aligned} E(X)=∫−∞+∞xf(x)dx=∫−∞+∞x2π σ1e−2σ2(x−μ)2dx令σx−μ=t,则x=tσ+μ=2π σ1∫−∞+∞(tσ+μ)e−2t2σdt=2π 1(∫−∞+∞tσe−2t2dt+∫−∞+∞μe−2t2dt)=2π 1(−e−2t2)∣∣∣∣−∞+∞+2π 1μ2π (在介绍连续型随机变量概率密度时,有证明∫−∞+∞e−2t2dt=2π )=0+μ=μ
关于 ∫ − ∞ + ∞ e − t 2 2 d t = 2 π \int_{-\infty}^{+\infty}e^{-\frac{t^2}{2}} dt=\sqrt{2\pi} ∫−∞+∞e−2t2dt=2π 的详细证明可看之前文章 连续型随机变量及其常见分布函数和概率密度 中,正态分布必要性证明部分.
证明方法二:
我们知道,一般正态分布可以通过 Z = X − μ σ Z=\frac{X-\mu}{\sigma} Z=σX−μ 转为标准正态分布,标准正态分布的期望是很好计算的,设为 E ( X 0 ) E(X_0) E(X0),之后再利用期望的性质 E ( X − μ σ ) = E ( X ) σ − μ σ = E ( X 0 ) . E(\frac{X-\mu}{\sigma}) = \frac{E(X)}{\sigma}-\frac{\mu}{\sigma} = E(X_0). E(σX−μ)=σE(X)−σμ=E(X0). 反解出 E ( X ) E(X) E(X)即可. 下面给出具体的证明步骤:
标准正态分布的概率密度为 f ( x ) = ∫ − ∞ + ∞ 1 2 π e − x 2 2 d x f(x) = \int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}dx f(x)=∫−∞+∞2π 1e−2x2dx 则
E ( X 0 ) = ∫ − ∞ + ∞ x f ( x ) d x = ∫ − ∞ + ∞ x 1 2 π e − x 2 2 d x = 1 2 π ( − e − x 2 2 ) ∣ − ∞ + ∞ = 0 \begin{aligned} E(X_0) &= \int_{-\infty}^{+\infty}xf(x)dx = \int_{-\infty}^{+\infty}x\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}dx\\&= \frac{1}{\sqrt{2\pi}}(-e^{-\frac{x^2}{2}})\bigg|_{-\infty}^{+\infty} \\&=0\end{aligned} E(X0)=∫−∞+∞xf(x)dx=∫−∞+∞x2π 1e−2x2dx=2π 1(−e−2x2)∣∣∣∣−∞+∞=0
∴ E ( X − μ σ ) = E ( X ) σ − μ σ = 0 ∴ E ( X ) = μ \begin{aligned} \therefore E(\frac{X-\mu}{\sigma}) = \frac{E(X)}{\sigma}-\frac{\mu}{\sigma} = 0 \quad \therefore E(X) = \mu \end{aligned} ∴E(σX−μ)=σE(X)−σμ=0∴E(X)=μ
5.9 总结
分布 | 参数 | 分布律或概率密度 | 数学期望 |
---|---|---|---|
( 0 − 1 ) (0-1) (0−1)分布 | 0 < p < 1 0<p<1 0<p<1 | P { X = k } = p k ( 1 − p ) 1 − k , k = 0 , 1 P\{X=k\} = p^k(1-p)^{1-k}, \quad k=0,1 P{X=k}=pk(1−p)1−k,k=0,1 | p p p |
二项分布 X ∼ b ( n , p ) X\sim b(n,p) X∼b(n,p) | n ≥ 1 0 < p < 1 n\geq1\\0<p<1 n≥10<p<1 | P { X = k } = ( k n ) p k q n − k k = 0 , 1 , 2 ⋯ , n P\{X=k\} = \left(_k^n\right)p^kq^{n-k} \quad k=0,1,2\cdots, n P{X=k}=(kn)pkqn−kk=0,1,2⋯,n | n p np np |
泊松分布 X ∼ π ( λ ) X\sim \pi(\lambda) X∼π(λ) | λ > 0 \lambda>0 λ>0 | P { X = k } = λ k k ! e − λ k = 0 , 1 , 2 , ⋯ P\{X=k\} = \frac{\lambda^k}{k!}e^{-\lambda} \quad k=0,1,2,\cdots P{X=k}=k!λke−λk=0,1,2,⋯ | λ \lambda λ |
几何分布 X ∼ G ( p ) X\sim G(p) X∼G(p) | 0 < p < 1 0<p<1 0<p<1 | P { X = k } = ( 1 − p ) k − 1 p k = 1 , 2 , 3 , ⋯ P\{X=k\} = (1-p)^{k-1}p \quad k = 1,2,3,\cdots P{X=k}=(1−p)k−1pk=1,2,3,⋯ | 1 p \frac{1}{p} p1 |
超几何分布 X ∼ H ( n , M , N ) X\sim H(n,M,N) X∼H(n,M,N) | N , M , n N ≥ M N ≥ n N,M,n\\N\geq M\\ N\geq n N,M,nN≥MN≥n | P { X = k } = ( k M ) ( n − k N − M ) ( n N ) k = 0 , 1 , ⋯ , m i n { n , M } . P\{X=k\} = \frac{(_k^M)(_{n-k}^{N-M})}{(_n^N)} \quad k= 0,1,\cdots,min\{n,M\}. P{X=k}=(nN)(kM)(n−kN−M)k=0,1,⋯,min{n,M}. | n M N n\frac{M}{N} nNM |
均匀分布 X ∼ U ( a , b ) X\sim U(a,b) X∼U(a,b) | a < b a<b a<b | f ( x ) = { 1 b − a , a < x < b , 0 , e l s e . f(x)=\begin{cases} \frac{1}{b-a},\quad a<x<b, \\ 0,\quad else \end{cases}. f(x)={b−a1,a<x<b,0,else. | a + b 2 \frac{a+b}{2} 2a+b |
指数分布 X ∼ E ( θ ) X\sim E(\theta) X∼E(θ) | θ > 0 \theta>0 θ>0 | f ( x ) = { 1 θ e − x / θ , 0 < x , 0 , e l s e . f(x)=\begin{cases} \frac{1}{\theta}e^{-x/\theta},\quad 0<x, \\ 0,\quad else \end{cases} \quad . f(x)={θ1e−x/θ,0<x,0,else. | θ \theta θ |
正态分布 X ∼ N ( μ , σ 2 ) X\sim N(\mu,\sigma^2) X∼N(μ,σ2) | μ σ > 0 \mu\\\sigma>0 μσ>0 | f ( x ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 , − ∞ < x < + ∞ . f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} , \quad -\infty<x<+\infty. f(x)=2π σ1e−2σ2(x−μ)2,−∞<x<+∞. | μ \mu μ |