视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
分布收敛等几个概率之间的区别和联系是什么
2024-12-12 15:22:40 责编:小OO
文档


分布收敛(convergence in distribution)定义为依分布收敛至X,记作,意味着:,对于所有F的连续点x。这意味着,当n很大的时候,的累积函数和X的累积函数差不多。直观上而言,依分布收敛只在乎随机变量的分布,而不在乎他们之间的相互关系。

举例而言,假设,对于任意一个发生的事件,Y与X的取值正好差了一个负号。但这并不影响X与Y有相同的累积函数,即。如此一来,。更一般的情况而言,只要X与Y有相同的累计函数,即samedistributed,即使,也有。因为依分布收敛仅仅在乎分布,而不在乎相互之间的关系。

概率收敛(convergence in probability)定义为依概率收敛至X,记作,意味着:,当,。这意味着,当n很大的时候,对任意发生的事件,的值和X的值差不多,即很小。直观上而言,依概率收敛在乎的是随机变量的值。

依分布收敛的例子如果套在概率收敛上就会出现问题。如果,但对于任何一个与X分布一样的Y,但,一定不成立,因为X与Y只是分布相同,而值不同。但反而言之,如果,即它们的值都差不多了,那么它们的分布一定也差不多,即。因此,依概率收敛比依分布收敛要强,即。

Lp收敛(convergence in Lp)定义为依Lp收敛至X,记作,意味着:,当,。在p=2时即为均方收敛。直观上而言,均方收敛在乎的也是随机变量的值,但其要求比依概率收敛更加严格。

之所以更加严格,是因为概率测度可以被均方测度所,其思想可以近似由Chebyshev不等式看到。因此。

几乎处处收敛(convergence almost surely)定义为几乎处处收敛至X,记作,意味着:,当。直观上而言,几乎处处收敛在乎的也是随机变量的值,但其要求也比依概率收敛更加严格。

如果没有接触过实变函数的知识,几乎处处收敛对于连续型随机变量可能比较难以理解。我们这边用离散型随机变量进行直观解释,以避免0测度下的一些问题。对于,即以概率取1,其余为0的随机变量。其依概率收敛到1意味着,和1的值都差不多,而且随着n越来越大,不相等的概率越来越小。转而言之,出现0的概率越来越小,极限为0。但几乎处处收敛至1要求,存在N,时,,即和1的值都在n很大时必须相等,即取0的概率在某个N后必须为0。前者其尾部概率收敛至0,但后者尾部概率为0。

几乎处处收敛和Lp收敛最强,依概率收敛其次,依分布收敛最弱。几乎处处收敛和Lp收敛并无推导关系。在收敛到常数时,依概率收敛和依分布收敛等价。详情

下载本文
显示全文
专题