分布收敛(convergence in distribution)定义为依分布收敛至X,记作,意味着:,对于所有F的连续点x。这意味着,当n很大的时候,的累积函数和X的累积函数差不多。直观上而言,依分布收敛只在乎随机变量的分布,而不在乎他们之间的相互关系。
举例而言,假设,对于任意一个发生的事件,Y与X的取值正好差了一个负号。但这并不影响X与Y有相同的累积函数,即。如此一来,。更一般的情况而言,只要X与Y有相同的累计函数,即samedistributed,即使,也有。因为依分布收敛仅仅在乎分布,而不在乎相互之间的关系。
概率收敛(convergence in probability)定义为依概率收敛至X,记作,意味着:,当,。这意味着,当n很大的时候,对任意发生的事件,的值和X的值差不多,即很小。直观上而言,依概率收敛在乎的是随机变量的值。
依分布收敛的例子如果套在概率收敛上就会出现问题。如果,但对于任何一个与X分布一样的Y,但,一定不成立,因为X与Y只是分布相同,而值不同。但反而言之,如果,即它们的值都差不多了,那么它们的分布一定也差不多,即。因此,依概率收敛比依分布收敛要强,即。
Lp收敛(convergence in Lp)定义为依Lp收敛至X,记作,意味着:,当,。在p=2时即为均方收敛。直观上而言,均方收敛在乎的也是随机变量的值,但其要求比依概率收敛更加严格。
之所以更加严格,是因为概率测度可以被均方测度所,其思想可以近似由Chebyshev不等式看到。因此。
几乎处处收敛(convergence almost surely)定义为几乎处处收敛至X,记作,意味着:,当。直观上而言,几乎处处收敛在乎的也是随机变量的值,但其要求也比依概率收敛更加严格。
如果没有接触过实变函数的知识,几乎处处收敛对于连续型随机变量可能比较难以理解。我们这边用离散型随机变量进行直观解释,以避免0测度下的一些问题。对于,即以概率取1,其余为0的随机变量。其依概率收敛到1意味着,和1的值都差不多,而且随着n越来越大,不相等的概率越来越小。转而言之,出现0的概率越来越小,极限为0。但几乎处处收敛至1要求,存在N,时,,即和1的值都在n很大时必须相等,即取0的概率在某个N后必须为0。前者其尾部概率收敛至0,但后者尾部概率为0。
几乎处处收敛和Lp收敛最强,依概率收敛其次,依分布收敛最弱。几乎处处收敛和Lp收敛并无推导关系。在收敛到常数时,依概率收敛和依分布收敛等价。详情
下载本文