从统计量到不确定性原理

新用户注册 | 用户登陆 | 刷新

gauge


发表文章数: 596
内力值: 375/375
贡献度: 8310
人气: 1396

论坛嘉宾学术成员

标题: 从统计量到不确定性原理
作者: gauge

统计的主要目的是由一部分数据,即样本,来推断总体分布情况。简单的说,一般来说,数据总是来源于同一个概率分布的密度函数,而我们的任务是由数据推断这个分布。在做出推断时,我们总是要做一些假设。比如,身高的分布被假定为服从正态分布,粒子的放射服从Poisson分布等等。对于这些特别的分布,我们只需要确定这些分布的特征量即可。比如,对于正态分布,只需确定平均值和方差即可。而对于Poisson分布,确定方差和平均值都可以用来估计其中的待定参数。这一类统计推断通常称为参数的点估计。

在所有的点估计中,有一类特别重要的统计量,称为无偏估计。大概含义是指,将数据看作一个随机变量,当然这个随机变量服从某个待定的分布,不妨假定它来自某个参数族。如果统计量平均来说,也即是统计量的平均值--亦即数学期望--等于其本来的参数,那么这样的统计量即称为无偏估计量。

对统计量的优劣进行衡量是一个很重要的问题,虽然并没有完全统一的标准,但是无偏性是一个重要的原则。另一方面,方差也是一个极为重要的统计量。因而,我们可以讨论具有最小方差的无偏估计量。但是容易举出例子,对某些参数族,甚至并不存在无偏估计量。对于无偏估计量的方差的有一个估计,称为Cramer- Rao定理。这个定理是说,无偏估计量有一个几何下界。这个下界就是参数族的Fisher信息的倒数。如果,我们讨论的是随机向量的分布,那么,这个定理是说,参数族的协方差矩阵大于等于Fisher信息矩阵的逆。这里两个矩阵的大小关系的比较是指其差是半正定的。

对于量子系统,简单点,单个粒子的量子态由波函数u描述。众所周知,|u|^2表示一个概率密度。而Fisher信息,或者说沿着x方向的Fisher信息,自然而然的定义为$\int |du/dx|^2 dxdydz$,这和通常的概率密度的Fisher信息非常的类似。而此时Cramer-Rao不等式就成为Heisenberg不确定性关系。

从不等式的角度看,这并没有改进Heisenberg不等式。而我们知道,Heisenberg不等式可以搞得更加精细。但是,因为Cramer-Rao 不等式的性质,使得我们能够对不确定性原理有更多的认识。前面我们提到过,Cramer-Rao不等式中的Fisher信息是一个有几何意义的量。而几何的最大的优点在于可以方便的得到不依赖于坐标系的量。对于量子体系的测量而言,我们可以如下解释这个几何性质。

设想我们改变我们的标尺,使得测量更加倾向于粒子出现的几率更大的区域,也就是说,在粒子出现的几率大的区域,我们的标尺选得小一些,这样可以使得其平均值也更加的集中,从而减小测量误差。当然,我们可以预料动量的不确定程度会因此而增大,而且使得动量和位置之间依然满足Heisenberg不等式。我们由Cramer-Rao不等式直接得到这个结果,也可以证明改变标尺并不改变Heisenberg不等式。这并不意味着Cramer-Rao不等式对不确定性原理是无用的。事实上,Cramer-Rao不等式告诉我们,不管我们使用那种计量方式都不可能突破Heisenberg的不等式给出的限制。而这并不能从Heisenberg不等式自身得到。因为在Heisenberg不等式中,我们只讨论了一种计量方式,就是对所有的对于位置或动量的测量数据取平均值。

当然,其实很多人都是这样认为的,即Heisenberg不等式给出了一个绝对的下限。但是实际上其中有着微妙的差别。用一个专门一点的说法就是, Heisenberg不等式不是在坐标变换下不变的。而只有不依赖于坐标系的量才是几何上有意义的。这里的坐标变换可以是弯曲的,或者说不一定是线性变换。

前面提到的Fisher信息实际上是Shannon信息或者熵的一个无穷小形式,说得更准确一点Fisher信息是指两个概率分布之间的信息的差异程度的无穷小形式。具体的定义可以参考任何一本信息论的书籍。当然也可以google.

二零零六年十一月二日 发表于繁星客栈
http://www.changhai.org/forum/

您尚未登陆 | 用户登陆