站长在 Bluesky 新开了微博帐号 ▷▷▷ 敬请关注 ◁◁◁
手机版
Riemann 猜想漫谈 (十)
- 卢昌海 -
If you could be the Devil and offer a mathematician to sell his soul for the proof of one theorem -
what theorem would most mathematicians ask for? I think it would be the Riemann Hypothesis.
- H. Montgomery
上一篇 | 返回目录
十五. 更高、 更快、 更强
三亿个零点摆平了 Zagier, 但显然远不是对 Riemann ζ 函数非平凡零点进行计算的终点。
不过在介绍进一步的进展之前, 我们先要对零点计算做一点补充说明。
当我们说到零点计算的时候, 一般人会很自然地认为所谓零点计算, 顾名思义就是计算零点的数值。
不知读者在阅读 上一节 时有没有想过这样一个问题:
那就是三亿个零点, 即使每个只保留十位有效数字, 写下来也有三十亿个数字 (如果加上小数点、
等号及零点编号等, 则数字差不多还要翻上一番)。 这许多数字以每页三千个数字而论,
起码也要一百万页纸才能记录下来! 当然, 大规模的零点计算既然是用计算机进行的,
计算结果不是非得记录在纸上不可的。 但三十亿个数字所需占据的存储空间差不多是 3GB,
这在今天虽然算不了什么, 在 1982 年却是非同小可的数量, 用任何方式来记录都并不容易。
以计算机硬盘为例, 当时容量为几个 MB 的就算是很大的硬盘了, 价格十分昂贵。
而要想记录三亿个零点, 起码需要上千个那样的硬盘! 那得花多少钱? 若果真如此, Zagier
岂不还大大低估了他那两瓶葡萄酒的价值?
其实, 狡猾的 te Riele 根本就没有计算那三亿个零点的具体数值。 事实上, 除了最初那些小范围的计算外,
我们前面介绍的大规模零点计算基本上都并不给出零点的具体数值, 而只是验证它们是否在临界线上。
因此, 当人们说 “计算了前 N 个零点” 时, 实际上指的往往只是验证了前 N
个零点是否位于临界线上[注一]。
但是不计算零点的数值, 又如何能判断零点是否在临界线上呢? 答案其实很简单。
我们在 第十一节 中曾经介绍过, 要研究 Riemann ζ
函数在临界线上的零点, 只需研究 Z(t) 的符号改变即可。 假如在区间 0<t<T 内
Z(t) 的符号改变了 N 次, 则 Riemann ζ 函数在临界线上该区间内至少有
N 个零点。 另一方面, 我们虽不确定是否所有零点都在临界线上, 却知道它们全部位于临界带
0<Re(ρ)<1 内 (参阅 第七节),
而人们早就知道如何计算临界带内位于区间
0<Im(ρ)<T 内的零点总数
(最早的方法是由 Riemann 本人给出的, 即对 dξ(s)/2πiξ(s) 沿矩形区域
{0<Re(ρ)<1, 0<Im(ρ)<T} 的边界做围道积分——参阅
第五节)。 显然, 只要我们能够证明:
- 在临界带内位于区间 0<Im(ρ)<T 的零点总数为 N。
- 在临界线上位于区间 0<t<T 的零点至少有 N 个。
就可以推知 Riemann ζ 函数的前 N 个零点全部位于临界线上。
由于这两者的证明都不必涉及零点的具体数值。 因此我们可以不计算零点数值就直接证明 Riemann ζ
函数的前 N 个零点 (或更一般地, 复平面上某个区域内所有的非平凡零点) 都位于临界线上,
这正是大多数零点计算所采用的方法。
对 Riemann ζ 函数零点的计算越推进 (即 N 越大), 我们在复平面上沿虚轴方向就延伸得越高
(即 T 越大)。 随着计算机的运算速度越来越快、 运算成本越来越低, te Riele 的三亿个零点的记录很快就失守了。
四年后, 由他本人及 J. van de Lune 领衔将计算推进到了十五亿个零点。 此后 van de Lune
及其他一些人继续进行着零点计算。 不过这时已很少有人像当年的 Turing
那样觉得有可能通过零点计算直接找到 Riemann 猜想的反例, 也再没有像 Zagier
那样敢于下注的 “勇士” 了。 人们在计算零点上的兴趣和投入遂大为下降。
这其中一个显著的变化就是逐渐用廉价的小型或微型计算机取代以往的大型计算机,
且往往使用机器的闲散时间而非正规工作时间来进行零点计算。 但尽管如此,
计算机技术的神速发展还是抵消了所有这些因素带来的不利影响。 零点计算仍在推进着,
只是推进的速度变得缓慢起来。 这种趋势一直延续到了二十世纪末 (2000 年)。
但是到了二十一世纪伊始的 2001 年 8 月, 情况有了新的变化。
德国 Böblingen IBM 实验室的研究者 Sebastian Wedeniwski 启动了一个被称为 ZetaGrid 的计划,
建立了远胜于往昔的强有力的 Riemann ζ 函数非平凡零点计算系统, 重新将零点计算推向了快车道。
ZetaGrid 系统将零点计算通过计算机网络分散到了大量的计算机上, 从而极大地拓展了资源利用面。
这种将计算工作通过网络分散到大量计算机上的计算被称为分布式计算(distributed computing)。
ZetaGrid 刚启动的时候, 加入系统的计算机只有 10 台, 半年后就增加到了 500 台,
这些都是 IBM 实验室的内部计算机。 一年后, Wedeniwski 将 ZetaGrid 推向了互联网,
任何人只要下载安装一个小小的软件包就可以使自己的机器加入 ZetaGrid,
此举很快吸引了大量的参与者。 很快地, 在 ZetaGrid 上的联网计算机总数就稳定在了一万以上。
虽然 ZetaGrid 上的多数计算是利用那些联网计算机的闲散 CPU 时间进行的, 但涓涓小溪可以汇成浩瀚江海,
由如此大量的计算机所形成的总体运算能力依然十分可观。 到了 2004 年 8 月, 即 ZetaGrid 诞生三周年的日子,
这一系统所计算的零点总数已超过了八千五百亿个 (其中有六百万个是由本文作者的计算机贡献的),
而且还在以大约每天十亿个以上的速度增加着[注二]。
十六. 零点的统计关联
除了不计算具体数值这一特点外, 前面所介绍的那些大规模零点计算还有一个特点,
那就是都只针对前 N 个零点。 换句话说, 所有那些计算都是以第一个零点为起始的。
它们所验证都只是复平面上 0<Im(ρ)<T 这一区间内的零点。
除了这类计算外, 在零点计算中还有一类计算也十分重要, 那就是针对一个虚部很大的区间
T1<Im(ρ)<T2 的计算 (即从某个很大的序号开始的零点计算)。
这类计算中最著名的人物是出生于波兰的数学家 Andrew Odlyzko (1949-), 他在二十世纪八十年代末和九十年代初对序号在
1020 - 30,769,710 和 1020 + 144,818,015 之间的总计 175,587,726 个零点进行了计算。
2001 年和 2002 年, 他更是把计算的起始点推进到了第 1022 和 1023 个零点附近,
所计算的零点数目也分别增加到了一百亿和两百亿个。 Odlyzko 的这些计算不仅所涉及的区域远远超出了包括
ZetaGrid 在内的所有其它零点计算的验证范围, 而且还包含了对零点数值的计算。 这些计算对于研究 Riemann
猜想的意义不仅在于它们提供了有关这一猜想的新的数值证据, 更重要的是它们为一类新的研究,
即研究 Riemann ζ 函数的非平凡零点在临界线上的统计关联提供了数据。 这也正是 Odlyzko 进行这类计算的目的。
Odlyzko 为什么会想到要为研究零点的统计关联提供数据呢? 这还得从二十世纪七十年代初说起。
当时英国 Cambridge 大学 (剑桥大学) 有位来自美国的研究生叫做 Hugh Montgomery,
他所研究的课题是零点在临界线上的统计关联。
Montgomery 这个名字不知大家有没有觉得面熟? 对了,
本系列每一篇文章所引的共同题记正是出自此人[补注一]!
我们以前谈论零点分布的时候, 所关心的往往只是零点是否分布在临界线上。
Montgomery 的研究比这更进一步。 他想知道的是,
假如 Riemann 猜想成立, 即所有非平凡零点都分布在临界线上,
那它们在临界线上的具体分布会是什么样的?
在 Montgomery 进行研究的时候虽然已经有 Rosser 对前三百五十万个零点的计算结果
(参阅 第十三节), 但如我们在上文中所说,
那些计算并不涉及零点的具体数值, 从而无法为他提供统计研究的依据。 因此 Montgomery
只能另辟蹊径, 从纯理论的角度来研究零点在临界线上的统计关联。
Montgomery 对零点分布的这一理论研究从某种意义上讲恰好与 Riemann 对素数分布的研究互逆。
Riemann 的研究是着眼于通过零点分布来表示素数分布 (参阅 第五节), 而
Montgomery 的研究则是逆用 Riemann 的结果, 着眼于通过素数分布来反推零点分布。
不幸的是, 素数分布本身在很大程度上就是一个谜 (否则 Riemann 也就不会试图通过零点分布来研究素数分布了)。
除了素数定理外, 有关素数分布的很多命题都只是猜测。 而素数定理, 如我们在 第七节
中看到的, 与零点分布的相关性非常弱, 不足以反推出 Montgomery 感兴趣的信息。
于是 Montgomery 把目光投注到了比素数定理更强的一个命题, 那便是 Hardy 与 Littlewood 于 1923
年提出的关于孪生素数 (twin prime) 分布规律的猜测, 即迄今尚未被证明的著名的
强孪生素数猜想[注三]。
Montgomery 以 Riemann 猜想的成立为前提, 以 Riemann 的公式及 Hardy 与 Littlewood
所猜测的孪生素数分布规律为依据, 研究提出了一个有关 Riemann ζ
函数的非平凡零点在临界线上的分布规律的重要命题:
上式中 t' 和 t'' 分别表示一对零点的虚部, α 和 β 是两个常数 (α < β)。
很明显, 上式表示的是零点的对关联 (pair correlation) 规律。 这一规律被称为
Montgomery 对关联假设 (Montgomery pair correlation conjecture),
其中的密度函数 ρ(t) = 1 - [sin(πt)/πt]2
则被称为零点的对关联函数 (pair correlation function)。
| 零点的对关联函数与计算数据的对比 |
从上述分布规律中可以看到 limt→0 ρ(t) = 0,
这表明两个零点互相靠近的几率很小。 换句话说 Riemann ζ 函数的非平凡零点有一种互相排斥的趋势。
这一点很有些出乎 Montgomery 的意料。
Montgomery 曾经以为零点的分布是高度随机的, 如果那样的话, 对关联函数应该接近于 ρ(t) ≡ 1。
这一分布也不同于 Montgomery 当时见过的任何其它统计分布——比如 Poisson 分布或正态分布——中的对关联函数,
它与素数本身的分布也大相径庭。
这一分布究竟有何深意呢? 对 Montgomery 来说还是一个谜。
大家也许还记得, 在 第五节 中我们曾经介绍过 Riemann
提出的三个命题, 其中第一个命题 (也是迄今唯一被证明的一个) 表明在区间
0<Im(ρ)<T 内 Riemann ζ
函数的非平凡零点的数目大约为 (T/2π)ln(T/2π) - (T/2π)。 由此不难推知 (请读者自行证明)
Riemann ζ 函数相邻零点的间距 (即虚部之差) 平均而言大约为 Δt~2π/ln(t/2π)。
这一间距随 t 而变, 这使得 Montgomery 对关联假设的形式呈现出一点表观上的复杂性。 有鉴于此, Montgomery
之后的数学家 (比如 Odlyzko) 对零点的虚部做了一点处理, 引进了间距归一化的零点虚部:
n = (t/2π) ln(t/2π)
利用这一定义, 相邻零点的平均间距被归一化为了 Δn~1, 而 Montgomery 对关联假设则可以简化为
(请读者自行证明):
Montgomery 对关联假设提出之后, 一个很自然的问题就是: 零点分布果真符合这一假设吗?
这正是 Odlyzko 登场的地方。 由于 Montgomery 对关联假设涉及的是对关联在 T→∞ 情形下的渐近分布,
因此要想对这一假设进行高精度的统计检验, 最有效的办法是研究虚部很大的零点的分布,
这也正是 Odlyzko 将零点计算推进到 1020 及更高的区域, 并且计算其数值的原因。
那么这两人的研究结果的匹配程度如何呢? 我们在右上方的图中给出了 Montgomery
零点对关联假设中的关联函数 (曲线) 及由 Odlyzko 利用 1020
附近七千万个零点对之进行统计检验的结果 (数据点)。
两者的吻合几乎达到了完美的境界。
1972 年春天, 刚刚完成上述零点统计关联研究的 Montgomery 带着他的研究成果飞往美国圣路易斯 (St. Louis)
参加一个解析数论会议。 在正式行程之外, 他顺道在 Princeton 高等研究院 (Institute for Advanced Study) 做了短暂的停留。
没想到这一停留却在数学与物理之间造就了一次奇异的交汇, 我们 Riemann 猜想之旅也因此多了一道神奇瑰丽的景致。
返回目录 |
下一篇
二零零四年八月一日写于纽约 二零零四年八月一日发表于本站 二零一二年二月四日最新修订 https://www.changhai.org/
|