喜欢本人文字的读者 >>> 欢迎选购本站电子书 <<<
手机版
谷歌背后的数学
- 卢昌海 -
一. 引言
在如今这个互联网时代, 有一家公司家喻户晓——它自 1998 年问世以来, 在极短的时间内就声誉鹊起,
不仅超越了所有竞争对手, 而且彻底改观了整个互联网的生态。 这家公司就是当今互联网上的第一搜索引擎:
谷歌 (Google)。
在这样一家显赫的公司背后, 自然有许许多多商战故事, 也有许许多多成功因素。
但与普通商战故事不同的是, 在谷歌的成功背后起着最关键作用的却是一个数学因素。
本文要谈的就是这个数学因素。
谷歌作为一个搜索引擎, 它的核心功能顾名思义, 就是网页搜索。 说到搜索, 我们都不陌生, 因为那是凡地球人都会的技能。
我们在字典里查个生字, 在图书馆里找本图书, 甚至在商店里寻一种商品, 等等, 都是搜索。
只要稍稍推究一下, 我们就会发现那些搜索之所以可能, 并且人人都会, 在很大程度上得益于以下三条:
- 搜索对象的数量较小——比如一本字典收录的字通常只有一两万个, 一家图书馆收录的不重复图书通常不超过几十万种,
一家商店的商品通常不超过几万种, 等等。
- 搜索对象具有良好的分类或排序——比如字典里的字按拼音排序, 图书馆里的图书按主题分类, 商店里的商品按品种或用途分类, 等等。
- 搜索结果的重复度较低——比如字典里的同音字通常不超过几十个, 图书馆里的同名图书和商店里的同种商品通常也不超过几十种, 等等。
但互联网的鲜明特点却是以上三条无一满足。 事实上, 即便在谷歌问世之前,
互联网上的网页总数就已超过了诸如图书馆藏书数量之类传统搜索对象的数目。
而且这还只是冰山一角, 因为与搜索图书时单纯的书名搜索不同,
互联网上的搜索往往是对网页内容的直接搜索, 这相当于将图书里的每一个字都变成了搜索对象,
由此导致的数量才是真正惊人的, 它不仅直接破坏了上述第一条, 而且连带破坏了二、 三两条。 在互联网发展的早期, 象雅虎
(Yahoo) 那样的门户网站曾试图为网页建立分类系统, 但随着网页数量的激增, 这种做法很快就 “挂一漏万” 了。
而搜索结果的重复度更是以快得不能再快的速度走向失控。 这其实是可以预料的, 因为几乎所有网页都离不开几千个常用词,
因此除非搜索生僻词, 否则出现几十万、 几百万、 甚至几千万条搜索结果都是不足为奇的。
互联网的这些 “不良特点” 给搜索引擎的设计带来了极大的挑战。 而在这些挑战之中, 相对来说, 对一、
二两条的破坏是比较容易解决的, 因为那主要是对搜索引擎的存储空间和计算能力提出了较高要求,
只要有足够多的钱来买 “装备”, 这些都还能算是容易解决的——套用电视连续剧《蜗居》中某贪官的台词来说,
“能用钱解决的问题就不是大问题”。 但对第三条的破坏却要了命了, 因为无论搜索引擎的硬件如何强大,
速度如何快捷, 要是搜索结果有几百万条, 那么任何用户想从其中
“海选” 出自己真正想要的东西都是几乎不可能的。 这一点对早期搜索引擎来说可谓是致命伤,
而且它不是用钱就能解决的问题。
这致命伤该如何治疗呢? 药方其实很简单, 那就是对搜索结果进行排序, 把用户最有可能需要的网页排在最前面,
以确保用户能很方便地找到它们。 但问题是: 网页的水平千差万别, 用户的喜好更是万别千差,
互联网上有一句流行语叫做: “在互联网上, 没人知道你是一条狗” (On the Internet, nobody knows you're a dog)。
连用户是人是狗都 “没人知道”, 搜索引擎又怎能知道哪些搜索结果是用户最有可能需要的, 并对它们进行排序呢?
在谷歌主导互联网搜索之前, 多数搜索引擎采用的排序方法,
是以被搜索词语在网页中的出现次数来决定排序——出现次数越多的网页排在越前面。
这个判据不能说毫无道理, 因为用户搜索一个词语,
通常表明对该词语感兴趣。 既然如此, 那该词语在网页中的出现次数越多,
就越有可能表示该网页是用户所需要的。 可惜的是, 这个貌似合理的方法实际上却行不大通。
因为按照这种方法, 任何一个象祥林嫂一样翻来复去倒腾某些关键词的网页, 无论水平多烂, 一旦被搜索到,
都立刻会 “金榜题名”, 这简直就是广告及垃圾网页制造者的天堂。 事实上,
当时几乎没有一个搜索引擎不被 “祥林嫂” 们所困扰, 其中最具讽刺意味的是: 在谷歌诞生之前的 1997 年 11 月,
堪称早期互联网巨子的当时四大搜索引擎在搜索自己公司的名字时, 居然只有一个能使之出现在搜索结果的前十名内,
其余全被 “祥林嫂” 们挤跑了。
二. 基本思路
正是在这种情况下, 1996 年初, 谷歌公司的创始人, 当时还是美国斯坦福大学 (Stanford University) 研究生的佩奇
(Larry Page) 和布林 (Sergey Brin) 开始了对网页排序问题的研究。 这两位小伙子之所以研究网页排序问题,
一来是导师的建议 (佩奇后来称该建议为 “我有生以来得到过的最好建议”),
二来则是因为他们对这一问题背后的数学产生了兴趣。
网页排序问题的背后有什么样的数学呢? 这得从佩奇和布林看待这一问题的思路说起。
在佩奇和布林看来, 网页的排序是不能靠每个网页自己来标榜的, 无论把关键词重复多少次,
垃圾网页依然是垃圾网页。 那么, 究竟什么才是网页排序的可靠依据呢?
出生于书香门第的佩奇和布林 (两人的父亲都是大学教授) 想到了学术界评判学术论文重要性的通用方法,
那就是看论文的引用次数。 在互联网上, 与论文的引用相类似的是显然是网页的链接。 因此,
佩奇和布林萌生了一个网页排序的思路, 那就是通过研究网页间的相互链接来确定排序。
具体地说, 一个网页被其它网页链接得越多, 它的排序就应该越靠前。 不仅如此, 佩奇和布林还进一步提出,
一个网页越是被排序靠前的网页所链接, 它的排序就也应该越靠前。 这一条的意义也是不言而喻的,
就好比一篇论文被诺贝尔奖得主所引用, 显然要比被普通研究者所引用更说明其价值。
依照这个思路, 网页排序问题就跟整个互联网的链接结构产生了关系, 正是这一关系使它成为了一个不折不扣的数学问题。
思路虽然有了, 具体计算却并非易事, 因为按照这种思路, 想要知道一个网页 Wi 的排序,
不仅要知道有多少网页链接了它, 而且还得知道那些网页各自的排序——因为来自排序靠前网页的链接更有分量。
但作为互联网大家庭的一员, Wi 本身对其它网页的排序也是有贡献的, 而且基于来自排序靠前网页的链接更有分量的原则,
这种贡献与 Wi 本身的排序也有关。 这样一来, 我们就陷入了一个 “先有鸡还是先有蛋”
的循环: 要想知道 Wi 的排序, 就得知道与它链接的其它网页的排序, 而要想知道那些网页的排序,
却又首先得知道 Wi 的排序。
为了打破这个循环, 佩奇和布林采用了一个很巧妙的思路, 即分析一个虚拟用户在互联网上的漫游过程。
他们假定: 虚拟用户一旦访问了一个网页后, 下一步将有相同的几率访问被该网页所链接的任何一个其它网页。
换句话说, 如果网页 Wi 有 Ni 个对外链接, 则虚拟用户在访问了 Wi 之后,
下一步点击那些链接当中的任何一个的几率均为 1/Ni。 初看起来, 这一假设并不合理,
因为任何用户都有偏好, 怎么可能以相同的几率访问一个网页的所有链接呢?
但如果我们考虑到佩奇和布林的虚拟用户实际上是对互联网上全体用户的一种平均意义上的代表,
这条假设就不象初看起来那么不合理了。 那么网页的排序由什么来决定呢?
是由该用户在漫游了很长时间——理论上为无穷长时间——后访问各网页的几率分布来决定, 访问几率越大的网页排序就越靠前。
为了将这一分析数学化,
我们用 pi(n) 表示虚拟用户在进行第 n 次浏览时访问网页 Wi 的几率。 显然,
上述假设可以表述为 (请读者自行证明):
pi(n+1) = Σj pj(n)pj→i/Nj
这里 pj→i 是一个描述互联网链接结构的指标函数 (indicator function),
其定义是: 如果网页 Wj 有链接指向网页 Wi,
则 pj→i 取值为 1, 反之则为 0。 显然, 这条假设所体现的正是前面提到的佩奇和布林的排序原则,
因为右端求和式的存在表明与 Wi 有链接的所有网页 Wj 都对 Wi 的排名有贡献,
而求和式中的每一项都正比于 pj, 则表明来自那些网页的贡献与它们的自身排序有关, 自身排序越靠前 (即 pj 越大),
贡献就越大。
为符号简洁起见, 我们将虚拟用户第 n 次浏览时访问各网页的几率合并为一个列向量 pn,
它的第 i 个分量为 pi(n), 并引进一个只与互联网结构有关的矩阵 H,
它的第 i 行 j 列的矩阵元为 Hij = pj→i/Nj, 则上述公式可以改写为:
pn+1 = Hpn
这就是计算网页排序的公式。
熟悉随机过程理论的读者想必看出来了, 上述公式描述的是一种马尔可夫过程
(Markov process), 而且是其中最简单的一类, 即所谓的平稳马尔可夫过程
(stationary Markov process)[注一],
而 H 则是描述马尔可夫过程中的转移概率分布的所谓转移矩阵 (transition matrix)。
不过普通马尔可夫过程中的转移矩阵通常是随机矩阵
(stochastic matrix), 即每一列的矩阵元之和都为 1 的矩阵 (请读者想一想, 这一特点的
“物理意义” 是什么?)[注二]。
而我们的矩阵 H 却可能有一些列是零向量, 从而矩阵元之和为 0,
它们对应于那些没有对外链接的网页, 即所谓的 “悬挂网页”
(dangling page)[注三]。
上述公式的求解是简单得不能再简单的事情, 即:
pn = Hnp0
其中 p0 为虚拟读者初次浏览时访问各网页的几率分布 (在佩奇和布林的原始论文中,
这一几率分布被假定为是均匀分布)。
三. 问题及解决
如前所述, 佩奇和布林是用虚拟用户在经过很长——理论上为无穷长——时间的漫游后访问各网页的几率分布,
即 limn→∞pn, 来确定网页排序的。 这个定义要想管用,
显然要解决三个问题:
- 极限 limn→∞pn 是否存在?
- 如果极限存在, 它是否与 p0 的选取无关?
- 如果极限存在, 并且与 p0 的选取无关, 它作为网页排序的依据是否真的合理?
如果这三个问题的答案都是肯定的, 那么网页排序问题就算解决了。 反之, 哪怕只有一个问题的答案是否定的,
网页排序问题也就不能算是得到了满意解决。 那么实际答案如何呢? 很遗憾, 是后一种, 而且是其中最糟糕的情形,
即三个问题的答案全都是否定的。 这可以由一些简单的例子看出。 比方说, 在只包含两个相互链接网页的迷你型互联网上,
如果 p0 = (1, 0)T, 极限就不存在
(因为几率分布将在 (1, 0)T 和 (0, 1)T 之间无穷振荡)。
而存在几个互不连通 (即互不链接) 区域的互联网则会使极限——即便存在——与 p0
的选取有关 (因为把 p0 选在不同区域内显然会导致不同极限)。 至于极限存在,
并且与 p0
的选取无关时它作为网页排序的依据是否真的合理的问题, 虽然不是数学问题, 答案却也是否定的,
因为任何一个 “悬挂网页” 都能象黑洞一样, 把其它网页的几率 “吸收” 到自己身上
(因为虚拟用户一旦进入那样的网页, 就会由于没有对外链接而永远停留在那里), 这显然是不合理的。 这种不合理效应是如此显著,
以至于在一个连通性良好的互联网上, 哪怕只有一个 “悬挂网页”, 也足以使整个互联网的网页排序失效,
可谓是 “一粒老鼠屎坏了一锅粥”。
为了解决这些问题, 佩奇和布林对虚拟用户的行为进行了修正。 首先,
他们意识到无论真实用户还是虚拟用户, 当他们访问到 “悬挂网页” 时, 都不应该也不会 “在一棵树上吊死”,
而是会自行访问其它网页。 对于真实用户来说, 自行访问的网页显然与各人的兴趣有关,
但对于在平均意义上代表真实用户的虚拟用户来说, 佩奇和布林假定它将会在整个互联网上随机选取一个网页进行访问。
用数学语言来说, 这相当于是把 H 的列向量中所有的零向量都换成
e/N (其中 e 是所有分量都为 1 的列向量, N 为互联网上的网页总数)。
如果我们引进一个描述 “悬挂网页” 的指标向量 (indicator vector) a, 它的第 i
个分量的取值视 Wi 是否为 “悬挂网页” 而定——如果是 “悬挂网页”, 取值为 1, 否则为 0——并用
S 表示修正后的矩阵, 则:
S = H +
eaT/N
显然, 这样定义的 S 矩阵的每一列的矩阵元之和都是 1, 从而是一个不折不扣的随机矩阵。
这一修正因此而被称为随机性修正 (stochasticity adjustment)。
这一修正相当于剔除了 “悬挂网页”, 从而可以给上述第三个问题带来肯定回答 (当然, 这一回答没有绝对标准,
可以不断改进)。 不过, 这一修正解决不了前两个问题。 为了解决那两个问题,
佩奇和布林引进了第二个修正。 他们假定, 虚拟用户虽然是虚拟的, 但多少也有一些 “性格”, 不会完全受当前网页所限,
死板地只访问其所提供的链接。 具体地说, 他们假定虚拟用户在每一步都有一个小于 1 的几率 α
访问当前网页所提供的链接, 同时却也有一个几率 1-α 不受那些链接所限, 随机访问互联网上的任何一个网站。
用数学语言来说 (请读者自行证明), 这相当于是把上述 S 矩阵变成了一个新的矩阵
G:
G = αS +
(1-α)eeT/N
这个矩阵不仅是一个随机矩阵, 而且由于第二项的加盟, 它有了一个新的特点, 即所有矩阵元都为正
(请读者想一想, 这一特点的 “物理意义” 是什么?),
这样的矩阵是所谓的素矩阵 (primitive matrix)[注四]。
这一修正因此而被称为素性修正 (primitivity adjustment)。
经过这两类修正, 网页排序的计算方法就变成了:
pn = Gnp0
这个算法能给上述问题提供肯定答案吗? 是的, 它能。 因为随机过程理论中有一个所谓的马尔可夫链基本定理
(fundamental theorem of Markov chains), 它表明在一个马尔可夫过程中, 如果转移矩阵是素矩阵,
那么上述前两个问题的答案就是肯定的。 而随机性修正已经解决了上述第三个问题,
因此所有问题就都解决了。 如果我们用 p
表示 pn 的极限[注五],
则 p 给出的就是整个互联网的网页排序——它的每一个分量就是相应网页的访问几率,
几率越大, 排序就越靠前。
这样, 佩奇和布林就找到了一个不仅含义合理, 而且数学上严谨的网页排序算法, 他们把这个算法称为 PageRank,
不过要注意的是, 虽然这个名称的直译恰好是 “网页排序”, 但它实际上指的是 “佩奇排序”, 因为其中的 “Page”
不是指网页, 而是佩奇的名字。 这个算法就是谷歌排序的数学基础, 而其中的矩阵 G 则被称为谷歌矩阵
(Google matrix)。
细心的读者可能注意到了, 我们还遗漏了一样东西, 那就是谷歌矩阵中描述虚拟用户 “性格” 的那个 α 参数。
那个参数的数值是多少呢? 从理论上讲, 它应该来自于对真实用户平均行为的分析,
不过实际上另有一个因素对它的选取产生了很大影响,
那就是 Gnp0 收敛于 p
的快慢程度。 由于 G 是一个 N×N
矩阵, 而 N 为互联网上——确切地说是被谷歌所收录的——网页的总数, 在谷歌成立之初为几千万,
目前为几百亿 (并且还在持续增加), 是一个极其巨大的数字。 因此 G 是一个超大型矩阵,
甚至很可能是人类有史以来处理过的最庞大的矩阵。 对于这样的矩阵,
Gnp0 收敛速度的快慢是关系到算法是否实用的重要因素,
而这个因素恰恰与 α 有关。 可以证明,
α 越小, Gnp0
的收敛速度就越快。
但 α 也不能太小, 因为太小的话, “佩奇排序” 中最精华的部分,
即以网页间的彼此链接为基础的排序思路就被弱化了 (因为这部分的贡献正比于 α), 这显然是得不偿失的。
因此, 在 α 的选取上有很多折衷的考虑要做, 佩奇和布林最终选择的数值是 α = 0.85。
以上就是谷歌背后最重要的数学奥秘。 与以往那种凭借关键词出现次数所作的排序不同,
这种由所有网页的相互链接所确定的排序是不那么容易做假的, 因为做假者再是把自己的网页吹得天花乱坠,
如果没有真正吸引人的内容, 别人不链接它, 一切就还是枉然[注六]。
而且 “佩奇排序” 还有一个重要特点, 那就是它只与互联网的结构有关, 而与用户具体搜索的东西无关。
这意味着排序计算可以单独进行, 而无需在用户键入搜索指令后才临时进行。
谷歌搜索的速度之所以快捷, 在很大程度上得益于此。
四. 结语
| 谷歌公司创始人佩奇 (左) 和布林 (右) |
在本文的最后, 我们顺便介绍一点谷歌公司的历史。 佩奇和布林对谷歌算法的研究由于需要收集和分析大量网页间的相互链接,
从而离不开硬件支持。 为此, 早在研究阶段, 他们就四处奔走, 为自己的研究筹集资金和硬件。
1998 年 9 月, 他们为自己的试验系统注册了公司——即如今大名鼎鼎的谷歌公司。 但这些行为虽然近乎于创业,
他们两人当时却并无长期从商的兴趣。 1999 年, 当他们觉得打理公司干扰了自己的研究时,
甚至萌生了卖掉公司的想法。
他们的开价是 100 万美元。
与谷歌在短短几年之后的惊人身价相比, 那简直就是 “跳楼大甩卖”。
可惜当时却无人识货。 佩奇和布林在硅谷 “叫卖” 了一圈, 连一个买家都没找到。
被他们找过的公司包括了当时搜索业巨头之一的 Excite (该公司后来想必连肠子都悔青了)。
为了不让自己的心血荒废, 佩奇和布林只得将公司继续办了下去, 一直办到今天, 这就是谷歌的 “发家史”。
谷歌成立之初跟其它一些 “发迹于地下室” (one-man-in-basement) 的 IT 公司一样寒酸: 雇员只有一位 (两位老板不算),
工作场所则是一位朋友的车库。
但它出类拔萃的排序算法很快为它赢得了声誉。 公司成立仅仅 3 个月,《PC Magzine》杂志就把谷歌列为了年度最佳搜索引擎。
2001 年, 佩奇为 “佩奇排序” 申请到了专利,
专利的发明人为佩奇, 拥有者则是他和布林的母校斯坦福大学。 2004 年 8 月, 谷歌成为了一家初始市值约
17 亿美元的上市公司。 不仅公司高管在一夜间成为了亿万富翁,
就连当初给过他们几十美元 “赞助费” 的某些同事和朋友也得到了足够终身养老所用的股票回报。
作为公司摇篮的斯坦福大学则因拥有 “佩奇排序” 的专利而获得了 180 万股谷歌股票。
2005 年 12 月, 斯坦福大学通过卖掉那些股票获得了 3.36 亿美元的巨额收益,
成为美国高校因支持技术研发而获得的有史以来最巨额的收益之一[注七]。
谷歌在短短数年间就横扫整个互联网, 成为搜索引擎业的新一代霸主,
佩奇和布林的那个排序算法无疑居功至伟, 可以说, 是数学成就了谷歌[补注一]。
当然, 这么多年过去了, 谷歌作为 IT 界研发能力最强的公司之一, 它的网页排序方法早已有了巨大的改进,
由当年单纯依靠 “佩奇排序” 演变为了由 200
多种来自不同渠道的信息——其中包括与网页访问量有关的统计数据——综合而成的更加可靠的方法。
而当年曾给佩奇和布林带来过启示的学术界, 则反过来从谷歌的成功中借鉴了经验,
如今一些学术机构对论文影响因子 (impact factor) 的计算已采用了类似 “佩奇排序” 的算法。
在本文的最后, 还有一件事情在这里提一下, 那就是与佩奇和布林研究排序算法几乎同时,
有另外几人也相互独立地沿着类似的思路从事着研究[注八]。
他们中有一位是当时在美国新泽西州工作的中国人,
他的算法后来也成就了一家公司——一家中国公司。 此人的名字叫做李彦宏 (Robin Li),
他所成就的那家公司就是百度[补注二]。
这些新公司的发展极好地印证了培根 (Francis Bacon) 的一句名言: 知识就是力量。
-
D. Austin,
How Google Finds Your Needle in the Web's Haystack.
-
J. Battelle,
The Birth of Google,
Wired (August 2005).
-
S. Brin and L. Page,
The Anatomy of a Large-Scale Hypertextual Web Search Engine,
Seventh International World-Wide Web Conference, April 14-18, 1998, Brisbane, Australia.
-
O. Ibe,
Markov Processes for Stochastic Modeling,
(Elsevier Academic Press, 2009).
-
A. N. Langville and C. D. Meyer,
Google's PageRank and Beyond: The Science of Search Engine Rankings,
(Princeton University Press, 2006).
-
C. Rousseau and Y. Saint-Aubin,
Mathematics and Technology,
(Springer, 2008).
二零一零年十二月四日写于纽约 二零一零年十二月五日发表于本站 https://www.changhai.org/
-
来自 113.64 的游客 (发表于 2010-12-05)
佩奇他们公开了算法的论文, 如果那时其他强大的拥有更多资源的竞争公司 (比如微软)
按照这个算法也做个相同的搜索引擎, 那车库中的谷歌能成长到今天吗?
-
卢昌海 (发表于 2010-12-05)
佩奇同学 98 年的论文我看了一下, 没什么细节。 后来他们申请了专利, 就不怕别人抄了。
至于微软,盖兹同学一开始对互联网似乎不太重视, 甚至表示 (大意) 每张广告都有一个网址是荒谬的,
结果被 Netscape 夺了浏览器市场的先机, 后来费了好大力气, 才利用操作系统领域的垄断优势扳回局面。
微软介入搜索引擎市场也比较晚。
-
来自 183.14 的游客 (发表于 2010-12-07)
baidu 和 google 的算法应该差别很大吧。 先不提 baidu 显然把自己网站 (如百度百科) 加分太多,
即使后几项检索也奇怪。 比如, 同样搜索 “3Q大战”, google 出来的前几个是 sina、 搜狐、 网易的专题,
而 baidu (除去之前的百度百科、 百度知道等) 却是中国移动、 pconline、 深圳新闻网等信息。
至少两者的权重和因素差别很大。 从我的个人理解, 我认为 google 的排名更符合我的期望,
更不用说很多 baidu 检索都是广告和假药。
-
卢昌海 (发表于 2010-12-07)
应该差别很大。 同样是利用网页链接, 方法可以相差很大。 我虽然不知道百度的算法,
不过以当年的另一个知名算法 HITS 为例, 它就同时利用了一个网页的向外和向内链接来决定网页排序
(这个算法经修改后被一个叫作 Teoma 的搜索引擎所使用), 这与谷歌只利用向内链接的算法相差就很大。
另外, 经过这些年的发展, 谷歌在排序上增加了很多其它考虑因素,
这些也足以扩大它与其它搜索引擎的差异。
就我这些年听到的新闻而言, 百度无论在技术上还是品行上的形象都不怎么样,
不过它好歹也是因算法而成就公司的例子, 而且它在中国乃是一霸 (再过若干年,
国内年轻一代有可能只知道百度而不知道谷歌了), 因此在文章末尾提它一句。
-
网友: Omni (发表于 2010-12-07)
参考文献 5 是一本好书, 我去年将其与 Ken Auletta 的《Googled》一起阅读, 颇有收获。
在此先指出两点: (1) 根据 Wikipedia 关于 PageRank 词条中引用的 Google 四个专利,
其发明人都是 Page 一人, Brin 不是共同发明人; (2) 与百度有关的专利可以在 Google Patents
中输入专利号 5920859 看到 PDF 文档, 有兴趣的网友可以研究一下其算法和 PageRank 的不同。 Google 在互联网历史上的地位是里程碑式的, 和它相比百度根本就不值一提,
史学家们即使将百度忽略也对全局毫无影响, 正可谓 “百度身与名俱灭, 不废谷歌万古流”, 呵呵。
再补充一些不太重要的细节:
Page 的第一个专利 (6285999) 是 1998 年 1 月 9 日递交申请, 在 2001 年 9 月 4 日获得批准。
李彦宏的专利 (5920859) 是 1997 年 2 月 5 日递交申请, 在 1999 年 7 月 6 日获得批准。
百度的中文搜索引擎在多大程度上基于这项专利 (拥有者是当年雇用李彦宏的 IDD Enterprises 公司)
则不得而知。 两个专利提出的算法不同, 不存在优先权之争
(而且美国的专利法对相同发明的优先判定与许多国家不同,
依据的是有同事签名认证过的研究记录上的日期), 符合昌海兄所提的 “几乎同时” 与
“相互独立” 说法。
关于 Brin 为何没被列为共同发明人的原因可以从专利 6285999 的 Detailed Descriptions 部分加以分析,
Page 写道: “For support in reducing the present invention to practice, the inventor acknowledges
Sergey Brin, Scott Hassan, Rajeev Motwani, Alan Steremberg, and Terry Winograd”。
专利法规通常将一项发明粗分为两个阶段: (1) 构思 (conception); (2) 付诸实现 (reducing to practice)。 世界各地的专利法普遍强调 (1) 而相对看轻 (2)。 有资格被列为发明人者一定要对阶段 (1)
有相当贡献, 只要在阶段 (1) 的贡献足够大, 不参加阶段 (2) 也能成为发明人。
而反过来, 若某合作者只参与了阶段 (2) 而对阶段 (1) 没有多少贡献, 那么要就不能被列为共同发明人。
这种标准和论文署名的依据完全不同。 Brin 对 Google 这个搜索引擎的贡献其实很大, 必须的
web crawling 程序是他写的, 硬件工程更是他的强项, 列为第二发明人并不为过。
但是美国人对专利法规的实施非常严谨, 由于那四个专利都是关于 PageRank 算法的,
Brin 的贡献在其中属于阶段 (2), 很可能因为没有对阶段 (1) 做出显著贡献而未被列为共同发明人。
这一案例显然可以映照一下那些经常通过行政手段在论文或专利上厚颜无耻署名的学阀。
-
卢昌海 (发表于 2010-12-07)
谢谢 Omni 兄的补充信息。
-
来自 125.39 的游客 (发表于 2010-12-24)
“成立仅仅三个月,《PC Magzine》杂志就把谷歌列为了年度最佳搜索引擎。”——叫卖公司时已有
“年度最佳搜索引擎” 光环了, 却还卖不出 100 万。
-
卢昌海 (发表于 2010-12-24)
是啊, 真不知道那些硅谷老总们是怎么想的。 虽说《PC Magzine》不是搜索引擎方面的权威,
但凭它在 PC 用户中的影响力, 它的评论是不宜等闲视之的。 据说当时 Excite
的人已经把谷歌的开价压到了 75 万美元, 可是公司 CEO 仍不接受, 还把还价者批评了一通。
-
网友: galois_fu (发表于 2011-01-04)
写的太好了!
-
网友: fcl (发表于 2011-01-12)
写的非常好啊, 终于明白了 PageRank 算法的本质。 谢谢。
本文的讨论期限已过, 如果您仍想讨论本文, 请在每个月前七天的 “读者周” 期间前来讨论。
>> 查阅目前尚在讨论期限内的文章 <<
|