您的位置:站长主页 -> 繁星客栈 -> 听雪轩 (教育哲学论坛) -> 逻辑、认知与哲学(转) November 22, 2024

逻辑、认知与哲学(转)

用户登陆 | 刷新 本版嘉宾: 快刀浪子 星空浩淼 XXFF

XXFF

发表文章数: 480
武功等级: 空明拳
     (第五重)
内力值: 419/419

逻辑、认知与哲学(转)



逻辑、认知与哲学(转)

赵南元


摘要:
本文讨论逻辑在认知中的作用和认知科学与哲学(认识论)的相互影响。逻辑主义、符号主义是人工智能领域的重要流派,人工智能的困境实际上反映了支撑这些学派的背景哲学思想的困境。本文要指出的是,逻辑(和数学)既不是自然界背后的骨架,也不是思维的基本规则,而是人类文化的发明,是保证理论内部一致性的工具。人脑之中所运行着的不是符号的逻辑运算,而是模型的操作和价值的均衡。




一、丑小鸭定理
上个世纪60年代,模式识别研究的鼻祖之一,美籍日本学者渡边慧证明了“丑小鸭定理”。这个定理说的是“丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大”。这个看起来完全违背常识的定理实际上说的是:世界上不存在分类的客观标准,一切分类的标准都是主观的。渡边慧举了一个鲸鱼的例子说明这个定理:按照生物学的分类方法,鲸鱼属于哺乳类的偶蹄目,和牛是一类;但是在产业界,捕鲸与捕鱼都要行船出海,鲸和鱼同属于水产业,而不属于包括牛的畜牧业。分类结果取决于选择什么特征作为分类标准,而特征的选择又依存于人的目的。丑小鸭是白天鹅的幼雏,在画家的眼里,丑小鸭和白天鹅的区别大于两只白天鹅的区别;但是在遗传学家的眼里,丑小鸭与其父亲或母亲的差别小于父母之间的差别。

由此引出的一个问题是,事物有没有“本质”?一个苹果,牛顿看到的是它的质量,遗传学家看到的是它的染色体中的DNA序列,美食家关心的是它的味道,画家看到的是它的颜色和形状,孔融还可能关注其大小并从中看出道德因素。这里面没有谁对谁错的问题,所以不可能知道苹果的“本质”是什么。在说到“本质”的时候,充其量说的只是“我认为最重要的特征”,只代表个人的立场,他人并没有赞同的充分理由。所以任何使用“本质”这个词汇所进行的论证都是靠不住的。如果一个哲学家说:“思维是人的本质,计算机不具备这种本质,所以机器不能思维。”这种论证只相当于说:“我认为计算机不能思维,所以计算机不能思维。”这当然不能成为有效的论证。问题就在于世界上还不存在能够判断什么是事物的本质的公认的有效方法。


二、两种世界模型
关于世界的起源,东西方有两种不同的说法。

西方文化中以基督教的圣经为代表,认为世界是上帝创造的。上帝在造人之前已经制造了天地日月、山川草木以及各种动物。如果上帝是理性的,那么他应该是按照某种理念创造了世界,这个支撑世界理念当然就是真理,是上帝创世的蓝图。

儒家对世界的起源不感兴趣,但中国的古代神话也有创世之说,那就是盘古开天辟地。盘古睡在混沌的蛋里,醒来之时,发现周围一片混沌,于是拿起一把斧头,劈开了混沌之蛋,于是清气上升为天,浊气下降为地,世界由此创生。

从哲学的角度看,西方的创世说是本体论的,在没有人存在的时候,世界照样存在,而且上帝的理念也已经存在,人类认识世界的任务就是发现世界背后的真理。而东方的创世说则可以看成是认识论的过程,只有在人定义了上、下、轻、重的概念之后,才能定义天和地。实际上人在娘胎里通常是头朝下呆着的,上下的概念要在出生后相当长的时间(可能是“七坐八爬”的时候)才逐步建立起来。更有趣的是,像上下这样基础性的概念却是相对的,宇宙没有上下之分,生在空间站里的孩子没有(也不需要)上下的概念。

两种不同的世界模型就产生了不同的人工智能研究路线。按照真理客观存在的想法,我们只要把真理灌输给计算机,计算机就会有智能。这种研究路线的具体成果就是“专家系统”,然而专家系统导致两个困境,技术困境是总结出专家的知识灌输给计算机实在是一件让人望而生畏的艰巨工作,理论困境是这种计算机毫无创造性,与人的智能相差甚远。如果认为专家系统就是人工智能的话,我们很容易得出人工智能不可能超过人脑的结论,毕竟计算机里的一切知识都只是人脑中的知识的一小部分。

如果我们用盘古模型来看世界,就得到另一种人工智能的研究路线,即如何让计算机(作为机器人的大脑)从自己的运动和感觉中总结出“上”和“下”的概念,并且能由此再扩展出新的概念。所谓“神经达尔文主义”的研究路线可以说是这个方向的一个尝试。由此路线发展出的人工智能原理上不受人类智能的限制,只是任何人的智能都不可能不借助人类的文化积累,机器人当然也不例外。


三、认知即建构——逆反映论
按照上帝创世的模型,人类认识世界就是通过观察现象发现现象背后的规律。如果我们发现的规律与“客观规律”(上帝的蓝图)相同,我们的认识就是“真理”,逻辑是判断真伪的准则,为了使认识有效,就要求客观世界和精神世界都是合乎逻辑的。认识过程是一个“求真”的过程。我们头脑中的理论是客观规律的“反映”。这就是“反映论”的基本思想。

可以看出,“反映论”无论对于客观世界还是主观世界都做出了过强的假定。如果丑小鸭定理是正确的,在被我们认识之前客观世界仅仅是一团混沌,不同的事物尚未被区分,当然没有“客观规律”的容身之地。莱布尼兹也证明过对于有限的现象可以有无限的解释(理论)与之符合。那么我们如何“透过现象发现规律”就是一个难解的问题,这种认识的不可思议的“穿透力”只能靠莱布尼兹的物质单子和精神单子之间由上帝所规定的先定和谐来保证。但是假如这种先定和谐是存在的,那么我们应该轻而易举的发现“真理”,知识的道路就不应该如此崎岖。包含太多的过强的前提假定的理论的缺陷在于,只要有一个假定不成立,理论就会失去支撑,而过强的假定又恰恰是不容易成立的。

我们可以用称为“笛卡尔妖”的思想试验来验证人脑认识与“真实世界”之间的距离。假如一个婴儿从一生下来就有一个装有虚拟现实软件的计算机接收婴儿大脑的所有动作输出信号,并且向大脑提供相应的感觉信息,那么这个婴儿由于没有其他参照物,就不可能发现自己生活在虚拟世界中,而把虚拟世界完全当成了现实世界(参见电影《黑客帝国》)。

如果我们从最弱的假定出发,不去理会上帝是否存在,只考虑人脑具有一些输出信号的神经元控制肌肉的动作,以及输入的神经元接收从各个感觉器官得到的信息。那么所谓认知过程无非是怎样处理这些输出和输入信息,从中得到稳定、经济和有助于预测的关系,再由这些关系建构出分类准则,把混沌的世界逐步建构成不同事物及其相互关系,在大脑中构筑起关于客观世界的模型。这个模型不存在“真”、“伪”问题,只问是否有效,能否使持有这个大脑的认知主体在进化中不被淘汰。

所以我们所谓的“客观世界”,是我们大脑中建构出的模型向外界的投射,或者说是内心世界模型的“反映”。与通常所说的“反映论”的映射方向相反,故称之为“逆反映论”。按照这个思路,人工智能所应该研究的就是如何把输出输入信息组织成世界模型的问题。


四、逻辑能告诉我们什么?
最古典的逻辑是亚里士多德的三段论。其经典的例子是:所有人都会死,苏格拉蒂是人,所以苏格拉蒂也会死。但是这种推论未必能得到真理,原因是大前提是可疑的。尽管古往今来我们知道的所有人都毫无例外的死去了,但是按照休谟的说法,我们并不能由此合乎逻辑地推论出所有人都会死的普遍规律。况且从另一方面讲,说所有人都会死,意味着存在一个所有人都不可能超越的寿命的极大值,但是如果我们规定这个极大值,例如三百岁,那么就会产生一个问题,就是为什么有人可以活到三百岁却没有人可以活到三百岁零一秒?或者说怎么知道将来的人不能开发出可以延长寿命的药物?

然而逻辑(和数学)是非常有用的,其主要作用在于保证我们的理论不会自相矛盾,保持内部的一致性。如果在一个理论体系中从相同的前提出发按照不同的推论路径可以得出不同的结果,那么这个理论体系对于预测就毫无用处。

二值逻辑只有“真”和“伪”两个值,如果我们还需要表现“不知道”的状态,可以设计相应的三值逻辑。逻辑是人类智力发明的产物,就像钳子和改锥,是一种理论工具。但逻辑既不是客观世界运行的规则,也不是人脑运行的规则。否则我们就难以解释为什么我们总能发明出五花八门的各种不同的逻辑体系。因此任何逻辑的局限性,例如哥德尔不完全性定理或归纳悖论、集合悖论等,都不能直接映射为人脑或计算机的局限性。


五、为什么哲学家会认为计算机永远不会超过人脑?
卡尔·波普尔论证了证实与证伪的不对称性:即使你看到一百只天鹅都是白的,也不能证实“所有天鹅都是白的”,但你只要发现一只天鹅是黑的,就可以证伪“所有天鹅都是白的”。

与此相似,在证明可能性与不可能性之间也存在着不对称性:要想证明某一件事情可能发生,只要有一个实例就足够了,但是要想证明其不可能发生,却需要对未来的无限时间进行预测,而这种预测从原理上也是不可能的。例如预测明年的发明就是不可能的,因为如果你能够详细的预测明年将要出现的某项发明,那么你实际上已经做出了这项发明,这项发明也就不再是明年的发明,而是现在的发明。

在现实中证明“不可能”的已经有不少失败的例子。例如曾经有人通过精确的计算结果证明用化学燃料的火箭不可能达到第一宇宙速度,然而其后发明了多级火箭,成功的发射了人造卫星。所以对科学作“不可能”的预测,需要承担巨大的风险。

那么计算机的“人工智能”能不能超越人脑呢?虽然目前的人工智能没有一个超过人脑的,甚至是否能够算得上智能还值得怀疑,但是至少从原理上超过人脑的计算机并不是不可想象的。我们可以做这样一个思想实验:在计算机中可以模拟一个神经元和它的变化过程,那么如果我们有一个足够大、足够快的计算机,就可以模拟某个具体人(例如张三)的所有脑细胞和它们之间的关系,以及在学习过程中关系的变化,这样我们就得到了一个和张三具有完全同等智力的机器人。此时机器人智力和张三完全相同,尚未超过,但是如果考虑到电子器件比神经元的反应和传递速度至少高一百万倍,那么让机器人的模拟张三大脑比张三的大脑运行快几倍是很容易做到的。这样一来,虽然机器人只能作张三能做的事,但速度却快了几倍,在旁人看起来就显得比张三聪明多了,更重要的是机器人的学习速度也比张三快,所以一段时间之后,机器人的智力必然超过张三。如果张三是人类中的佼佼者,机器的智能也可以算是超越人脑了。如果作为一种人工智能研究的技术路线,这种方法当然是极蠢的,但是作为一个思想实验,却有浅显易懂的优越性。

既然如此,哲学家们为什么甘冒风险热衷于论证人工智能不可能超越人脑呢?罗素认为,哲学介乎于神学与科学之间。科学在历史上也有取悦神学的时代,例如牛顿就认为太阳系的运行初始状态要靠上帝的第一推动力,但拉普拉斯对拿破仑说“陛下,我不需要那个假说。”则意味着科学开始摆脱神学的羁绊。现代科学拒绝任何超自然的解释,已经彻底清除了神学的影响。但是哲学和神学从来没有划清过界限,黑格尔和康德不拒绝“上帝”的概念,即使是现代的专门研究科学哲学的波普尔,在涉及《自我及其大脑》的讨论中,仍然相信“机器中的幽灵”这种超自然的解释,当代的哲学家仍旧坦然的使用“真理”、“本质”这类神学概念。有些科学家在离开他的本行时也成了哲学家,开始容忍超自然的解释,例如著名的物理学家彭罗斯就相信精神可以脱离物质而独立存在,所以企图用量子力学作为精神与物质之间的桥梁(《皇帝的新脑》,《心灵之影》)。诺贝尔奖获得者艾科尔斯也犯了相同的错误。在涉及人工智能的讨论中“彻底唯物主义”的哲学家非常少,我所知道的只有丹尼尔·丹尼特(《心我论》),转行的科学家则包括诺贝尔奖获得者,发现DNA双螺旋结构的弗朗西斯·克里克(《惊人的假说》)。而在人工智能学界和认知心理学界,主流思潮是拒绝超自然的解释,认为智能和意识不可以脱离物质载体,可以归结为大脑中的信息处理过程。因为如果接受超自然的解释,认为精神可以脱离物质独立存在,那么精神世界就成为不可以用科学加以探究的领域,这意味着认知科学的彻底崩溃。所以“人工智能是否可能超越人脑”的问题与其说是一个科学或哲学的争论,不如说对它的回答是到底采取神学立场还是科学立场的宣示。

只要分清了这样的立场,那些关于“计算机不能超过人”的论证本身通常是不值得驳斥的,或者说争论的内容几乎没有学术价值。例如60年代德雷弗斯写的《计算机不能做什么》,其中列举了一大堆他认为计算机不可能完成的任务,但是在计算机界的学者看来,这只说明了德雷弗斯本人的能力有限,却不能证明计算机的局限性。1980年语言哲学家塞尔(John R Searle)提出“中文房间”(Chinese Room)模型,企图证明计算机并不“理解”所处理的内容,然而实际上塞尔混淆了“系统能力”和“元件性能”这两个不同层次的问题,人脑的任何一个神经元都不能“理解”什么,但人脑却可以“理解”,“中文房间”里的人不理解,并不妨碍“中文房间”可以理解。认知科学所关心的不是“计算机能不能超过人?”而是“怎样才能让计算机超过人?”。对于“理解”也是一样的,如果我们弄清楚了人是怎样“理解”的,就可以让计算机也“理解”。很显然,塞尔并没有弄明白“理解”是怎么回事。


六、计算机不能做什么?
要知道计算机现在不能做什么很容易,但要知道计算机将来永远不能做什么则很难。我们现在几乎可以断定的只有计算机不能解决大规模的NP完全问题,但是人脑也同样不能解决这样的问题。迄今为止我们还没有任何证据表明有什么事是人脑能做而计算机肯定不能做的。前述的“神经元模拟”思想实验则说明计算机可以做人脑能做的一切事,问题仅仅在于我们能否知道人脑是怎样做的。

塞尔认为计算机不可能“理解”,是因为塞尔并不理解“理解”是怎么回事。如果我们把认知看成是在大脑(及计算机)中建立客观世界的模型,而大脑可以操作这些模型对客观世界进行预测,那么对于客观世界的现象或人的陈述,如果我们能够找到大脑中的模型与之匹配,使其符合预测结果,就意味着我们能够理解。举一个单纯的例子,我们如何理解一个数学证明过程,我们已知的公理、定义、定理是大脑中已有的,如果在证明过程中没有用到我们不知道的定理,那么我们对于证明过程中的每一个步骤都可以用自己头脑中的定理(相当于模型)预测下一步,我们也就可以理解证明的每一步,也就理解了证明的全过程。这些对于计算机来说,并不存在原则性的(不可克服的)困难。而且“思考”也可以解释为大脑内部模型的预测操作。

大多数人对于计算机能否具有感情持怀疑或否定的态度,这是由于我们对于“感情有什么用”缺乏正确的认识。通常人工智能的研究侧重于解决“是什么”和“怎样做”的问题,而人(以及动物)为了生存还要解决“该做什么”的问题。为了解决这个问题,需要建立评价体系,而评价所引起的伴随生理反应被意识到,就是感情。所以在计算机中实现感情并不困难,已经有很多可用的算法。至于感情的外在表现——表情,则已经有不少在计算机上实现的实例了。

人们认为更困难的,是如何使计算机具有意识。克里克指出,早在100年前,人们已经知道组成意识现象的两大要素:短时记忆和注意,注意是大脑动作范围的约束,所以二者在计算机中实现并无困难,至于如何把二者组装成意识,现在也已经取得了初步的研究成果。


XXFF


发表时间:2004-10-07, 22:44:43  作者资料

快刀浪子

发表文章数: 1200
武功等级: 天山折梅手
     (第五重)
内力值: 546/546

Re: 逻辑、认知与哲学(转)



赵南元写了一本《认知科学揭秘》,主要是提出了软硬结构模型和广义进化论,相当不错,值得一读
此书还有很多零碎的新观点,美中不足的是猜测的成分过多


乱石穿空,惊涛拍岸,卷起千堆雪。
江山如画,一时多少豪杰。


发表时间:2004-10-09, 06:17:49  作者资料

快刀浪子

发表文章数: 1200
武功等级: 天山折梅手
     (第五重)
内力值: 546/546

Re: 逻辑、认知与哲学(转)



把意识归结为注意与短时记忆,好象把问题过分简化了


乱石穿空,惊涛拍岸,卷起千堆雪。
江山如画,一时多少豪杰。


发表时间:2004-10-09, 06:19:44  作者资料

西门吹牛

发表文章数: 469
武功等级: 空明拳
     (第三重)
内力值: 416/416

Re: 逻辑、认知与哲学(转)



这是一篇很好的文章和话题,正在学校读本科和硕士的学子们有兴趣可以多思考,至少是一种精神和智力享受。象我们这种参加工作或作博士后的人就没有时间和精力在这些方面了。


一舞剑气动四方,天下英雄莫能挡
形踪飘忽疑无影,冷面郎君傲雪霜


发表时间:2004-10-09, 06:49:45  作者资料