另一个逐步走向超人剧变的征兆是:观念与信息的传播速度越来越
快,即使是最激进的观点也会很快变成常识。当我在二十世纪六十年代
初开始写科幻小说时,很容易就能想到二三十年之后才会慢慢进入大众
视野的主意,而现在,科幻小说家的设想似乎只能领先于现实十八个月。
(当然,这可能只是我在年龄增长的过程中失去了想象能力,但我看到
这种效果在其他作家身上也很灵验。)当我们以临界速度不断加快前进
的步伐时,超人剧变就会离我们越来越近。
超人剧变真正来临的时候又会怎样?我们能做出什么预测?既然
它涉及到一个智能爆炸的过程,那么它很可能会比迄今为止看到过的人
和科技革命发展得都更加迅速。即使来临的时间很可能会是意想不到的
—甚至对密切关注它的研究者们来说也是如此。如果网络的散布足够广
泛(成为无处不在、高度渗入的系统),那我们也许可以看到,我们拥
有的所有人造物品仿佛全都突然苏醒了过来。
在那之后一两个月(或者一两天)会发生什么呢?我只能打一些比
方:就如同人类的崛起。我们将进入后人类时代。以最乐观主义的眼光
来看,有时候我认为如果这些超越性剧变在一千年后,而不是二十年之
内发生的话,我会感到踏实得多。
超人剧变能够避免吗?
嗯,也许它根本就不会发生:有时我试图想象出一些表明超人剧变
不会发生的征兆。彭罗斯和希尔之间关于人工智能能否实现的争论受到
了广泛的关注。1992年8月,思考机器公司召开了一次研讨会来探究“我
们如何才能制造出能够思考的机器”这一问题。从研讨会的名称你们也
许就能猜出,参与者并不是非常反对人工智能实现的可能性。实际上,
大家一致认可“意识能够在非生物的基础上存在”,“对意识的存在起至
关重要作用的是运算法则”。不过,对于大脑器官中天然的硬件功能,
大家仍存在争议。
少数与会者认为,1992年人类制造出的最大型的计算机的运算能力
与人类大脑的差距在三个数量级以内。大多数与会者则同意莫拉维克的
估测,认为计算机的运算能力要在等到十到四十年才能与人脑抗衡。还
有另外一部分人支持,单个神经元的运算能力也许远远超过大家普遍的
认识。如果是这样的话,目前我们电脑的运算能力与我们头脑的差距就
高达十个数量级(就此而言,彭罗斯和希尔的争论是正确的),我们也
许永远见不到超人剧变。取而代之的是,在二十一世纪初,我们将会看
到硬件性能提升的速度开始变得平缓—这是因为我们无法取得足够的
设计自动化来支持硬件性能的进一步提升。
我们最终得到的将是一些非常强大的硬件,但却没有能力将它进一
步向前推进。商业数据信号处理也许很令人敬畏,能使数字运算看起来
就像是模拟运算,但没有任何东西会觉醒,也不会出现超人剧变的必要
条件—智能爆炸。这个时期可以被视作黄金时期,这也将是进步的终结。
这很像冈瑟·斯坦特的预见,在《即将来临的黄金时代:对发展终点的
展望》一书的第137页,斯坦特清楚地谈到超人智能将是打破这种状态
的充分条件。
但是,如果超人剧变可能发生,那它就会发生。即便世界上所有的
政府都意识到这个“威胁”,并且感到极度恐惧,整个进程也将继续下
去。在小说中,有些故事曾描写人们通过法律禁止制造“拥有类似人类
头脑的机器”。但是即使,竞争这个特征存在于能够促进自动化控制的
各个领域,包括经济、军事,甚至艺术。它的影响力如此强大,以至于
如果通过立法或者设限来禁止这类事情的发生,只会导致他人捷足先登。
麻省理工学院的埃里克·德雷斯勒对技术进步的前景提出了令人惊
叹的预测。他赞成超人智能可能在近未来出现—这样的实体将对人类的
现状造成威胁。但德雷斯勒辩称,人类能够限制这类超人设备,超人设
备及其影响可以受到检验,并且加以安全使用—这就是I·J·古德的超
级智能机器,它增加了防护设备。我认为这种限制本身就是不切实际的。
至于说到物理限制:想象一下你自己被关在家里,跟外界的主人只有有
限的数据连接。如果主人的思维比你慢一百万倍,那么毫无疑问,经过
几年时间(你的主观时间),你就能在给主人提供“有用的主意”的同
时把自己放出来。(我把这种依靠快速思维取胜的超级智能叫做“弱势
人工智能”,这样的“弱势人工智能”很可能在几周以内就耗尽了生命
周期。)
“强势人工智能”要比仅仅加快运算速度复杂得多。很难准确地形
容“强势人工智能”会是什么样,但这种差异会很明显。想象一下,将
狗的思维速度大幅提高,这样的狗活一千岁能产生出人的思想吗?(如
果现在对狗的思维进行重新整理,然后再让其高速运行,我们也许能看
到不一样的事情。)很多对超级智能的想象似乎都是基于“弱势人工智
能”。我相信我们对超人剧变以后世界的想象最好基于“强势人工智能”
本质的思考。