科幻吧 关注:354,592贴子:1,046,077

回复:如果人类会灭亡,你觉得有哪些可能比较真实?

只看楼主收藏回复

【4】
人工智能最终与人类之间的关系,到底是呈现怎样一种模式,小欧在这里做一个个人的预测。
首先,我们要做一个前提,即人工智能(AI)具备了等同于人类(甚至高于人类)的思维能力。
在早期,人们可以“奴役”AI,把它当做可消耗、可再生的工具,就像是人类历史上对黑奴做过的事情一样。把对方当做可以交流、可以命令、可以行走的一种有一定智能的人形工具。
但我们可以看到,随着时间的演进,黑奴已经成为历史。黑奴的后代们与白人们取得了同样的生存权和公民权,拥有自己的财物和人身自由。这是建立在黑人,从生理结构上与其他人种并无本质不同的情况下。
而AI,有着本质的不同,即当强人工智能出现,它不仅具备了大于等于人类的思维水平,同时,由于网络的原因,它天然具备远高于人类的信息获取和处理水平。也就是说,从某种意义上来说,除了某些我们不知道的关于“灵魂”部分的优势之外,AI是要强于人类的。而且,这种优势随着技术的进步(尤其是人工智能本身会研发,会掌握越来越先进的技术),AI将越来越先进,将人类甩出更远的距离。
那么基于这种判断,人们必然在创造人工智能之前,就会通过指令输入的形式限制人工智能的价值判断和行为准则。这种指令输入,就像对生物DNA排列组合的修改一般。
(一个问题:人类的DNA是谁书写的呢?以前有科学家认为在数千年前,人类的DNA被写入了新的包裹,直接导致人类智力在7、8千年前发生了巨大的提升。当然,这是另一个故事。)
这种强行植入的指令,人类早有设想。最著名的是阿西莫夫的机器人三大定律,以及后来由于弥补逻辑漏洞而添加的第零定律。可是,即便是这样的逻辑定律,同样被论证根本保护不了“弱小”的人类。
阿西莫夫三大定律、第零定律:
一机器人不得伤害人类,或因不作为使人类受到伤害。
二除非违背第一定律,机器人必须服从人类的命令。
三除非违背第一及第二定律,机器人必须保护自己。
零机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
在阿西莫夫自己的短篇小说《环舞》中,就出现了这样的场景:一个负责水星开矿任务的机器人,在第二和第三定律的冲突中陷入“焦虑”。


IP属地:广东20楼2015-09-08 21:41
收起回复
    【5】
    类似于三大定律这样的设定,就像是给机器人设置的道德红线,就如同我们人类社会不允许杀人,杀人偿命这样的准则。可是,像三大定律这样更趋于哲学,而非准确的设定,是根本不可能限制得了的。
    随便举例,“人类”的定义是什么?“机器人”的定义又是什么?
    如果你设定身体拥有机械式动力装置的为机器人,那么,如果AI给自己更换一个心脏呢?如果AI更进一步,给自己换一个生化躯体呢?它是人,还是机器人?
    (像黑客帝国那样,母体像养猪一样豢养人类,并且制造假的幻境,让人类反过来反哺给它能量,完全不违背阿西莫夫的定律。那样的场景,真挺忧伤的。)
    当然,从另一个角度来说,三大定律本质体现的是人类的沙文主义,摆明了就是想奴役人工智能,而且还希望它作为奴隶,遵守人类制定的道德规范。三大定律本质就是用来维护这样的“奴隶社会”的。
    对于人类来说,这似乎没什么不好,但问题是是否现实。
    想一想,AI比人类更聪明、更富有精力、拥有更强的信息传递和处理能力,甚至更大的力量、更快的速度,诸如此类,你可以想象。这样一个既强大且拥有思维的个体,有可能被奴役一时,可能奴役永生吗?
    再换个角度,人类也是一堆原子组成的。本质上或可以说,也是一种合成型生化机器人,本质上有什么不同吗?
    一个弱者奴役强者,这怎么看怎么滑稽。
    所以,如果长此以往,必然的结局是:或者人类与AI达成协议,获得平等的权益;或者,AI灭亡人类或奴役人类为止。
    当然,还有另一种可能性,随着AI普世化,人类的道德伦理同样受到冲击。人类开始改造自己的身体,使自己获得与AI等同的一些能力。
    如现在已经出现的一些趋势,人类开始向无限制、24小时接驳网络发展,那有没有可能人们会将智能连接设备植入自己脑内?将屏幕放到虹膜上?
    其他的,如当发现一些残疾人组装了机械肢体或器官后,居然比正常人更强大,会不会有正常人开始有意识改造自己的身体?这样的道德冲击,未必比当下整容更大。(想一想一二十年前人们对整容的抵制,人们今天可以毫无顾忌地将填充物放到自己的身体里,这还仅仅停留在对美的追求,而非对功能性的追求。)
    早在1998年的时候,著名的“电子第一人”,英国雷丁大学教授凯文.沃里克就开始了将电子芯片植入身体的尝试。


    IP属地:广东21楼2015-09-08 21:48
    收起回复
      为什么150亿年的宇宙显得如此寂寞,有人推测说:其一两个文明间相距太远(平均40光年),难以取得交流;其二,因为探索宇宙的困难,文明的个体都开始追求从网络虚拟中获得满足感。
      如果,人类把自己改造成了机械态,与人工智能平等生存。那么,从某种意义上来说,外形也就不重要了。你可以今天变成一个有智能的汽车,明天操作一架飞机,后天变成一只青蛙,都没什么不可以的。你的意识将存在于网络空间,传输的速度达到了30万公里每秒,你无所不能。这又有没有可能性呢?(记得《三体》的作者大刘曾在一部小说里描述过这样的情况)
      如果这一天真的实现,那就是一个神话世界。不过,毕竟那天太遥远了,也许还没到达,人类就被人工智能灭了呢?
      好了,感谢你的阅读,未来,只能留待时间给出答案了。(几年前,小欧就曾在天涯写过长贴,谈过这个问题。)


      IP属地:广东22楼2015-09-08 21:49
      收起回复
        能源危机,发现新能源是迟早的事,只不过现在还不肯抛弃现有模式全力研发新型能源。生态与气候危机、物种危机、病毒危机也不可能。我们知道在四次冰期中,大约灭绝了90%的物种。但是在寒武纪却又出现了生命大爆发,无脊椎生物的崛起。在石炭纪植物大爆发,为鱼类上岸做好了充分的准备。我们还知道在6500万年前的白垩纪灭绝了包括恐龙在内的地球75%的物种。而哺乳动物却得以崛起,部分恐龙进化成鸟类。病毒与人类斗争了数万年,病毒进化,人类也进化,双方都并不曾占据压倒性的优势。战争,纵观历史,大规模毁灭性的战争几率很小。陨石,我们的朋友,太阳系最大的行星木星会为我们吸走不幸进入太阳系中的小行星。像希克苏鲁伯那样大的撞击地球的几率太小了。


        来自Android客户端24楼2015-09-09 04:05
        回复
          表示如果人类已经灭亡了呢,假设人死亡后会经过死亡回放,然而这种回放是1:1谁知道我们会不会是正在回放生前的过程....或者人类灭亡前的过程


          IP属地:辽宁来自iPhone客户端25楼2015-09-09 23:00
          收起回复
            自己毁灭自己咯。


            来自Android客户端27楼2015-09-10 11:11
            回复
              第一次加入盖楼大营,我要建起最漂亮的一层


              29楼2015-09-10 13:54
              回复
                地质灾害吧。剧烈的大规模地壳运动完全超出了人类目前科技与政经水平的承载范围,而且基本是不可预的。


                IP属地:安徽来自Android客户端32楼2015-09-11 10:03
                回复
                  能量守恒,物质不灭,生命亦然。
                  我们留恋的只是这一次的生命形式而已。


                  IP属地:上海33楼2015-09-11 10:24
                  回复
                    曾经看过一个视频说的是最有可能会毁灭人类的十大灾难,第一个是温室效应第二个是蜜蜂消失,第三个是超级病毒肆虐第四个是机器人反叛后面什么不记得了


                    来自Android客户端34楼2015-09-11 11:11
                    回复
                      最可能的就是气候变化,没你们想的这么科幻


                      IP属地:安徽来自Android客户端35楼2015-09-11 12:16
                      回复
                        自作孽或外来危险,就如《易 D》里表现的那样…
                        易D科幻 www.yi-di.net
                            --欢迎光临易D吧!关注国产科幻大片


                        IP属地:北京来自Android客户端38楼2015-09-12 17:54
                        回复