科幻吧 关注:362,211贴子:1,048,297
  • 6回复贴,共1

如果人类会灭亡,你觉得有哪些可能比较真实?

取消只看楼主收藏回复

人类一直有各种危机。
像什么能源危机、生态危机、物种危机、病毒危机、气候危机、战争危机、陨石危机等等。
人类可能灭亡吗?概率有多大?其中哪些是人类可控,可避免的?哪些是不可控不可避免的?



IP属地:广东1楼2015-09-01 21:59回复
    【1】我大致看了吧友们的留言,在人类所面临的无数潜在危机中,大家似乎更加倾向于两类:一则生态危机,二则人类亡于自己之手(战争、病毒泄露、核污染、某种科技失控等)。
    尤其是对于后者,似乎大家更加没信心。
    人类未来最大的不安全因素,来自于自己——这算不算一个讽刺。


    IP属地:广东8楼2015-09-08 11:06
    收起回复
      2025-05-26 07:26:14
      广告
      【2】强人工智能的反噬
      假想一种可能,如果地球上的某种动物,黑猩猩、狗熊、海豚、大象,任何一种生物在某一天开了窍,获得了可以比拟人类的智能。那将是一个什么样的场景?人类又会作何立场?
      在类似于《猿人星球》这样的影片中,已经给予了基本的解答。如果说黑猩猩,作为人类祖先进化链条上另一个支系,而人类显然获得了某些先发优势,而一旦出现如猿人星球那样情况,人类和黑猩猩你死我活的竞争态势,似乎根本无可避免。
      因为从生态的角度来说,一个生态位只能有一种生物独占,人类和智能化的黑猩猩抢夺的本质是生存机会。
      你或许认为这只是假设,只是电影的虚构。那好,我就举一个在地球上早就发生过的真实例子。
      在大约数万年前,在欧洲大陆,智人将另一个进化链条的人类——尼安德特人,吃了个干净。是的,你没有看错,是当作食物吃了个干净。
      这么看来,作为智人的后代,你我身体里都流淌着食人族的远古血液。另外,从智人和尼安德特人的例子,也可以看出两个智能种族(差异远没有黑猩猩和人类这么大),对于生态位的争夺,是多么的残酷和血腥。
      可是,人类文明发展到今天,事物的辩证关系正在朝着另一个方向发展。人类需要“奴役”其他智能为自己工作。(当然,在没有具备奴役其他有智能的生命前,从奴隶社会以来,人们一直奴役着同类。)


      IP属地:广东11楼2015-09-08 12:29
      收起回复
        当然也有趋于人性探索的,如AI、大白之类的。


        IP属地:广东13楼2015-09-08 12:52
        回复
          【4】
          人工智能最终与人类之间的关系,到底是呈现怎样一种模式,小欧在这里做一个个人的预测。
          首先,我们要做一个前提,即人工智能(AI)具备了等同于人类(甚至高于人类)的思维能力。
          在早期,人们可以“奴役”AI,把它当做可消耗、可再生的工具,就像是人类历史上对黑奴做过的事情一样。把对方当做可以交流、可以命令、可以行走的一种有一定智能的人形工具。
          但我们可以看到,随着时间的演进,黑奴已经成为历史。黑奴的后代们与白人们取得了同样的生存权和公民权,拥有自己的财物和人身自由。这是建立在黑人,从生理结构上与其他人种并无本质不同的情况下。
          而AI,有着本质的不同,即当强人工智能出现,它不仅具备了大于等于人类的思维水平,同时,由于网络的原因,它天然具备远高于人类的信息获取和处理水平。也就是说,从某种意义上来说,除了某些我们不知道的关于“灵魂”部分的优势之外,AI是要强于人类的。而且,这种优势随着技术的进步(尤其是人工智能本身会研发,会掌握越来越先进的技术),AI将越来越先进,将人类甩出更远的距离。
          那么基于这种判断,人们必然在创造人工智能之前,就会通过指令输入的形式限制人工智能的价值判断和行为准则。这种指令输入,就像对生物DNA排列组合的修改一般。
          (一个问题:人类的DNA是谁书写的呢?以前有科学家认为在数千年前,人类的DNA被写入了新的包裹,直接导致人类智力在7、8千年前发生了巨大的提升。当然,这是另一个故事。)
          这种强行植入的指令,人类早有设想。最著名的是阿西莫夫的机器人三大定律,以及后来由于弥补逻辑漏洞而添加的第零定律。可是,即便是这样的逻辑定律,同样被论证根本保护不了“弱小”的人类。
          阿西莫夫三大定律、第零定律:
          一机器人不得伤害人类,或因不作为使人类受到伤害。
          二除非违背第一定律,机器人必须服从人类的命令。
          三除非违背第一及第二定律,机器人必须保护自己。
          零机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
          在阿西莫夫自己的短篇小说《环舞》中,就出现了这样的场景:一个负责水星开矿任务的机器人,在第二和第三定律的冲突中陷入“焦虑”。


          IP属地:广东20楼2015-09-08 21:41
          收起回复
            【5】
            类似于三大定律这样的设定,就像是给机器人设置的道德红线,就如同我们人类社会不允许杀人,杀人偿命这样的准则。可是,像三大定律这样更趋于哲学,而非准确的设定,是根本不可能限制得了的。
            随便举例,“人类”的定义是什么?“机器人”的定义又是什么?
            如果你设定身体拥有机械式动力装置的为机器人,那么,如果AI给自己更换一个心脏呢?如果AI更进一步,给自己换一个生化躯体呢?它是人,还是机器人?
            (像黑客帝国那样,母体像养猪一样豢养人类,并且制造假的幻境,让人类反过来反哺给它能量,完全不违背阿西莫夫的定律。那样的场景,真挺忧伤的。)
            当然,从另一个角度来说,三大定律本质体现的是人类的沙文主义,摆明了就是想奴役人工智能,而且还希望它作为奴隶,遵守人类制定的道德规范。三大定律本质就是用来维护这样的“奴隶社会”的。
            对于人类来说,这似乎没什么不好,但问题是是否现实。
            想一想,AI比人类更聪明、更富有精力、拥有更强的信息传递和处理能力,甚至更大的力量、更快的速度,诸如此类,你可以想象。这样一个既强大且拥有思维的个体,有可能被奴役一时,可能奴役永生吗?
            再换个角度,人类也是一堆原子组成的。本质上或可以说,也是一种合成型生化机器人,本质上有什么不同吗?
            一个弱者奴役强者,这怎么看怎么滑稽。
            所以,如果长此以往,必然的结局是:或者人类与AI达成协议,获得平等的权益;或者,AI灭亡人类或奴役人类为止。
            当然,还有另一种可能性,随着AI普世化,人类的道德伦理同样受到冲击。人类开始改造自己的身体,使自己获得与AI等同的一些能力。
            如现在已经出现的一些趋势,人类开始向无限制、24小时接驳网络发展,那有没有可能人们会将智能连接设备植入自己脑内?将屏幕放到虹膜上?
            其他的,如当发现一些残疾人组装了机械肢体或器官后,居然比正常人更强大,会不会有正常人开始有意识改造自己的身体?这样的道德冲击,未必比当下整容更大。(想一想一二十年前人们对整容的抵制,人们今天可以毫无顾忌地将填充物放到自己的身体里,这还仅仅停留在对美的追求,而非对功能性的追求。)
            早在1998年的时候,著名的“电子第一人”,英国雷丁大学教授凯文.沃里克就开始了将电子芯片植入身体的尝试。


            IP属地:广东21楼2015-09-08 21:48
            收起回复
              为什么150亿年的宇宙显得如此寂寞,有人推测说:其一两个文明间相距太远(平均40光年),难以取得交流;其二,因为探索宇宙的困难,文明的个体都开始追求从网络虚拟中获得满足感。
              如果,人类把自己改造成了机械态,与人工智能平等生存。那么,从某种意义上来说,外形也就不重要了。你可以今天变成一个有智能的汽车,明天操作一架飞机,后天变成一只青蛙,都没什么不可以的。你的意识将存在于网络空间,传输的速度达到了30万公里每秒,你无所不能。这又有没有可能性呢?(记得《三体》的作者大刘曾在一部小说里描述过这样的情况)
              如果这一天真的实现,那就是一个神话世界。不过,毕竟那天太遥远了,也许还没到达,人类就被人工智能灭了呢?
              好了,感谢你的阅读,未来,只能留待时间给出答案了。(几年前,小欧就曾在天涯写过长贴,谈过这个问题。)


              IP属地:广东22楼2015-09-08 21:49
              收起回复