科学吧 关注:367,202贴子:1,517,425
  • 9回复贴,共1

如果人类会灭亡,你觉得有哪些可能比较真实?

取消只看楼主收藏回复

人类一直有各种危机。
像什么能源危机、生态危机、物种危机、病毒危机、气候危机、战争危机、陨石危机等等。
人类可能灭亡吗?概率有多大?其中哪些是人类可控,可避免的?哪些是不可控不可避免的?



IP属地:广东1楼2015-08-29 10:25回复
    2楼楼内的都是聪明又帅气的大帅锅~~~


    IP属地:广东2楼2015-08-29 10:42
    回复
      3楼楼内的都是人见人爱、花见花开的漂亮MM~~


      IP属地:广东3楼2015-08-29 10:43
      回复
        【1】我大致看了吧友们的留言,在人类所面临的无数潜在危机中,大家似乎更加倾向于两类:一则生态危机,二则人类亡于自己之手(战争、病毒泄露、核污染、某种科技失控等)。
        尤其是对于后者,似乎大家更加没信心。
        人类未来最大的不安全因素,来自于自己——这算不算一个讽刺。


        IP属地:广东24楼2015-09-08 11:05
        回复
          【2】强人工智能的反噬
          假想一种可能,如果地球上的某种动物,黑猩猩、狗熊、海豚、大象,任何一种生物在某一天开了窍,获得了可以比拟人类的智能。那将是一个什么样的场景?人类又会作何立场?
          在类似于《猿人星球》这样的影片中,已经给予了基本的解答。如果说黑猩猩,作为人类祖先进化链条上另一个支系,而人类显然获得了某些先发优势,而一旦出现如猿人星球那样情况,人类和黑猩猩你死我活的竞争态势,似乎根本无可避免。
          因为从生态的角度来说,一个生态位只能有一种生物独占,人类和智能化的黑猩猩抢夺的本质是生存机会。
          你或许认为这只是假设,只是电影的虚构。那好,我就举一个在地球上早就发生过的真实例子。
          在大约数万年前,在欧洲大陆,智人将另一个进化链条的人类——尼安德特人,吃了个干净。是的,你没有看错,是当作食物吃了个干净。
          这么看来,作为智人的后代,你我身体里都流淌着食人族的远古血液。另外,从智人和尼安德特人的例子,也可以看出两个智能种族(差异远没有黑猩猩和人类这么大),对于生态位的争夺,是多么的残酷和血腥。
          可是,人类文明发展到今天,事物的辩证关系正在朝着另一个方向发展。人类需要“奴役”其他智能为自己工作。(当然,在没有具备奴役其他有智能的生命前,从奴隶社会以来,人们一直奴役着同类。)


          IP属地:广东25楼2015-09-08 12:36
          收起回复
            【4】
            人工智能最终与人类之间的关系,到底是呈现怎样一种模式,小欧在这里做一个个人的预测。
            首先,我们要做一个前提,即人工智能(AI)具备了等同于人类(甚至高于人类)的思维能力。
            在早期,人们可以“奴役”AI,把它当做可消耗、可再生的工具,就像是人类历史上对黑奴做过的事情一样。把对方当做可以交流、可以命令、可以行走的一种有一定智能的人形工具。
            但我们可以看到,随着时间的演进,黑奴已经成为历史。黑奴的后代们与白人们取得了同样的生存权和公民权,拥有自己的财物和人身自由。这是建立在黑人,从生理结构上与其他人种并无本质不同的情况下。
            而AI,有着本质的不同,即当强人工智能出现,它不仅具备了大于等于人类的思维水平,同时,由于网络的原因,它天然具备远高于人类的信息获取和处理水平。也就是说,从某种意义上来说,除了某些我们不知道的关于“灵魂”部分的优势之外,AI是要强于人类的。而且,这种优势随着技术的进步(尤其是人工智能本身会研发,会掌握越来越先进的技术),AI将越来越先进,将人类甩出更远的距离。
            那么基于这种判断,人们必然在创造人工智能之前,就会通过指令输入的形式限制人工智能的价值判断和行为准则。这种指令输入,就像对生物DNA排列组合的修改一般。
            (一个问题:人类的DNA是谁书写的呢?以前有科学家认为在数千年前,人类的DNA被写入了新的包裹,直接导致人类智力在7、8千年前发生了巨大的提升。当然,这是另一个故事。)
            这种强行植入的指令,人类早有设想。最著名的是阿西莫夫的机器人三大定律,以及后来由于弥补逻辑漏洞而添加的第零定律。可是,即便是这样的逻辑定律,同样被论证根本保护不了“弱小”的人类。
            阿西莫夫三大定律、第零定律:
            一机器人不得伤害人类,或因不作为使人类受到伤害。
            二除非违背第一定律,机器人必须服从人类的命令。
            三除非违背第一及第二定律,机器人必须保护自己。
            零机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
            在阿西莫夫自己的短篇小说《环舞》中,就出现了这样的场景:一个负责水星开矿任务的机器人,在第二和第三定律的冲突中陷入“焦虑”。


            IP属地:广东32楼2015-09-08 18:05
            回复
              【5】
              类似于三大定律这样的设定,就像是给机器人设置的道德红线,就如同我们人类社会不允许杀人,杀人偿命这样的准则。可是,像三大定律这样更趋于哲学,而非准确的设定,是根本不可能限制得了的。
              随便举例,“人类”的定义是什么?“机器人”的定义又是什么?
              如果你设定身体拥有机械式动力装置的为机器人,那么,如果AI给自己更换一个心脏呢?如果AI更进一步,给自己换一个生化躯体呢?它是人,还是机器人?
              (像黑客帝国那样,母体像养猪一样豢养人类,并且制造假的幻境,让人类反过来反哺给它能量,完全不违背阿西莫夫的定律。那样的场景,真挺忧伤的。)
              当然,从另一个角度来说,三大定律本质体现的是人类的沙文主义,摆明了就是想奴役人工智能,而且还希望它作为奴隶,遵守人类制定的道德规范。三大定律本质就是用来维护这样的“奴隶社会”的。
              对于人类来说,这似乎没什么不好,但问题是是否现实。
              想一想,AI比人类更聪明、更富有精力、拥有更强的信息传递和处理能力,甚至更大的力量、更快的速度,诸如此类,你可以想象。这样一个既强大且拥有思维的个体,有可能被奴役一时,可能奴役永生吗?
              再换个角度,人类也是一堆原子组成的。本质上或可以说,也是一种合成型生化机器人,本质上有什么不同吗?
              一个弱者奴役强者,这怎么看怎么滑稽。
              所以,如果长此以往,必然的结局是:或者人类与AI达成协议,获得平等的权益;或者,AI灭亡人类或奴役人类为止。
              当然,还有另一种可能性,随着AI普世化,人类的道德伦理同样受到冲击。人类开始改造自己的身体,使自己获得与AI等同的一些能力。
              如现在已经出现的一些趋势,人类开始向无限制、24小时接驳网络发展,那有没有可能人们会将智能连接设备植入自己脑内?将屏幕放到虹膜上?
              其他的,如当发现一些残疾人组装了机械肢体或器官后,居然比正常人更强大,会不会有正常人开始有意识改造自己的身体?这样的道德冲击,未必比当下整容更大。(想一想一二十年前人们对整容的抵制,人们今天可以毫无顾忌地将填充物放到自己的身体里,这还仅仅停留在对美的追求,而非对功能性的追求。)
              早在1998年的时候,著名的“电子第一人”,英国雷丁大学教授凯文.沃里克就开始了将电子芯片植入身体的尝试。


              IP属地:广东39楼2015-09-08 21:47
              回复
                为什么150亿年的宇宙显得如此寂寞,有人推测说:其一两个文明间相距太远(平均40光年),难以取得交流;其二,因为探索宇宙的困难,文明的个体都开始追求从网络虚拟中获得满足感。
                如果,人类把自己改造成了机械态,与人工智能平等生存。那么,从某种意义上来说,外形也就不重要了。你可以今天变成一个有智能的汽车,明天操作一架飞机,后天变成一只青蛙,都没什么不可以的。你的意识将存在于网络空间,传输的速度达到了30万公里每秒,你无所不能。这又有没有可能性呢?(记得《三体》的作者大刘曾在一部小说里描述过这样的情况)
                如果这一天真的实现,那就是一个神话世界。不过,毕竟那天太遥远了,也许还没到达,人类就被人工智能灭了呢?
                好了,感谢你的阅读,未来,只能留待时间给出答案了。(几年前,小欧就曾在天涯写过长贴,谈过这个问题。)


                IP属地:广东40楼2015-09-08 21:49
                收起回复