科学吧 关注:368,402贴子:1,517,552

回复:如果人类会灭亡,你觉得有哪些可能比较真实?

只看楼主收藏回复

战争第一病毒第二


IP属地:江苏来自iPhone客户端37楼2015-09-08 19:27
收起回复
    ”妈,我去写作业了。”“写写写!整天就知道写作业!贴吧签到签了吗?该回复的帖子回了吗?你说你啊,到现在一天水10点经验都水不了,还一心想着学习!看看隔壁家养的蓝蓝,人家都15级啦,全吧第一啊,你到现在才几级,我出去买个菜都不好意思抬头见人!赶紧把电脑打开,今天帖子多,给我水经验去!”于是我就来了!


    IP属地:山东38楼2015-09-08 21:41
    收起回复
      【5】
      类似于三大定律这样的设定,就像是给机器人设置的道德红线,就如同我们人类社会不允许杀人,杀人偿命这样的准则。可是,像三大定律这样更趋于哲学,而非准确的设定,是根本不可能限制得了的。
      随便举例,“人类”的定义是什么?“机器人”的定义又是什么?
      如果你设定身体拥有机械式动力装置的为机器人,那么,如果AI给自己更换一个心脏呢?如果AI更进一步,给自己换一个生化躯体呢?它是人,还是机器人?
      (像黑客帝国那样,母体像养猪一样豢养人类,并且制造假的幻境,让人类反过来反哺给它能量,完全不违背阿西莫夫的定律。那样的场景,真挺忧伤的。)
      当然,从另一个角度来说,三大定律本质体现的是人类的沙文主义,摆明了就是想奴役人工智能,而且还希望它作为奴隶,遵守人类制定的道德规范。三大定律本质就是用来维护这样的“奴隶社会”的。
      对于人类来说,这似乎没什么不好,但问题是是否现实。
      想一想,AI比人类更聪明、更富有精力、拥有更强的信息传递和处理能力,甚至更大的力量、更快的速度,诸如此类,你可以想象。这样一个既强大且拥有思维的个体,有可能被奴役一时,可能奴役永生吗?
      再换个角度,人类也是一堆原子组成的。本质上或可以说,也是一种合成型生化机器人,本质上有什么不同吗?
      一个弱者奴役强者,这怎么看怎么滑稽。
      所以,如果长此以往,必然的结局是:或者人类与AI达成协议,获得平等的权益;或者,AI灭亡人类或奴役人类为止。
      当然,还有另一种可能性,随着AI普世化,人类的道德伦理同样受到冲击。人类开始改造自己的身体,使自己获得与AI等同的一些能力。
      如现在已经出现的一些趋势,人类开始向无限制、24小时接驳网络发展,那有没有可能人们会将智能连接设备植入自己脑内?将屏幕放到虹膜上?
      其他的,如当发现一些残疾人组装了机械肢体或器官后,居然比正常人更强大,会不会有正常人开始有意识改造自己的身体?这样的道德冲击,未必比当下整容更大。(想一想一二十年前人们对整容的抵制,人们今天可以毫无顾忌地将填充物放到自己的身体里,这还仅仅停留在对美的追求,而非对功能性的追求。)
      早在1998年的时候,著名的“电子第一人”,英国雷丁大学教授凯文.沃里克就开始了将电子芯片植入身体的尝试。


      IP属地:广东39楼2015-09-08 21:47
      回复
        为什么150亿年的宇宙显得如此寂寞,有人推测说:其一两个文明间相距太远(平均40光年),难以取得交流;其二,因为探索宇宙的困难,文明的个体都开始追求从网络虚拟中获得满足感。
        如果,人类把自己改造成了机械态,与人工智能平等生存。那么,从某种意义上来说,外形也就不重要了。你可以今天变成一个有智能的汽车,明天操作一架飞机,后天变成一只青蛙,都没什么不可以的。你的意识将存在于网络空间,传输的速度达到了30万公里每秒,你无所不能。这又有没有可能性呢?(记得《三体》的作者大刘曾在一部小说里描述过这样的情况)
        如果这一天真的实现,那就是一个神话世界。不过,毕竟那天太遥远了,也许还没到达,人类就被人工智能灭了呢?
        好了,感谢你的阅读,未来,只能留待时间给出答案了。(几年前,小欧就曾在天涯写过长贴,谈过这个问题。)


        IP属地:广东40楼2015-09-08 21:49
        收起回复
          目前看来,人类如果灭亡,最有可能的就是人类无法突破超越第一类文明的关键技术,从而被宇宙大筛选器给筛选掉!


          41楼2015-09-08 21:49
          回复
            人类自毁吧


            来自Android客户端42楼2015-09-12 01:37
            回复
              战争吧,可是是生化武器战争时代


              IP属地:河南来自iPhone客户端43楼2015-09-12 02:24
              回复
                人类灭亡只是时间问题,我已经看开了


                来自Android客户端44楼2015-09-12 09:24
                回复
                  人为造成的危机最有可能,科技越发达人类越易灭亡。别说人类了整个所有生物都会被人类害到绝灭。


                  IP属地:广东45楼2015-09-12 09:49
                  回复
                    史蒂芬霍金预测100年内人工智能将淘汰人类


                    来自Android客户端51楼2015-09-12 16:42
                    回复
                      很有可能我们会被自己创造的日益发展迅速的机器人灭绝


                      来自Android客户端52楼2015-09-12 16:44
                      回复
                        人工智能,环境污染破坏地球的生态系统,而衍生出其他的物种。人类的生存受到威胁,粮食,生存空间,水等等,一系列的小问题而引发的生存危机。


                        来自Android客户端53楼2015-09-12 17:59
                        回复
                          生化危机


                          来自Android客户端57楼2015-09-12 21:53
                          回复
                            小星星撞地球


                            58楼2015-09-13 21:08
                            回复