零电压开关吧 关注:35贴子:1,425
  • 9回复贴,共1

英媒:霍金警告人类 若想生存必须在100年内逃离地球_《参考消息

只看楼主收藏回复

(原标题:英媒:霍金警告人类 若想生存必须在100年内逃离地球_《参考消息》官方网站)
参考消息网5月5日报道 英媒称,斯蒂芬·霍金教授警告说,人类如果想要生存下去,就必须在100年内逃离地球。
据英国《每日邮报》网站5月3日报道,这位著名理论物理学家认为,地球上的生命被灾难毁灭的风险越来越大,包括小行星撞击、传染病、人口过多和气候变化等。
霍金教授在一部新纪录片中警告说,在今后一个世纪里,我们的世界会变得越来越不宜居,未来几代人必须在太空中寻找新的生存空间。
报道称,在新纪录片《远征新地球》中,霍金教授将周游世界,探讨人类如何在外太空生存。这部纪录片是英国广播公司(BBC)将于6月开播的《明日世界》节目的一部分。
在这部将由BBC二台播出的纪录片中,霍金声称人类能够在地球上生存的时间所剩无几,我们必须去其他地方探寻自己的未来。
报道称,去年11月,霍金对于自己的估计还比较保守。他当时曾警告说,人类无法在“脆弱”的地球上再生存1000年。
在那个谈话节目中,霍金用1小时的时间快速回顾了人类对宇宙起源的认识的发展历史,从最初的创世神话一直谈到了最先进的M理论预言。
他说:“也许有朝一日我们能够利用引力波来回看宇宙大爆炸的中心。”
“宇宙学的最新进展都是在太空中取得的,在那里可以不受影响地观测我们的宇宙,但我们继续探索太空也是为了人类的未来,”他说,“我认为,如果不逃离我们脆弱的星球,我们将无法再生存1000年。”
霍金接着说:“因此我希望激发公众对太空的兴趣,而我也一直在进行早期训练。”他曾说自己希望搭乘维珍集团老板理查德·布兰森的维珍银河飞船前往太空。
霍金还说:“能够活着并从事理论物理学研究,这真是一段美好的时光。在过去50年里,我们对宇宙的认识发生了巨大变化。如果我为此作出了一份小小贡献的话,那么我感到十分高兴。”
他说:“我们人类只是自然界基本粒子的组合,而我们能够如此接近于理解那些支配我们和宇宙的规律,这本身就是一项伟大的成就。”
报道称,霍金以前曾在《如何制造宇宙飞船》一书的编后语中谈过他对未来太空旅行的观点。
他说:“我认为地球上的生命面临越来越大的被灾难毁灭的风险,比如突发的核战争、基因工程病毒或其他危险。”
他还补充说:“我认为人类如果不走向太空就没有未来。”


1楼2017-05-07 12:18回复
    【延伸阅读】100年内必须要离开!霍金再次警告地球没前途
    据外媒(CNET)报道,著名物理学家霍金多次发言警告地球前景堪忧。霍金称未来100年将是人类在地球上最危险的时期,面临的威胁包括核战争、基因工程病毒和全球变暖。
    无论是小行星撞击地球还是人口过剩导致资源危机,都让霍金坚定了人类应该在2117年之前离开地球的想法。目前霍金正在同BBC合作制作一部名为《远征新地球》(Expedition New Earth)的纪录片,在片中与前弟子Christophe Galfard一起探讨人类外星生活的可能性。
    霍金坚持认为人类应当在未来100年开展星际殖民,尽管他此前曾认为人类尚无法保证殖民星球的自给自足。
    (2017-05-04 08:47:53)


    2楼2017-05-07 12:19
    回复
      【延伸阅读】霍金再抛人工智能威胁论:或招致人类灭亡
      央广网北京4月28日消息 据中国之声《新闻纵横》报道,人工智能在我国几乎已经成为“逢会必谈”的话题。昨天(27日)开幕的2017全球移动互联网大会上,主角不再是移动互联网本身,而是彻底让位给了人工智能。不过与以往相比,会上各位专家学者围绕人工智能的探讨,少了些故事和想象,多了些对出路和前景的现实思考。
      会上,通过视频发表演讲的英国著名物理学家斯蒂芬·霍金,再次指出人工智能的全方位发展,可能招致人类的灭亡。人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。这一记警钟引起了在场专家学者的广泛讨论。提到人工智能灭绝人类,似乎还是和普通人有一些距离。
      提到人工智能,大家想到的是:“跟阿尔法Go的象棋比赛”,“虚拟现实”,“我自己现在最常用的可能是语音输入”,“星球大战里的R2”,也有很多人会想到科幻电影。
      为什么提到人工智能大家想到的是科幻电影?或许因为电影中的人工智能才符合我们心目中对它的定义。国外一些专家将人工智能分为弱人工智能、强人工智能和超人工智能三个阶段。总体来看,目前人类人工智能还处于弱人工智能向强人工智能迈进的阶段,因此我们并不认为它会带来什么威胁。
      昨天(27日)开幕的2017全球移动互联网大会一开始,英国著名物理学家斯蒂芬·霍金发表了《让人工智能造福人类及其赖以生存的家园》的主题演讲。多次提醒过人类需要警惕机器将带来威胁的他,描述了超人工智能下的一种可能。“人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。我们无法知道我们将无限地得到人工智能的帮助,还是被蔑视并被边缘化,或者很可能被它毁灭。”
      听了大物理学家的表述,可能你认为人类随着科技发展就要走入穷途末路了。
      然而,稍后登台的创新工场创始人兼首席执行官李开复却认为,人工智能未来发展有很多机遇和挑战,毁灭人类或许可能,但从现今科技水平推断,还显得很遥远。相反,李开复认为当前最应该关注四个方面的核心话题,就显得离我们很近了。“第一,人工智能将创造巨大的财富,让人类第一次有机会脱离贫困;第二,我们要担心今天手中拥有巨大人工智能力量和数据的公司用这些数据来做恶;第三,要看到人工智能将要取代50%人的工作,在未来的十年到十五年之间,这些人怎么办?教育怎么办?第四,科学家尤其是学人工智能的科学家的使命与机会,是不是都要出来创业?还是我们一起跟着霍金去寻找人类的未来?”
      如果说霍金是从学者的角度,在计算人工智能超越人类的可能性,李开复正以一个参与者的视角,走入人工智能领域创新创业的进程。现阶段,人工智能正迎来爆发式增长,和李开复站在同一阵营的企业家有很多。
      当初的互联网风口也有人质疑这些是不是在讲故事,现如今人工智能已经遍地开花。百度总裁张亚勤在会上说,他们已经押宝人工智能,考虑实际应用模式。“我们把未来十年二十年,都压赌在人工智能上,首先要做一个操作系统,在上面建立生态,和整个产业合作,比如最近我们和很多家电企业、很多车厂都有合作。”
      百度做人工智能,有雄厚的财力支撑。但不少人工智能企业都是初创,老板也是科研人员,没有运营公司的经验。这种情况下,如何提高企业存活率?金山软件前首席执行官张宏江给出了建议。“思考从我是不是最新、是不是对于现有的技术有突破,转变成我的技术能不能实用、能不能为用户带来便利、能不能创造更大的效率。”
      提高了人工智能企业存活率,会不会像李开复提到的人们纷纷失业?人工智能替代掉的员工,出路又在哪儿?李开复给出了自己的答案。“综合性人才很重要,AI学习是一个领域一个领域地学习,学习下围棋、买股票、风控,并不能综合性地考量各种事情,比如一个地球学的专家加上一个化学的专家,可能会知道以后怎么去处理垃圾。或者是一个非常懂国际政治的人,懂中美关系的人,又懂得经济发展,把AI当作工具,这个人不会被取代。”
      这几年,“风口”这个词用得太多,从电商到VR再到直播,好像每隔一段时间,热点就要切换一下。这一方面是经济活力的体现,但同时也意味着大量的资源投入打了水漂。
      风口来也匆匆,去也匆匆,一个原因是功利心太强,不扎扎实实地积累技术,而是急着变现,迅速离场。如今人工智能又站上风口,大小企业加速布局。让人担心的是,一些缺乏核心竞争力的产品又草草推向了市场。比如机器人行业,已经出现了高端产业低端化的苗头。
      有投入就盼着有产出,这可以理解,但要知道,人工智能不能急着“开花结果”。人工智能是技术高度密集的一个领域,没有技术就没有竞争力。与此同时,市场的发育有自身的规律,不能靠概念炒作来“催熟”。所以,或许对于急于从人工智能领域里淘金的企业来说,还是先老老实实做研发更为现实。
      (2017-04-28 09:05:01)


      3楼2017-05-07 12:20
      回复
        【延伸阅读】英媒:霍金计划搭乘维珍银河公司航天器飞往太空
        参考消息网3月21日报道 英媒称,斯蒂芬·霍金教授有望乘坐理查德·布兰森爵士名下维珍银河公司的航天器进入太空。
        据英国《泰晤士报》网站3月20日报道,这位现年75岁的物理学家和宇宙学家说,他没想到能有机会去太空体验一番,但维珍银河公司的老板向他提供了一次机会。
        霍金教授对《早安,英国》节目说:“我可以告诉你什么能使我开心,那就是遨游太空。我原以为没人会带我去,但理查德·布兰森向我提供了维珍银河公司航天器上的一个座位,我立马就答应了。”
        霍金教授还谈论了对英国脱欧的担忧。他说,如果必须执行全民公投的结果,那么“也不应当实施保守党右翼人士希望看到的硬脱欧”。
        他说:“硬脱欧会导致我们被孤立,会让我们不再关心外部世界。相反,我们应当尽可能多地保留与欧洲以及世界其他地区尤其是中国的联系。”
        他警告称,离开欧洲“会威胁到英国作为全球科学和创新领导者的地位”。
        他还谴责了唐纳德·特朗普当选所代表的美国转向保守主义的趋势。他说:“我在美国有许多朋友和同事。美国在很多方面依然让我喜欢和欣赏。我还想再去美国,和其他科学家聊一聊,但我怕那里可能已经不欢迎我了。”
        (2017-03-21 11:44:00)


        4楼2017-05-07 12:21
        回复
          【延伸阅读】霍金再发惊人言论 人类已拥有毁灭地球的科技
          据英国《每日邮报》3月8日报道,斯蒂芬·霍金再发警告称,人类现在已经拥有的科技力量足以毁灭人类自身。人们需要共同努力才能解决这些问题,包括气候变化和疾病等环境威胁。他还提到人工智能和机器人抢了人类饭碗的危险。斯蒂芬·霍金警告,为了保卫人类的未来,必须对科技加以控制。过去就曾提到人工智能的危险,如今这位物理学家说,“世界政府”可能是我们唯一的希望。他说,我们的“逻辑和理性”可能是战胜核或生化战争威胁的唯一途径。他对《泰晤士报》说:“自从文明诞生以来,侵略性一直有用,因为它无疑具有生存优势。由于生物进化,侵略性已成为我们基因中固有的属性。然而,当今世界,科技已经进步得如此迅速,以至于这种侵略性可能通过核战争或生物战争的方式来摧毁我们所有人。我们需要借助我们的逻辑和理性控制这种本能。”他提出最适合的应对方式是“某种形式的世界政府”,但政府本身会产生更多问题,“可能变成暴政”。“所有这些可能听上去有点末日论的意味,但我是乐观主义者。我认为人类将会奋起迎接这些挑战。”
          最近,这位剑桥大学物理学教授指出人口过多、气候变化和疾病是我们地球面临的几大威胁。他说我们已经开发了可以摧毁地球的技术,我们必须“重新训练”,迎接这个机器人取代人类完成许多日常工作的新世界。在《卫报》的评论文章中,霍金教授解释了他对地球未来的担忧。他说:“对我来说,真正让我忧虑的是现在比历史上任何时候都需要我们这个物种团结合作。我们面临着极其严峻的环境挑战:气候变化、粮食生产、人口过剩、其他物种的灭绝、流行病、海洋酸化。”
          这些挑战提醒我们,人类发展已经到了最危险的时刻。“我们现在拥有毁灭我们所居住的地球的科技,但还没有发展到具备能够逃离地球的能力。也许几百年后,我们将在外星建立人类的殖民地,但现在我们只有一个星球,我们需要共同努力保护它。”霍金此前向世界发出过警告,机器人可能毁灭人类,离开地球是我们唯一的希望,我们留在地球上的日子不多。9月,他警告说,因为战争或疾病的威胁,我们的地球正在成为一个危险的地方。“我相信,地球上的生命正面临越来越大的风险,将会被突然降临的灾难毁灭,例如突然爆发的核战争、转基因病毒或其他危险。”
          “我认为除了上太空,人类就没有未来。”霍金教授今年早些时候发表过类似言论。1月7日霍金录制了BBC一年一度的里斯讲座。这次讲座探讨了黑洞领域的研究,他是在观众团提问时发出的警告。当被人问及世界未来将如何时,霍金说,人类面临的威胁将越来越多地来自科技进步。他说,“我们不可能阻止科技进步或者逆转科技,所以我们必须认识到危险并控制它们。”为了摆脱这些威胁,人类将必须殖民其他行星,而霍金认为这将需要一个多世纪。“至少在未来的一百年里,我们无法在太空建立自给自足的殖民地,所以我们在此期间就必须非常小心”。
          7月,霍金教授和特斯拉创始人埃隆·马斯克携1000名机器人专家在一封公开信中警告说:“自动化武器将成为明天的AK47。”埃隆·马斯克去年说,如果我们是一个多行星物种而不是单行星物种,那么人类文明的生命周期就要长得多。如果我们是一个单一星球物种,那么最终还是会有某个物种灭绝事件的。他的公司SpaceX正在努力将人类送到太空。上周,该公司测试发射了新的猛禽星际运输系统,打算将宇航员送上火星。这种火箭的发动机比猎鹰9号火箭上的发动机强3倍。它将最终被用于发射SpaceX载人航天器。SpaceX公司ceo马斯克说,这种火箭最终能够在382秒内产生690000磅(一磅等于 0.4536公斤)的推力。发动机使用液体甲烷和液氧而不像猎鹰9号火箭中以煤油提供动力。
          本周,美国参议院提出一项议案,授权再提供195亿美元(1美元约合6.92元人民币)预算给美国国家航空航天局,送航天员上火星,但要求在25年内实现。
          (2017-03-11 06:52:40)


          5楼2017-05-07 12:24
          回复
            【延伸阅读】霍金称人类离灭绝不足1000年:不去太空没前途
            参考消息网11月16日报道 据《每日邮报》报道,著名英国物理学家斯蒂芬·霍金称,人类还能在世界上生存不到1000年。
            据俄罗斯“卫星”新闻通讯社网站11月16日报道,这位74岁的教授在牛津大学演讲时发出了这样的声明。在他呼吁科学家们要显示出对太空探索和太空旅行的兴趣后,获得了雷鸣般的掌声。
            霍金习惯地细数了可能会导致人类灭绝的威胁。据他介绍,由于基因工程病毒或人工智能的发展,人类生命可能在核战中消亡。与此同时,他称,人类能接近理解掌管宇宙的规律是巨大成就。
            霍金称,“人类不飞向太空是没有前途的。因此我想唤起去往太空的大众兴趣,而且我会进行训练,以飞向那里”。
            (2016-11-16 11:05:38)
            凡注明“来源:参考消息网”的所有作品,未经本网授权,不得转载、摘编或以其他方式使用。
            (原标题:英媒:霍金警告人类 若想生存必须在100年内逃离地球_《参考消息》官方网站)


            6楼2017-05-07 12:25
            回复
              霍金的理念不无道理,也不是骇人听闻。小行星撞击地球那是无法阻止的天灾大难,可若说人祸造成也绝非危言耸听。地球被严重污染,一些新型高毒性传染病、有毒物质及人口过多等因素难道不是现实吗
              ?一些拥核国家更是威胁人类生存的巨大杀手。。。


              7楼2017-05-07 12:28
              回复
                霍金的理念不无道理,也不是骇人听闻。小行星撞击地球那是无法阻止的天灾大难,可若说人祸造成也绝非危言耸听。地球被严重污染,一些新型高毒性传染病、有毒物质及人口过多等因素难道不是现实吗
                ?一些拥核国家更是威胁人类生存的巨大杀手。。。


                来自Android客户端8楼2017-05-07 12:28
                回复
                  可能人类令文明守望者失望而灭绝人类的可能,就是有侵略性的文明如果踏出星球就將是一场灾难,我们现在科技最发达的国家却是白人殖民者在控制,所以有可能美国人踏出星球的时候就是我們人类的死期,除非我们全世界联合赶紧正义的把白人殖民者从地球上消灭


                  来自iPhone客户端10楼2017-06-23 11:44
                  回复