| 首页| 金蟾捕鱼下载| 金蟾捕鱼官方网站| 金蟾捕鱼游戏平台下载| 金蟾捕鱼下载官网| 金蟾捕鱼手机版| 金蟾捕鱼官方版| 金蟾捕鱼游戏下载| 金蟾捕鱼官网| 金蟾捕鱼游戏在线玩| 金蟾捕鱼在线|
大发游戏平台开户官网 - 人类末日风险评估:全球性瘟疫恐随时爆发,人工智能军队将终结文明

发稿时间:2020-01-08 17:18:46 来源:本站

大发游戏平台开户官网 - 人类末日风险评估:全球性瘟疫恐随时爆发,人工智能军队将终结文明

大发游戏平台开户官网,在不久前的一篇封面报道中,《连线》(wired)杂志英国版采访了地球的守护者:一支努力保护这个星球免受末日威胁的学者队伍。

这支队伍中有受过高等教育的专家、律师、学者和哲学家,他们组成了生存风险研究中心(centre for the study of existential risk,简称cser)以及莱弗休姆未来智能研究中心(leverhulme centre for the future of intelligence,简称cfi)。这些人聚在一起对地球及人类面临的种种系统性风险进行评估,并研究了我们如何才能将人类文明从即将来临的末日中拯救出来。

以下是这些专家眼中最紧迫的九大威胁。但不用担心,我们对每一种威胁都有一套应对计划。

机器进化出优于以及独立于人类的智能,这是末日威胁研究社群最重要的关注点之一。

牛津大学哲学教授尼克·博斯特罗姆(nick bostrom)称,从农业革命到工业革命,人类过往的技术革命是在不断加速的,不出意外的话,人工智能这趟列车“可能不会在人类文明这一站停留乃至减速”。他预测,到2075年时,机器将拥有相当于人类90%的智能。

正如生命未来研究所联合创始人塔林(tallinn)指出的,这个威胁的紧迫性还有另一层原因:人工智能崛起的风险会加剧其他所有风险。换句话说,地球面临着这样一种威胁,即智能机器人可能脱离人类控制,摧毁生态环境,或者制造核冬天。

这个领域的研究有形而上的(我们应该让人工智能的道德观念跟人类保持一致吗?如果是这样,人类的道德观念又是什么呢?),也有形而下的(我们如何对自动化武器进行监管?)。

这些研究也存在很多争议,一些研究人员认为,人工智能不会构成末日威胁。关于末日威胁的说法并不是它会,而是它能。因此,人工智能在末日威胁研究社群的议程中排名很靠前。

潜在爆发日期:2075年

末日威胁等级:非常高

一种可能性是,一个心怀不满的人可能制造或盗取病毒,并在世界范围内散播。

自然存在和人为制造的大瘟疫是被研究最多的全球性威胁之一。“功能获得”(gain of function)实验引起的争议为这个领域的研究赋予了新的紧迫性,这些实验涉及操纵一种已知的病原体,为其添加具有风险的额外能力。

举例来说,在2011年,病毒学家罗恩·富希耶(ron fouchier)跟河冈义裕(yokhihiro kawaoka)制造了一种可以在雪貂之间传播的禽流感病毒毒株。他们这样做是为了更好地了解病毒在野外进化出可传播性的条件。这样的实验可以避免某些风险,但也带来了一种更大的风险,即经过改造的病毒可能逃出实验室,制造全球性的大瘟疫。

这其中的风险特别巨大,因为病毒可以进行自我复制。核爆炸的影响或许还是区域性的,而在这个高度连通的世界中,没有解药的病毒却可能在数天之内传遍全球。在过去,像黑死病那样的自然瘟疫造成了数百万人的死亡,并引发了大规模的社会变革。在21世纪,先进的生物技术可能制造出的大瘟疫会让黑死病显得只是不值一提的小感冒。

人类未来研究所对所谓的“管道风险”进行了研究,即这些病毒如何可能逃脱出去。一种可能性是,一个心怀不满的人——也许是实验室的雇员——可能制造或盗取病毒,并在世界范围内散播。研究人员兼作家安德斯·桑德伯格(anders sandberg)正在撰写一篇论文,探讨那些电影大反派式的人物想要毁灭人类的动机。

“研究其实举步维艰,因为几乎没有人想要这样做,可供研究的原始资料极少。”桑德伯格说道。这迫使他分析宗教和邪教在多大程度上可能去煽动大屠杀(据桑德伯格称,大多数教派都不会)。在cser进行类似的研究时,他们得出了一个关于当前状况的重要洞见:生物技术实验室目前都没有制定对雇员进行心理分析的规定。

潜在爆发日期:现在

末日威胁等级:很高

目前,韩国已经在朝韩边境部署了武装机器人哨兵,因此可以毫不夸张地说,自动化武器已经被投入使用。我们不难想象,这些武器的未来版本将能够使用面部识别软件来追捕目标,而3d打印技术将让军阀、极端无政府主义者或恐怖分子得以轻松地储备武器。

一如既往,这里面存在一个悖论。在过去的国与国战争中,国家需要制造破坏力超强的武器来攻城略地,并派遣军人开展军事行动,这就会导致种种与战争无关的折磨与非理性行为。而机器人武装可以进行精确打击,机器人士兵也不会遭受折磨或者威胁无辜平民。

然而,这些武器也将变得又小又便宜,其所有权不再被国家垄断,军事力量也将不再是举国规模,正如塔林所言:“有可能5个人拉着两卡车微型自动化武器就能摧毁整个城市。在那样的世界中,有可能你一早醒来就看到新闻说,又有一连串城市被摧毁了,但是却没有人能够确定发动袭击的幕后黑手是谁。”

如果这听起来很可怕,那么再想想,如果一个危险的超级人工智能控制了这些机器人武装的话……

潜在爆发日期:随时

末日威胁等级:低

虽然人们对核战争的讨论已经远远少于冷战期间,但成千上万的核武器仍然处于随时待命状态,而且拥核国家之间也存在剑拔弩张的局势,比如克什米尔和乌克兰。

全球灾难性风险研究所(global catastrophic risk institute,简称gcri)正密切关注这个课题,并尤其关注俄罗斯和美国爆发意外战争的可能性,这两个国家拥有世界上90%的核武器。所谓意外战争,可能就是一方错认虚假警报,发动真实攻击进行报复。在gcri研究的90%的场景中,意外战争爆发的年度概率在0.07至0.00001之间。从逻辑上讲,0.07这个数字意味着,意外的核战争平均每14年可能爆发一次。

除了那些不幸成为轰炸目标的人之外,核打击带来的辐射不一定会对整个人类造成威胁。只有当足够多的城市(大约100个)遭到轰炸,让烟尘弥漫平流层,阻挡太阳的热量并降低地球温度,我们才会真正面对来自核冬天的威胁。

这种人为制造的冬天会减少受影响地区的粮食产量。如果这种事发生在美国、俄罗斯和欧洲,那么粮食减产就足以引发世界其余完好国家和地区的崩溃,从而造成人类文明终结。

潜在爆发日期:随时

末日威胁等级:低至中等

气候变化是cser研究的主要课题之一,但一些末日威胁研究人员认为,这个问题并非一个十分紧迫。根据桑德伯格的说法,因为“这个问题太小了”。这在一定程度上是因为,已经有很多其他人在研究这个课题,以及气候变化构成威胁这个事实已然深入人心——但自相矛盾的是,这也是因为其中存在太多的未知数。“情况可能是,我们会在本世纪研发出能够解决气候变化问题的技术。”桑德伯格说,“但话说回来,我们也可能研发出让情况变得更糟糕的技术。我们不知道人类活动会造成多大的温度变化,因此我们实际上很难准确地对预测进行建模。”

对于很多通常跟气候变化联系在一起的潜在灾难性影响,那些研究末日威胁的人都兴致缺缺。然而,除了温度上升导致大量人群死于中暑(这种事情不大可能发生),气候变化的最大威胁在于它有可能导致人工和自然基础设施崩溃——例如,一个物种因气候变化灭绝,继而通过连锁反应摧毁一个生态系统。换句话说,气候变化最终可能是通过由其导致的疫病或者因资源日益减少而爆发的核战争来消灭人类的。

潜在爆发日期:随时

末日威胁等级:低至中等

如果不是有大气层的话,地球将不断遭到小行星的轰炸,因为大气层有能力烧尽任何直径不足10米的东西。这是非常有用的,因为即使一颗直径10米的陨石也能积聚起相当于广岛原子弹的动能。地球每1,000年就会遭受一两次直径超过10米的小行星或彗星的撞击,每100万年则会被一颗直径至少达到1千米的小行星撞上,那足以影响地球的气候,并导致作物歉收,继而危及人口安全。

真正达到灭世级别的撞击事件——比如在大约6,600万年前灭绝恐龙的希克苏鲁伯陨石,它撞出的陨石坑直径达到了180千米——每5,000万至1亿年才会出现一次。这可能足以引起我们的担忧,但有两个事实会让人感到安心:第一,天文学家密切监视着可能对地球构成威胁的大个头天体;第二,有一个完整的跨学科科学家社群在研究这些天体逼近地球时的对策。

天文学家负责寻找小行星,数学家负责计算它们的飞行轨道,地球物理学家负责思考它们带来的撞击以及造成的影响,太空工程师则负责想出让它们转向的最好办法。我们潜在的应对策略包括:发射飞船把小行星涂成容易反射太阳风的白色,进而利用其反作用力推动小行星偏离原来的轨道;利用引力牵引航天器把小行星推开;用航天器撞击小行星;以及利用激光器或核炸弹轰击小行星。

潜在爆发日期:5,000万至1亿年

末日威胁等级(在2017年):低

为了对一些复杂的风险进行准确计算,末日威胁研究人员必须把自己所知的限制考虑在内。在这方面的研究中,最深奥难懂的是这样一种假说,即我们可能远非宇宙中最聪明的生命形式(至少在计算机超越我们之前),实际上只是棋盘上受人操纵而不自知的小卒子。

这种模拟假说认为,人类及其全部历史和文化只是一种更高实体进行的一场实验或游戏,正如电影《楚门的世界》(the truman show)探讨的那样。博斯特罗姆表示,fhi对这种假说进行了研究,因为它是“对我们关于未来以及自身在世界位置潜在想法的一种限制”。

类似的概念还有“玻尔兹曼大脑”(boltzmann brain),这个以物理学家路德维希·玻尔兹曼(ludwig boltzmann)命名的术语是在2004年被创造出来的。从本质上讲,这种理论认为,人类只是多元宇宙中物质的一种随机集合,而多元宇宙中还有很多我们无从了解的事物。量子力学表明,最小单位的能量偶尔会产生一个物质粒子。因此,鉴于时间的无限性,它们有可能随机产生一个拥有自我意识的大脑,但这个大脑不一定能够理解任何超出自身经验的东西。

一些支持者利用这个概念来解释为什么宇宙看起来如此有序,其他哲学家和科学家则在努力证明为什么玻尔兹曼大脑不可能存在。“几乎没什么人把玻尔兹曼大脑当回事。”桑德伯格说,“但这是一个令人讨厌的问题。”科学家很少把这当成末日风险进行研究,一定程度上是因为,即便模拟假说是真的,我们也无计可施。

潜在爆发日期:不可知

末日威胁等级:很低

到2050年,全球人口预计达到96亿。一些观察人士认为,为了避免大规模的饥荒,我们将需要在短短30年里让食物产量增长70%。其挑战在于,推动食物产量增长的现有技术——从上世纪50年代以来,这些技术帮助人类跟上了人口增长的步伐——主要是依靠化石燃料。而且,可耕种的土地也由于表土侵蚀等因素在不断减少。

此外,还有风险直接跟我们食用的食物性质有关。学界普遍认为,人类将需要多吃谷物少吃肉。然而,尽管作物技术的进步已经让人们培育出可以在贫瘠土地生长的品种,但它们也增加了作物患病的风险。举例来说,作为全球第三流行的谷物作物,小麦可能被真菌感染消灭——合成病毒的出现只会进一步增加灾难爆发的风险。

通常情况下,食物短缺会导致骚乱和政治动荡。但令人惊讶的是,人们对食物短缺可能造成的社会崩溃并未做过多少研究。

潜在爆发日期:2050年

末日威胁等级:高

一位心怀忧虑的生物化学家向欧盟和美国法庭提出上诉,试图在大型强子对撞机(lhc)开机前阻止实验进行。

在末日威胁分析的深奥世界中,技术上存在可能性的末日场景跟科幻作品中的猜想是存在一个交集区的,而粒子加速器事故就是其中一例。

在过去十年间,一直有人猜测,加速器中的粒子碰撞可能会引起某种反应,最终改变所有物质的构成以及物理定律。近来,一些学者提出,我们此前所认为的真空其实还包含有粒子,宇宙中并不存在一种什么都没有的“真真空”。他们认为,真真空有可能以光速吞噬宇宙,这个过程被称为真空衰变。之所以没有发生这种衰变,是因为真空处于一种元稳定状态,而粒子加速器有可能扰乱它,致使其吞噬一切,灭绝我们的世界。一些物理学家不认同这种理论,他们称,地球一直在经受宇宙射线的轰击,而在改变物质方面,这些射线可能拥有比对撞机更强的能量。他们认为,地球仍然存在,所以它必然足够强大。

博斯特罗姆的博士论文对此进行了探讨,即我们自己的立场会扭曲概率计算。他的研究称,我们的存在并不能用来证明这种衰变的不可能性,因为过去有可能已经有数百万颗其他地球被吞噬了。

翻译:何无鱼

来源:wired

造就:剧院式的线下演讲平台,发现最有创造力的思想

世界赌场赌博


© Copyright 2018-2019 expoludica.com 金蟾捕鱼官方网站 Inc. All Rights Reserved.