人类生存面临的五大威胁

人类生存面临的五大威胁

在人类当前面临的“危机”的日常喧嚣中,我们忘记了我们希望的后代。不是那些 200 年后的人,而是 1000 年后或 10000 年后的人。我使用“希望”这个词是因为我们面临着威胁人类灭亡的风险,即生存风险。这些风险不仅仅是大灾难,还有可能终结历史的灾难。

但并非所有人都忽视了遥远的未来。诺查丹玛斯等神秘主义者经常试图计算世界末日。赫伯特·乔治·威尔斯试图发展一门预测科学,并在《时间机器》一书中描绘了人类遥远的未来。其他作家也构建了其他长期未来来警告、娱乐或推测。

但如果这些先驱者或未来学家没有思考人类的未来,结果也不会改变。人类处于他们的位置,几乎无法拯救我们免于生存危机,甚至无法引发危机。

如今,我们处于更有利的地位。人类活动一直在稳步塑造地球的未来。尽管我们远不能控制自然灾害,但我们正在开发可能有助于减轻或至少应对这些灾害的技术。

未完成的未来

然而,这些风险仍未得到充分研究。人们对它们有一种无能为力和宿命论的感觉。几千年来,人们一直在谈论世界末日,但很少有人试图阻止它们。人类也不擅长对尚未发生的问题采取任何行动(部分原因是可用性启发法——倾向于高估我们已知事件的概率,而低估我们无法轻易回忆起的事件)。

如果人类灭绝,至少损失相当于所有活着的个体的消失和他们目标的落空。但损失可能远不止于此。人类灭绝意味着过去几代人创造的意义、所有后代人的生命(未来生命的数量可能是一个天文数字)以及他们可能创造的所有价值的消失。如果意识或智慧消失,这可能意味着价值本身从宇宙中消失。这是一个巨大的道德原因,让我们努力防止生存威胁成为现实。在这一追求中,我们决不能失败。

考虑到这一点,我选出了我认为对人类生存最大的五大威胁。但必须牢记一些注意事项,因为这份名单并不是最终的。

在过去的一个世纪里,我们发现或创造了新的生存风险——20 世纪 70 年代初发现了超级火山,在曼哈顿计划之前,核战争是不可能发生的——所以我们应该期待其他风险的出现。此外,随着我​​们了解得更多,一些今天看起来很严重的风险可能会消失。概率也会随着时间的推移而改变——有时是因为我们担心风险并加以解决。

最后,仅仅因为某件事可能发生并且具有潜在危险,并不意味着它值得担心。有些风险我们根本无能为力,比如星系爆炸产生的伽马射线爆发。但如果我们认识到我们可以做些什么,优先事项就会改变。例如,随着卫生设施、疫苗和抗生素的出现,瘟疫从天灾变成了公共卫生问题。

1.核战争

虽然迄今为止只有两枚核武器在战争中使用过——第二次世界大战的广岛和长崎——而且核储备也较冷战时期的峰值有所下降,但认为核战争不可能发生是错误的。事实上,核战争并非不可能。

古巴导弹危机几乎演变成核战争。如果我们假设每 69 年发生一次此类事件,并且有三分之一的几率最终演变成核战争,那么发生此类灾难的几率将上升到每年约 200 分之一。

更糟糕的是,古巴导弹危机只是最广为人知的案例。苏美核威慑的历史充满了惊险和危险的错误。实际概率会随着国际紧张局势而变化,但每年发生的可能性远低于千分之一似乎不太可能。

大国之间爆发全面核战争将直接或在战争后果中导致数亿人丧生——这是一场难以想象的灾难。但这还不足以使其成为一种生存风险。

同样,放射性尘埃的危害也经常被夸大——在当地可能致命,但在全球范围内问题相对有限。钴弹曾被设想为一种假想的末日武器,它会用放射性尘埃杀死所有人,但实际上制造起来既困难又昂贵。而且从物理上讲,它们几乎不可能实现。

真正的威胁是核冬天——即烟尘上升到平流层,导致全球多年变冷、变干。现代气候模拟显示,核冬天可能导致全球大部分地区多年无法进行农业生产。如果发生这种情况,数十亿人将饿死,只留下零星的幸存者,他们可能会被疾病等其他威胁夺去生命。主要的不确定性在于烟尘会如何表现:根据烟尘的种类,结果可能大不相同,而我们目前还没有很好的方法来估计这一点。

2. 生物工程大流行

自然流行病造成的死亡人数比战争还多。然而,自然流行病不太可能对人类构成生存威胁:通常有些人对病原体有抵抗力,幸存者的后代抵抗力更强。进化也不利于消灭宿主的寄生虫,这就是为什么梅毒在欧洲蔓延时从一种致命的杀手变成了一种慢性疾病。

不幸的是,我们现在可以让疾病变得更加严重。其中一个最著名的例子是,在鼠痘(鼠痘是天花的鼠版本)中引入一个额外的基因,使其更加致命,并能够感染接种疫苗的人。最近对禽流感的研究表明,疾病的传染性可以故意增强。

eneas,CC BY

目前,有人故意释放破坏性物质的风险很低。但随着生物技术越来越先进、越来越便宜,越来越多的团体将能够让疾病恶化。

大多数生物武器研究都是由政府完成的,他们希望找到一种可控的方法,因为从军事角度来说,消灭人类是没有用的。但总有一些人可能想做点什么,因为他们可以。其他人有更高的目的。例如,除了更成功的神经毒气袭击之外,奥姆真理教还试图使用生物武器加速世界末日。有些人认为没有人类,地球会更好,等等。

生物武器和流行病爆发袭击造成的死亡人数似乎呈幂律分布——大多数袭击只造成少数人死亡,但少数袭击造成许多人死亡。从目前的数字来看,生物恐怖主义造成全球大流行的风险似乎很小。但这只是生物恐怖主义:政府用生物武器杀死的人比恐怖分子多得多(二战日本生物战计划可能造成多达 40 万人死亡)。随着未来技术越来越强大,更可怕的病原体将更容易设计出来。

3.超级智能

智力非常强大。解决问题的能力和群体协调能力的微小提升是我们让其他猿类望尘莫及的原因。现在它们的继续生存取决于人类的决定,而不是它们所做的事情。聪明对个人和组织来说是一个真正的优势,因此我们付出了很多努力来寻找提高个人和集体智力的方法:从增强认知的药物到人工智能软件。

问题在于,智能实体善于实现目标,但如果目标设定不当,它们就会巧妙地利用自己的力量实现灾难性的结果。没有理由认为智能本身会让某些事物表现得友善而道德。事实上,可以证明某些类型的超级智能系统不会遵守道德规则,即使这些规则是正确的。

更令人担忧的是,在试图向人工智能解释事物时,我们遇到了深刻的实际问题和哲学问题。人类价值观是分散而复杂的东西,我们不擅长表达,即使我们能做到这一点,我们也可能无法理解我们所希望的一切含义。

shiborisan,CC BY-NC-ND

基于软件的智能可能很快就会从低于人类的水平发展到令人生畏的强大。原因在于,软件智能的扩展方式可能不同于生物智能:它可以在更快的计算机上运行得更快,部件可以分布在更多计算机上,可以随时测试和更新不同版本,并结合新算法,从而大幅提升性能。

有人提出,当软件变得足够好,能够编写更好的软件时,就有可能出现“智能爆炸”。如果出现这样的飞跃,智能系统(或告诉它做什么的人)和世界其他地方的潜在力量将有很大的差异。如果目标设定得不好,这显然有可能导致灾难。

超级智能的特别之处在于,我们不知道是否可能出现快速而强大的智能爆炸:也许我们目前的整个文明正在以最快的速度自我改进。但有充分的理由认为,某些技术可能会加速发展,速度远远超过当前社会所能应对的速度。同样,我们无法很好地掌握不同形式的超级智能到底有多危险,也不知道哪些缓解策略真正有效。我们很难推断我们尚未拥有的未来技术,或者比我们更强大的智能。在这份清单上的风险中,这最有可能巨大的,也可能只是海市蜃楼。

这是一个研究不足的领域。即使在 50 年代和 60 年代,当人们非常有信心超级智能可以在“一代人之内”实现时,他们也没有过多考虑安全问题。也许他们没有认真对待他们的预测,但更有可能的是,他们只是把它看作是一个遥远的未来问题。

4.纳米技术

纳米技术是指以原子或分子精度控制物质的技术。纳米技术本身并不危险,相反,对于大多数应用来说,纳米技术都是个好消息。问题在于,与生物技术一样,功率的增加也增加了滥用的可能性,而滥用的可能性很难防范。

最大的问题不是臭名昭著的“灰色粘质物”,即自我复制的纳米机器吞噬一切。这需要为此目的进行巧妙的设计。让机器复制很难:默认情况下,生物在这方面做得更好。也许一些疯子最终会成功,但破坏性技术树上还有更多唾手可得的果实。

gi, CC BY-SA

最明显的风险是,原子级精确制造看起来非常适合快速、廉价地制造武器等物品。在一个任何政府都可以“打印”大量自主或半自主武器(包括制造更多武器的设施)的世界里,军备竞赛可能会变得非常快——因此也不稳定,因为在敌人获得太大优势之前进行先发制人打击可能很诱人。

武器也可以是小型的、精密的物体:一种“智能毒药”,其作用类似于神经毒气,但会寻找受害者,或者一种无处不在的“蚊虫”监视系统,用于让民众服从,这似乎是完全有可能的。此外,可能还有办法让任何想要的人掌握核扩散和气候工程。

我们无法判断未来纳米技术可能带来的生存风险,但它看起来可能会带来破坏性的影响,因为它可以给我们任何我们想要的东西。

5. 未知的未知数

最令人不安的可能性是,外面存在着某种非常致命的东西,而我们对此却一无所知。

天空中的寂静或许就是证据。外星人的缺席是因为生命或智慧极其稀少,还是因为智慧生命往往会被消灭?如果未来有大筛选,其他文明一定也注意到了,即便如此也无济于事。

愤怒吐司, CC BY-NC

无论威胁是什么,它都必须是即使你知道它存在也几乎无法避免的,无论你是谁、从事什么职业。我们不知道有任何此类威胁(此列表中的其他威胁都不是这样的),但它们可能存在。

请注意,仅仅因为某事未知并不意味着我们不能推理它。在一篇出色的论文中,Max Tegmark 和 Nick Bostrom 表明,根据地球的相对年龄,某些风险的发生概率必须小于每年十亿分之一。

您可能想知道为什么气候变化或陨石撞击没有列入这个名单。无论气候变化多么可怕,它都不太可能使整个地球无法居住(但如果我们的防御能力崩溃,它可能会加剧其他威胁)。陨石肯定会将我们消灭,但我们的运气一定很差。哺乳动物的平均寿命约为一百万年。因此,自然灭绝的背景率大约是每年百万分之一。这比核战争风险要低得多,而核战争风险在 70 年后仍然是我们继续生存的最大威胁。

可用性启发法使我们高估了媒体上经常报道的风险,并低估了前所未有的风险。如果我们想在一百万年后继续存在,就需要纠正这一点。

安德斯·桑德伯格 (Anders Sandberg) 在牛津大学人类未来研究所工作。

本文最初发表于 The Conversation。阅读原文。

<<:  如何证明光可以转化为物质

>>:  众筹对科学有益。出售空间则无益。

推荐阅读

《幻想儿童》的魅力与评价:彻底解读这部幻想动画杰作

神奇的孩子们——跨越时空的冒险与爱的故事■作品概要《神奇的孩子们》是一部 26 集动画系列,于 20...

对于您列表中的探险者:4K 夜视双筒望远镜现减价 70 美元

为你生活中的冒险家找到完美的节日礼物并不总是那么容易。袜子?无聊。多功能工具?可以预见。这款 4K ...

《Nandemo Q Mushimushi Q》的魅力与评价:不容错过的动漫体验

《Anything Q:虫虫Q》:孩子们喜爱的昆虫世界《Nandemo Q:Mushi Mushi ...

OpenAI 解散了致力于防止流氓人工智能的团队

OpenAI 解散了其“超级协同团队”,该团队的任务是在宣布成立后不到一年内抵御人工智能可能带来的生...

你应该将 iPad 用作第二个屏幕

当你习惯了多台显示器后,你会觉得没有它们就无法工作。但这些设备不像你值得信赖的 MacBook 那样...

有了这项终身备份计划,2023 年的存储空间再也不会用完——限时 90% 以上的折扣

您是否经常尝试下载应用程序或拍照,然后设备通知您数据已用完?这种情况对我们许多人来说都很常见。Deg...

利用[状态异常技能]成为最强者!从弱势到强势,我的称霸之路

“直到我用未使用的异常状态技能成为最强并摧毁一切”——异世界奇幻的新魅力于2024年夏季动画季上映的...

经过家长测试的带幼儿飞行计划

对于没有带孩子的旅行者来说,目标是从 A 点到达 B 点。当你带着一个小孩时,挑战就变成了在混乱的飞...

变形金刚超神大师之力:必看动漫指南

变形金刚超神大师之力-终极机器人动漫的魅力与全貌介绍“变形金刚”系列在 20 世纪 80 年代末期在...

《剑风传奇》第一季的黑暗与激烈战斗魅力:全面回顾

剑风传奇(第一季)全面评论与推荐概述《剑风传奇》是改编自三浦健太郎同名黑暗幻想漫画的电视动画,于20...

UFO 阴谋可能比你想象的更危险

不明飞行物研究的元老们在相对线下的生活里长大,他们经常在会议或当地研究会议上聚会。他们经常挖掘调查特...

这张不祥的图片展示了一颗行星的诞生

距地球 520 光年的地方,一颗新生行星诞生了。虽然迄今为止已发现数千颗系外行星,但位于智利的欧洲南...

14 岁少年如何成为实现核聚变最年轻的人

这篇故事刊登在 2012 年 3 月的《大众科学》杂志上,报道了当时 16 岁的泰勒·威尔逊的核聚变...

交通安全动画片《别跳出去!》评价及推荐点

交通安全:别跳出去!概述“道路安全:不要跳出去!”是1999年发行的OVA。这是一部以道路安全为重点...