人类生存面临的五大威胁

人类生存面临的五大威胁

在人类当前面临的“危机”的日常喧嚣中,我们忘记了我们希望的后代。不是那些 200 年后的人,而是 1000 年后或 10000 年后的人。我使用“希望”这个词是因为我们面临着威胁人类灭亡的风险,即生存风险。这些风险不仅仅是大灾难,还有可能终结历史的灾难。

但并非所有人都忽视了遥远的未来。诺查丹玛斯等神秘主义者经常试图计算世界末日。赫伯特·乔治·威尔斯试图发展一门预测科学,并在《时间机器》一书中描绘了人类遥远的未来。其他作家也构建了其他长期未来来警告、娱乐或推测。

但如果这些先驱者或未来学家没有思考人类的未来,结果也不会改变。人类处于他们的位置,几乎无法拯救我们免于生存危机,甚至无法引发危机。

如今,我们处于更有利的地位。人类活动一直在稳步塑造地球的未来。尽管我们远不能控制自然灾害,但我们正在开发可能有助于减轻或至少应对这些灾害的技术。

未完成的未来

然而,这些风险仍未得到充分研究。人们对它们有一种无能为力和宿命论的感觉。几千年来,人们一直在谈论世界末日,但很少有人试图阻止它们。人类也不擅长对尚未发生的问题采取任何行动(部分原因是可用性启发法——倾向于高估我们已知事件的概率,而低估我们无法轻易回忆起的事件)。

如果人类灭绝,至少损失相当于所有活着的个体的消失和他们目标的落空。但损失可能远不止于此。人类灭绝意味着过去几代人创造的意义、所有后代人的生命(未来生命的数量可能是一个天文数字)以及他们可能创造的所有价值的消失。如果意识或智慧消失,这可能意味着价值本身从宇宙中消失。这是一个巨大的道德原因,让我们努力防止生存威胁成为现实。在这一追求中,我们决不能失败。

考虑到这一点,我选出了我认为对人类生存最大的五大威胁。但必须牢记一些注意事项,因为这份名单并不是最终的。

在过去的一个世纪里,我们发现或创造了新的生存风险——20 世纪 70 年代初发现了超级火山,在曼哈顿计划之前,核战争是不可能发生的——所以我们应该期待其他风险的出现。此外,随着我​​们了解得更多,一些今天看起来很严重的风险可能会消失。概率也会随着时间的推移而改变——有时是因为我们担心风险并加以解决。

最后,仅仅因为某件事可能发生并且具有潜在危险,并不意味着它值得担心。有些风险我们根本无能为力,比如星系爆炸产生的伽马射线爆发。但如果我们认识到我们可以做些什么,优先事项就会改变。例如,随着卫生设施、疫苗和抗生素的出现,瘟疫从天灾变成了公共卫生问题。

1.核战争

虽然迄今为止只有两枚核武器在战争中使用过——第二次世界大战的广岛和长崎——而且核储备也较冷战时期的峰值有所下降,但认为核战争不可能发生是错误的。事实上,核战争并非不可能。

古巴导弹危机几乎演变成核战争。如果我们假设每 69 年发生一次此类事件,并且有三分之一的几率最终演变成核战争,那么发生此类灾难的几率将上升到每年约 200 分之一。

更糟糕的是,古巴导弹危机只是最广为人知的案例。苏美核威慑的历史充满了惊险和危险的错误。实际概率会随着国际紧张局势而变化,但每年发生的可能性远低于千分之一似乎不太可能。

大国之间爆发全面核战争将直接或在战争后果中导致数亿人丧生——这是一场难以想象的灾难。但这还不足以使其成为一种生存风险。

同样,放射性尘埃的危害也经常被夸大——在当地可能致命,但在全球范围内问题相对有限。钴弹曾被设想为一种假想的末日武器,它会用放射性尘埃杀死所有人,但实际上制造起来既困难又昂贵。而且从物理上讲,它们几乎不可能实现。

真正的威胁是核冬天——即烟尘上升到平流层,导致全球多年变冷、变干。现代气候模拟显示,核冬天可能导致全球大部分地区多年无法进行农业生产。如果发生这种情况,数十亿人将饿死,只留下零星的幸存者,他们可能会被疾病等其他威胁夺去生命。主要的不确定性在于烟尘会如何表现:根据烟尘的种类,结果可能大不相同,而我们目前还没有很好的方法来估计这一点。

2. 生物工程大流行

自然流行病造成的死亡人数比战争还多。然而,自然流行病不太可能对人类构成生存威胁:通常有些人对病原体有抵抗力,幸存者的后代抵抗力更强。进化也不利于消灭宿主的寄生虫,这就是为什么梅毒在欧洲蔓延时从一种致命的杀手变成了一种慢性疾病。

不幸的是,我们现在可以让疾病变得更加严重。其中一个最著名的例子是,在鼠痘(鼠痘是天花的鼠版本)中引入一个额外的基因,使其更加致命,并能够感染接种疫苗的人。最近对禽流感的研究表明,疾病的传染性可以故意增强。

eneas,CC BY

目前,有人故意释放破坏性物质的风险很低。但随着生物技术越来越先进、越来越便宜,越来越多的团体将能够让疾病恶化。

大多数生物武器研究都是由政府完成的,他们希望找到一种可控的方法,因为从军事角度来说,消灭人类是没有用的。但总有一些人可能想做点什么,因为他们可以。其他人有更高的目的。例如,除了更成功的神经毒气袭击之外,奥姆真理教还试图使用生物武器加速世界末日。有些人认为没有人类,地球会更好,等等。

生物武器和流行病爆发袭击造成的死亡人数似乎呈幂律分布——大多数袭击只造成少数人死亡,但少数袭击造成许多人死亡。从目前的数字来看,生物恐怖主义造成全球大流行的风险似乎很小。但这只是生物恐怖主义:政府用生物武器杀死的人比恐怖分子多得多(二战日本生物战计划可能造成多达 40 万人死亡)。随着未来技术越来越强大,更可怕的病原体将更容易设计出来。

3.超级智能

智力非常强大。解决问题的能力和群体协调能力的微小提升是我们让其他猿类望尘莫及的原因。现在它们的继续生存取决于人类的决定,而不是它们所做的事情。聪明对个人和组织来说是一个真正的优势,因此我们付出了很多努力来寻找提高个人和集体智力的方法:从增强认知的药物到人工智能软件。

问题在于,智能实体善于实现目标,但如果目标设定不当,它们就会巧妙地利用自己的力量实现灾难性的结果。没有理由认为智能本身会让某些事物表现得友善而道德。事实上,可以证明某些类型的超级智能系统不会遵守道德规则,即使这些规则是正确的。

更令人担忧的是,在试图向人工智能解释事物时,我们遇到了深刻的实际问题和哲学问题。人类价值观是分散而复杂的东西,我们不擅长表达,即使我们能做到这一点,我们也可能无法理解我们所希望的一切含义。

shiborisan,CC BY-NC-ND

基于软件的智能可能很快就会从低于人类的水平发展到令人生畏的强大。原因在于,软件智能的扩展方式可能不同于生物智能:它可以在更快的计算机上运行得更快,部件可以分布在更多计算机上,可以随时测试和更新不同版本,并结合新算法,从而大幅提升性能。

有人提出,当软件变得足够好,能够编写更好的软件时,就有可能出现“智能爆炸”。如果出现这样的飞跃,智能系统(或告诉它做什么的人)和世界其他地方的潜在力量将有很大的差异。如果目标设定得不好,这显然有可能导致灾难。

超级智能的特别之处在于,我们不知道是否可能出现快速而强大的智能爆炸:也许我们目前的整个文明正在以最快的速度自我改进。但有充分的理由认为,某些技术可能会加速发展,速度远远超过当前社会所能应对的速度。同样,我们无法很好地掌握不同形式的超级智能到底有多危险,也不知道哪些缓解策略真正有效。我们很难推断我们尚未拥有的未来技术,或者比我们更强大的智能。在这份清单上的风险中,这最有可能巨大的,也可能只是海市蜃楼。

这是一个研究不足的领域。即使在 50 年代和 60 年代,当人们非常有信心超级智能可以在“一代人之内”实现时,他们也没有过多考虑安全问题。也许他们没有认真对待他们的预测,但更有可能的是,他们只是把它看作是一个遥远的未来问题。

4.纳米技术

纳米技术是指以原子或分子精度控制物质的技术。纳米技术本身并不危险,相反,对于大多数应用来说,纳米技术都是个好消息。问题在于,与生物技术一样,功率的增加也增加了滥用的可能性,而滥用的可能性很难防范。

最大的问题不是臭名昭著的“灰色粘质物”,即自我复制的纳米机器吞噬一切。这需要为此目的进行巧妙的设计。让机器复制很难:默认情况下,生物在这方面做得更好。也许一些疯子最终会成功,但破坏性技术树上还有更多唾手可得的果实。

gi, CC BY-SA

最明显的风险是,原子级精确制造看起来非常适合快速、廉价地制造武器等物品。在一个任何政府都可以“打印”大量自主或半自主武器(包括制造更多武器的设施)的世界里,军备竞赛可能会变得非常快——因此也不稳定,因为在敌人获得太大优势之前进行先发制人打击可能很诱人。

武器也可以是小型的、精密的物体:一种“智能毒药”,其作用类似于神经毒气,但会寻找受害者,或者一种无处不在的“蚊虫”监视系统,用于让民众服从,这似乎是完全有可能的。此外,可能还有办法让任何想要的人掌握核扩散和气候工程。

我们无法判断未来纳米技术可能带来的生存风险,但它看起来可能会带来破坏性的影响,因为它可以给我们任何我们想要的东西。

5. 未知的未知数

最令人不安的可能性是,外面存在着某种非常致命的东西,而我们对此却一无所知。

天空中的寂静或许就是证据。外星人的缺席是因为生命或智慧极其稀少,还是因为智慧生命往往会被消灭?如果未来有大筛选,其他文明一定也注意到了,即便如此也无济于事。

愤怒吐司, CC BY-NC

无论威胁是什么,它都必须是即使你知道它存在也几乎无法避免的,无论你是谁、从事什么职业。我们不知道有任何此类威胁(此列表中的其他威胁都不是这样的),但它们可能存在。

请注意,仅仅因为某事未知并不意味着我们不能推理它。在一篇出色的论文中,Max Tegmark 和 Nick Bostrom 表明,根据地球的相对年龄,某些风险的发生概率必须小于每年十亿分之一。

您可能想知道为什么气候变化或陨石撞击没有列入这个名单。无论气候变化多么可怕,它都不太可能使整个地球无法居住(但如果我们的防御能力崩溃,它可能会加剧其他威胁)。陨石肯定会将我们消灭,但我们的运气一定很差。哺乳动物的平均寿命约为一百万年。因此,自然灭绝的背景率大约是每年百万分之一。这比核战争风险要低得多,而核战争风险在 70 年后仍然是我们继续生存的最大威胁。

可用性启发法使我们高估了媒体上经常报道的风险,并低估了前所未有的风险。如果我们想在一百万年后继续存在,就需要纠正这一点。

安德斯·桑德伯格 (Anders Sandberg) 在牛津大学人类未来研究所工作。

本文最初发表于 The Conversation。阅读原文。

<<:  如何证明光可以转化为物质

>>:  众筹对科学有益。出售空间则无益。

推荐阅读

疫情可能会结束德克萨斯州的石油繁荣,并开启更好的生活

这个故事最初刊登在《德克萨斯观察家报》上。过去三年,乔希·托马斯在闷热的车间里辛苦工作,担任阀门技...

说出一个比 NASA 勤奋工作的火星探测器和直升机更好的组合

2021 年 4 月 19 日,距离莱特兄弟首次在地球上试飞仅一个多世纪,人类成功驾驶直升机在另一个...

三星 Galaxy Note 5 触控笔支架存在设计缺陷

本月初,三星在纽约举行的一次特别媒体发布会上发布了 Galaxy Note 5。发布会期间,三星高管...

珠穆朗玛峰仍在不断升高

地球上最高的山峰正在变得更高。侵蚀的河谷将岩石和沉积物从该地区拉走,从而推高了珠穆朗玛峰的高度。在过...

女童子军获得假手装置专利,帮助幼儿首次写字

为了证明 FIRST 计划不仅仅是机器人的神奇游戏,爱荷华州的女童子军团队设计了一种假肢装置,让乔治...

每位民主党候选人在最大环境问题上的立场

本文已更新,以反映哪些候选人仍在竞选。明天,14 个州的选民将在五位民主党总统候选人之间做出选择:乔...

新证据表明火星曾有“度假式海滩”

如今的火星是一颗贫瘠而不适合居住的星球,但它可能曾经拥有沙滩和宁静的海景。根据 2 月 24 日发表...

MacOS Big Sur 有一个烦人的“请勿打扰”错误。下面介绍如何修复它。

如果您的 Apple 笔记本电脑或计算机运行的是最新版本的操作系统,您可能会发现无法关闭“请勿打扰”...

《森田先生是沉默者》第 3 卷特别版:迷人角色与深刻故事的完美融合

《森田先生很沉默》第3卷特别版OVA综合评论及推荐介绍《森田先生很沉默》是作家佐野妙的一部人气漫画,...

麻省理工学院的研究表明曼哈顿只需要 3,000 辆出租车

私家车大部分时间都停在路边,就像一艘空船,等待着短暂的用途。出租车是一种很少等待的汽车,因为每片刻的...

SpaceX 的 Inspiration4 任务和发射的 9 张照片

昨晚,Inspiration4 号任务启动,将四名平民送入外太空。这次历史性任务标志着首次由完全由业...

这颗遥远的行星比许多恒星都热

距离我们约 650 光年,一颗比许多恒星都热的行星正在绕着它的太阳旋转,在其尾迹中留下一道发光的气体...

哪种植物油最可持续?这很复杂。

植物油通常指任何来自植物的油,无论是种子、坚果、谷物还是水果。其中一些油,如菜籽油和橄榄油,用于烹饪...

这架新型“离子驱动”飞机就像是从科幻小说中走出来的

如今,乘坐飞机,飞机可以从螺旋桨或喷气发动机获得飞行所需的推力。这两种方式都需要活动部件——螺旋桨旋...

章鱼统治世界简史

章鱼、章鱼、八爪鱼:无论使用何种复数形式,这种拥有八条触手的水下头足类动物都是一种非常聪明的象征,象...