人类生存面临的五大威胁

人类生存面临的五大威胁

在人类当前面临的“危机”的日常喧嚣中,我们忘记了我们希望的后代。不是那些 200 年后的人,而是 1000 年后或 10000 年后的人。我使用“希望”这个词是因为我们面临着威胁人类灭亡的风险,即生存风险。这些风险不仅仅是大灾难,还有可能终结历史的灾难。

但并非所有人都忽视了遥远的未来。诺查丹玛斯等神秘主义者经常试图计算世界末日。赫伯特·乔治·威尔斯试图发展一门预测科学,并在《时间机器》一书中描绘了人类遥远的未来。其他作家也构建了其他长期未来来警告、娱乐或推测。

但如果这些先驱者或未来学家没有思考人类的未来,结果也不会改变。人类处于他们的位置,几乎无法拯救我们免于生存危机,甚至无法引发危机。

如今,我们处于更有利的地位。人类活动一直在稳步塑造地球的未来。尽管我们远不能控制自然灾害,但我们正在开发可能有助于减轻或至少应对这些灾害的技术。

未完成的未来

然而,这些风险仍未得到充分研究。人们对它们有一种无能为力和宿命论的感觉。几千年来,人们一直在谈论世界末日,但很少有人试图阻止它们。人类也不擅长对尚未发生的问题采取任何行动(部分原因是可用性启发法——倾向于高估我们已知事件的概率,而低估我们无法轻易回忆起的事件)。

如果人类灭绝,至少损失相当于所有活着的个体的消失和他们目标的落空。但损失可能远不止于此。人类灭绝意味着过去几代人创造的意义、所有后代人的生命(未来生命的数量可能是一个天文数字)以及他们可能创造的所有价值的消失。如果意识或智慧消失,这可能意味着价值本身从宇宙中消失。这是一个巨大的道德原因,让我们努力防止生存威胁成为现实。在这一追求中,我们决不能失败。

考虑到这一点,我选出了我认为对人类生存最大的五大威胁。但必须牢记一些注意事项,因为这份名单并不是最终的。

在过去的一个世纪里,我们发现或创造了新的生存风险——20 世纪 70 年代初发现了超级火山,在曼哈顿计划之前,核战争是不可能发生的——所以我们应该期待其他风险的出现。此外,随着我​​们了解得更多,一些今天看起来很严重的风险可能会消失。概率也会随着时间的推移而改变——有时是因为我们担心风险并加以解决。

最后,仅仅因为某件事可能发生并且具有潜在危险,并不意味着它值得担心。有些风险我们根本无能为力,比如星系爆炸产生的伽马射线爆发。但如果我们认识到我们可以做些什么,优先事项就会改变。例如,随着卫生设施、疫苗和抗生素的出现,瘟疫从天灾变成了公共卫生问题。

1.核战争

虽然迄今为止只有两枚核武器在战争中使用过——第二次世界大战的广岛和长崎——而且核储备也较冷战时期的峰值有所下降,但认为核战争不可能发生是错误的。事实上,核战争并非不可能。

古巴导弹危机几乎演变成核战争。如果我们假设每 69 年发生一次此类事件,并且有三分之一的几率最终演变成核战争,那么发生此类灾难的几率将上升到每年约 200 分之一。

更糟糕的是,古巴导弹危机只是最广为人知的案例。苏美核威慑的历史充满了惊险和危险的错误。实际概率会随着国际紧张局势而变化,但每年发生的可能性远低于千分之一似乎不太可能。

大国之间爆发全面核战争将直接或在战争后果中导致数亿人丧生——这是一场难以想象的灾难。但这还不足以使其成为一种生存风险。

同样,放射性尘埃的危害也经常被夸大——在当地可能致命,但在全球范围内问题相对有限。钴弹曾被设想为一种假想的末日武器,它会用放射性尘埃杀死所有人,但实际上制造起来既困难又昂贵。而且从物理上讲,它们几乎不可能实现。

真正的威胁是核冬天——即烟尘上升到平流层,导致全球多年变冷、变干。现代气候模拟显示,核冬天可能导致全球大部分地区多年无法进行农业生产。如果发生这种情况,数十亿人将饿死,只留下零星的幸存者,他们可能会被疾病等其他威胁夺去生命。主要的不确定性在于烟尘会如何表现:根据烟尘的种类,结果可能大不相同,而我们目前还没有很好的方法来估计这一点。

2. 生物工程大流行

自然流行病造成的死亡人数比战争还多。然而,自然流行病不太可能对人类构成生存威胁:通常有些人对病原体有抵抗力,幸存者的后代抵抗力更强。进化也不利于消灭宿主的寄生虫,这就是为什么梅毒在欧洲蔓延时从一种致命的杀手变成了一种慢性疾病。

不幸的是,我们现在可以让疾病变得更加严重。其中一个最著名的例子是,在鼠痘(鼠痘是天花的鼠版本)中引入一个额外的基因,使其更加致命,并能够感染接种疫苗的人。最近对禽流感的研究表明,疾病的传染性可以故意增强。

eneas,CC BY

目前,有人故意释放破坏性物质的风险很低。但随着生物技术越来越先进、越来越便宜,越来越多的团体将能够让疾病恶化。

大多数生物武器研究都是由政府完成的,他们希望找到一种可控的方法,因为从军事角度来说,消灭人类是没有用的。但总有一些人可能想做点什么,因为他们可以。其他人有更高的目的。例如,除了更成功的神经毒气袭击之外,奥姆真理教还试图使用生物武器加速世界末日。有些人认为没有人类,地球会更好,等等。

生物武器和流行病爆发袭击造成的死亡人数似乎呈幂律分布——大多数袭击只造成少数人死亡,但少数袭击造成许多人死亡。从目前的数字来看,生物恐怖主义造成全球大流行的风险似乎很小。但这只是生物恐怖主义:政府用生物武器杀死的人比恐怖分子多得多(二战日本生物战计划可能造成多达 40 万人死亡)。随着未来技术越来越强大,更可怕的病原体将更容易设计出来。

3.超级智能

智力非常强大。解决问题的能力和群体协调能力的微小提升是我们让其他猿类望尘莫及的原因。现在它们的继续生存取决于人类的决定,而不是它们所做的事情。聪明对个人和组织来说是一个真正的优势,因此我们付出了很多努力来寻找提高个人和集体智力的方法:从增强认知的药物到人工智能软件。

问题在于,智能实体善于实现目标,但如果目标设定不当,它们就会巧妙地利用自己的力量实现灾难性的结果。没有理由认为智能本身会让某些事物表现得友善而道德。事实上,可以证明某些类型的超级智能系统不会遵守道德规则,即使这些规则是正确的。

更令人担忧的是,在试图向人工智能解释事物时,我们遇到了深刻的实际问题和哲学问题。人类价值观是分散而复杂的东西,我们不擅长表达,即使我们能做到这一点,我们也可能无法理解我们所希望的一切含义。

shiborisan,CC BY-NC-ND

基于软件的智能可能很快就会从低于人类的水平发展到令人生畏的强大。原因在于,软件智能的扩展方式可能不同于生物智能:它可以在更快的计算机上运行得更快,部件可以分布在更多计算机上,可以随时测试和更新不同版本,并结合新算法,从而大幅提升性能。

有人提出,当软件变得足够好,能够编写更好的软件时,就有可能出现“智能爆炸”。如果出现这样的飞跃,智能系统(或告诉它做什么的人)和世界其他地方的潜在力量将有很大的差异。如果目标设定得不好,这显然有可能导致灾难。

超级智能的特别之处在于,我们不知道是否可能出现快速而强大的智能爆炸:也许我们目前的整个文明正在以最快的速度自我改进。但有充分的理由认为,某些技术可能会加速发展,速度远远超过当前社会所能应对的速度。同样,我们无法很好地掌握不同形式的超级智能到底有多危险,也不知道哪些缓解策略真正有效。我们很难推断我们尚未拥有的未来技术,或者比我们更强大的智能。在这份清单上的风险中,这最有可能巨大的,也可能只是海市蜃楼。

这是一个研究不足的领域。即使在 50 年代和 60 年代,当人们非常有信心超级智能可以在“一代人之内”实现时,他们也没有过多考虑安全问题。也许他们没有认真对待他们的预测,但更有可能的是,他们只是把它看作是一个遥远的未来问题。

4.纳米技术

纳米技术是指以原子或分子精度控制物质的技术。纳米技术本身并不危险,相反,对于大多数应用来说,纳米技术都是个好消息。问题在于,与生物技术一样,功率的增加也增加了滥用的可能性,而滥用的可能性很难防范。

最大的问题不是臭名昭著的“灰色粘质物”,即自我复制的纳米机器吞噬一切。这需要为此目的进行巧妙的设计。让机器复制很难:默认情况下,生物在这方面做得更好。也许一些疯子最终会成功,但破坏性技术树上还有更多唾手可得的果实。

gi, CC BY-SA

最明显的风险是,原子级精确制造看起来非常适合快速、廉价地制造武器等物品。在一个任何政府都可以“打印”大量自主或半自主武器(包括制造更多武器的设施)的世界里,军备竞赛可能会变得非常快——因此也不稳定,因为在敌人获得太大优势之前进行先发制人打击可能很诱人。

武器也可以是小型的、精密的物体:一种“智能毒药”,其作用类似于神经毒气,但会寻找受害者,或者一种无处不在的“蚊虫”监视系统,用于让民众服从,这似乎是完全有可能的。此外,可能还有办法让任何想要的人掌握核扩散和气候工程。

我们无法判断未来纳米技术可能带来的生存风险,但它看起来可能会带来破坏性的影响,因为它可以给我们任何我们想要的东西。

5. 未知的未知数

最令人不安的可能性是,外面存在着某种非常致命的东西,而我们对此却一无所知。

天空中的寂静或许就是证据。外星人的缺席是因为生命或智慧极其稀少,还是因为智慧生命往往会被消灭?如果未来有大筛选,其他文明一定也注意到了,即便如此也无济于事。

愤怒吐司, CC BY-NC

无论威胁是什么,它都必须是即使你知道它存在也几乎无法避免的,无论你是谁、从事什么职业。我们不知道有任何此类威胁(此列表中的其他威胁都不是这样的),但它们可能存在。

请注意,仅仅因为某事未知并不意味着我们不能推理它。在一篇出色的论文中,Max Tegmark 和 Nick Bostrom 表明,根据地球的相对年龄,某些风险的发生概率必须小于每年十亿分之一。

您可能想知道为什么气候变化或陨石撞击没有列入这个名单。无论气候变化多么可怕,它都不太可能使整个地球无法居住(但如果我们的防御能力崩溃,它可能会加剧其他威胁)。陨石肯定会将我们消灭,但我们的运气一定很差。哺乳动物的平均寿命约为一百万年。因此,自然灭绝的背景率大约是每年百万分之一。这比核战争风险要低得多,而核战争风险在 70 年后仍然是我们继续生存的最大威胁。

可用性启发法使我们高估了媒体上经常报道的风险,并低估了前所未有的风险。如果我们想在一百万年后继续存在,就需要纠正这一点。

安德斯·桑德伯格 (Anders Sandberg) 在牛津大学人类未来研究所工作。

本文最初发表于 The Conversation。阅读原文。

<<:  如何证明光可以转化为物质

>>:  众筹对科学有益。出售空间则无益。

推荐阅读

你的 iPhone 配备了强大的标记工具——以下是它的使用方法

如今,距离 iPhone 的问世已有 17 年多了,时间过得真快,考虑到 Apple 在这段时间内添...

爬行动物和两栖动物是否掌握着青春之泉的钥匙?

说到寿命,科学家们一直怀疑有鳞片和黏液的脊椎动物更胜一筹。加拉帕戈斯陆龟、东部箱龟、穴居蝾螈(又名洞...

大型港口

荷兰鹿特丹是欧洲最大的港口,该港口承担着欧洲大部分进出口贸易,其生意红火。每年约有 34,000 艘...

Rivian 如何减少 1.6 英里的电线和 44 磅的重量

几个月前刚刚亮相的 Rivian 第二代 R1T 皮卡和 R1S SUV 将保留其独特的外观,配备俏...

在亚马逊上购买 DeWalt 秋季 DIY 工具可节省高达 100 美元

开学后你会变成空巢老人吗?还是说你会离开家,需要自己动手做事?无论你身处何方,亚马逊都有 DeWal...

受科学启发,吉尔莫·德尔·托罗的好莱坞怪物栩栩如生

想想《地狱男爵 2》中的植物怪兽,或者《潘神的迷宫》中的无眼怪兽:导演吉列尔莫·德尔·托罗擅长将怪异...

这款终身学习套装 ft. Rosetta Stone 现在价格进一步下降

虽然学习一门新语言看起来令人生畏,但它却提供了许多值得探索的可能性。Rosetta Stone 提供...

魔王,重试!第 2 集评分和印象

“魔王,重试!” “R”的号召与评价“魔王大人,重试!”于2024年10月5日开始播出。《R》是根据...

为了喝出更好的咖啡,先从更少的咖啡豆开始

对于世界各地的咖啡爱好者来说,这里有一个令人厌烦的消息:早上喝的咖啡可能没有你想象的那么提神。传统的...

亚洲大黄蜂肠道内发现 1,400 种不同的虫子

世界上最大的黄蜂物种之一似乎有着相当多样化的口味。英国埃克塞特大学的一组研究人员在研究亚洲大黄蜂( ...

Y 形切割是切三明治的最佳方式吗?

过去几个月三明治的口味可谓是疯狂。几十年来——不,是几个世纪以来——人们一直使用两种切法来切三明治:...

火星上的有机碳可能来自古老的生命——或者火山

今年早些时候,“好奇号”探测器在火星上发现了有机碳,而有机碳正是我们所知生命的关键成分。“我们在火星...

建造自己的滑梯来避暑

夏天即将来临,但高温已经开始。从无情的阳光到炙热的烧烤,炎热(和降温)已经成为日常生活的一部分。Po...

BiT the CUPID 评论:丘比特之箭将会指向何处?

《BiT the CUPID》的魅力与评价介绍1995年至1996年播出的《BiT the CUP...

2024 年航空航天业的 5 大突破

过去一年,航空航天领域发生了许多激动人心的进展,我们很难选出最后五项。从可持续和绿色航空的兴起,到公...