5

Небанальный конец света: шесть альтернатив ядерной войне

Небанальный конец света: шесть альтернатив ядерной войне

Fallout каждый раз пробуждает интерес к теме армагеддона, развала общества, и того, что станет со всеми нами, когда ядерные удары превратят весь мир в пустошь. Мы проанализировали сценарии конца света и выбрали из них самые небанальные, такие, которые могли бы стать основой для реально необычного и захватывающего сеттинга.

Идея конца света довольно давно стала популярной в современной массовой-культуре, интерес к ней не ослабевает, и это действительно круто. Во-первых, постапокалиптические сюжеты выигрывает за счет будоражащей яркости образов, а во-вторых, они работают как отличное предостережение. Итак, шесть вероятных сценариев Апокалипсиса, которым уделяют слишком мало внимания.

Технологическая сингулярность и тотальный трансгуманизм

Технологическая сингулярность — это такой момент в будущем, после которого количественное ускорение прогресса приведет к качественному технологическому скачку. Само по себе определение предполагает, что сингулярность приведет к будущему, которое мы в принципе не способны понять и спрогнозировать. Короче говоря, это — такая точка, за которой человечество изменится настолько, что можно будет говорить о том, что оно просто исчезнет в привычном для нас виде. Апокалипсис в этом случае вовсе необязателен (хотя высока вероятность и такого варианта), но, в любом случае, настанет точка невозврата, конец всего, что было нам привычно, дорого и понятно. В принципе, киберпанк в самых смелых своих догадках подошел к описанию этого будущего настолько, насколько возможно: всемирный ИИ, слияние машины и человека, гипотетическое бессмертие, тотальная революция в генной инженерии и так далее. Вернон Виндж и Рэймонд Курцвейл, два самых известных в этой сфере футуролога, предполагают, что человечество подойдет к порогу сингулярности к 2030-2045 годам.  

Сумасбродные настройки искусственного интеллекта

Идея о всемирном и мощнейшем ИИ, который рационально избавляется от человечества, как от плесени — довольно банальный сценарий, и его мы рассматривать не будем. Гораздо любопытнее вариант Армагеддона, произошедшего в результате абсурдных выводов, которые способен сделать искусственный интеллект. Уже сейчас проводятся превентивные попытки разработать некий моральный кодекс для ИИ и привить ему развитую систему этики, сравнимую с человеческой. В теории звучит просто прекрасно, но проблема в том, что мораль очень субъективна и местами иррациональна, мы сами до сих пор не понимаем многих ее механизмов и установок. Попытка задать четкие параметры могут привести к абсурду и катастрофе. Самый яркий пример: если некий ИИ познакомить с религиозными представлениями о мире, то он может прийти к выводу, что высшим счастьем для людей является рай — и умертвит человечество, чтобы все души попали на небеса. The Talos Principle отлично иллюстрирует проблему смешения искусственного интеллекта с человеческой религией и философией.  

Идиократия и Вавилонская Башня

В целом, с развитием цивилизации мозг человека становится меньше, а развитие технологий сказывается двояко: кто-то становится умнее, а кто-то, наоборот, тупее. Уже сейчас уследить за развитием прогресса и усложнением наших представлений о мире становится слишком трудно, так что возможен момент, когда система усложнится настолько, что кто-либо перестанет понимать что-либо и наступит системный кризис и коллапс. Иными словами, идиократия — это такая сингулярность наоборот. Этот сценарий будет сопровождаться нарушением коммуникации, так что люди начнут испытывать проблемы с обменом информацией и не смогут адекватно общаться. Представьте себе, как выглядел бы Fallout в сеттинге, где армагеддон был вызван тупицами в мире идиотов по глупейшим причинам; в каком-то смысле это было бы даже канонично.

Гамма-всплески


Во время вспышки сверхновой может происходить масштабный выброс энергии, которая распространяется в виде луча и может быть крайне опасна для жизни на Земле. У такого армагеддона есть забавная черта, которая могла бы стать действительно крутой особенностью постапокалиптического сеттинга. Дело в том, что такие всплески крайне коротки и поэтому теоретически жизнь может быть уничтожена на той половине планеты, которая попала под излучение, но при этом остаться на другой половине.

Биохакеры

Энтузиасты, применяющие те же принципы, что и хакеры, но в биологических исследованиях, могут стать источником реально серьезных проблем. Самый опасный вариант — разработка болезнетворных микроорганизмов, которая с каждым годом становится проще и дешевле. Фактически, в скором будущем для создания собственного вируса будет достаточно домашней лаборатории и уровня знаний продвинутого школьника. Кстати, генетические коды многих опасных вирусов, например гриппа «Испанки», были выложены в свободный доступ в интернет.

Управляемые катаклизмы

Конец света в результате природного катаклизма — это тривиально, но рукотворные катаклизмы могут быть менее заурядной темой. Любая глобальная технология, созданная для адекватных целей, может быть использована как такое же глобальное оружие. Допустим, человечество создаст систему, способную изменять траекторию полета астероидов (как вариант, ради спасения планеты), но ее же можно использовать и совершенно наоборот. Вспомните Planetary Annihilation.   

В общем, бояться ядерного армагеддона — это, как минимум, несерьезно и несовременно, ведь существуют еще десятки других сценариев. Многие из них уже избиты, но многие могли бы стать основой для оригинальных сюжетов. Тем более, всегда есть вариант совмещенного апокалипсиса: системный кризис и глобальное потепление приводят к истощению ресурсов, мировой войне, ядерным и астероидным бомбардировкам, распылению адских вирусов — и все это с подачи Искусственного Интеллекта. Как говорил астрофизик Мартин Рис, шансы выживания человечества в XXI веке — 50%, что в общем-то обнадеживает, но не очень.

Также по теме