Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Означает ли крах технологической цивилизации вымирание людей? 3 страница




Чем долговечнее, универсальнее и эффективнее бункер, тем раньше его надо начать строить. Но в этом случае трудно предугадать будущие риски. Например, в 1930-е годы построили много противогазовых бомбоубежищ, которые оказались бесполезны и уязвимы к бомбардировкам тяжёлыми фугасными бомбами.

Эффективность бункера, который может создать цивилизация, соответствует технологическому уровню развития этой цивилизации. Но это значит, что она обладает и соответствующими средствами уничтожения, а следовательно, ей нужен все более мощный бункер. Чем автономнее и совершеннее бункер (например, оснащённый ИИ, нанороботами и биотехнологиями), тем легче он может, в конце концов, обойтись без людей, дав начало чисто компьютерный цивилизации. Люди из разных бункеров будут соревноваться за то, кто первым выйдет на поверхность, и кто, соответственно, будет ею владеть, – поэтому у них будет искушение осваивать ещё заражённые участки земли.

Возможны автоматические робототизированные бункеры: в них замороженные человеческие эмбрионы хранятся в неких искусственных матках и через сотни или тысячи лет начинают выращиваться. (Технология заморозки эмбрионов уже есть, а работы по искусственной матке запрещены по соображениям биоэтики, но в принципе такое устройство возможно.) Такие установки с эмбрионами можно отправить в путешествие к другим планетам. Однако, если такие бункеры будут возможны, то земля вряд ли останется пустой – скорее всего она будет заселена роботами. Кроме того, если человеческий детёныш, воспитанный волками, считает себя волком, то кем будет считать себя человек, воспитанный роботами?

Итак, идея о выживании в бункерах содержит много подводных камней, которые снижают её полезность и вероятность успеха. Долгосрочные бункеры надо строить многие годы, но они могут устареть за это время, так как ситуация изменяется и неизвестно к чему готовиться. Возможно, что есть ряд мощных бункеров, которые были построены в годы холодной войны. Пределом современных технических возможностей видится бункер порядка 30-летней автономии, однако его надо строить лет десять, и это потребует миллиардов долларов инвестиций.

Особняком стоят информационные бункеры, которые предназначены, для того, чтобы донести до возможных уцелевших потомков наши знания, технологии и достижения. Например, в Норвегии, на Шпицбергене создали запас образцов семян зерновых с этими целями ("Хранилище семян судного дня" Arctic Doomsday Seed Vault или Global Seed Vault). Возможны варианты с сохранением генетического разнообразия людей с помощью замороженной спермы. Обсуждаются устойчивые к длительному хранению цифровые носители, например, компакт-диски, на которых вытравлен текст, который можно прочесть через лупу. Эти знания могут быть критически важными, чтобы не повторить наших ошибок.

Возможным местом для убежищ являются астероиды и кометные тела в поясе Койпера, которых насчитываются триллионы штук и внутри которых можно спрятаться.

Интересный обзор проблемы создания убежищ предлагает Р. Хансен [Hanson 2008].

Г. Кан, автор книги "О термоядерной войне", считал, что создание бункеров, позволяющих пережить ядерный удар, является провоцирующим действием, так как побуждает ударить до того, как эти бункеры будут построены.

Швейцария располагает сейчас числом ядерных бункеров, способных вместить 114% населения.

Компания Vivos (http://www.terravivos.com/secure/timeline.htm) воспользовалась шумихой вокруг будто бы надвигающегося в 2012 году апокалипсиса, для того чтобы развернуть строительство национальной сети бункеров, места в которых будут продаваться по 50 000 долларов. Эти бункеры должны обеспечить убежище для 200 человек от ударной волны, радиации, биологического загрязнения. Планируется 20 бункеров на территории США. Автономность бункеров – 1 год. Конечно, такие бункеры обладают многими перечисленными недостатками, но наличие их увеличивает суммарные шансы выживания человечества.

Интересный момент здесь в том, что строительство бункеров позволяет осуществить монетаризацию неопределённого риска глобальной катастрофы. То есть отдельные лица, оплачивая выживание себя и своих близких, оплачивают также и выживание человечества. (Можно также сделать лотерею.) Однако наибольший поток денег в связи с глобальными катастрофами идёт в индустрию развлечений: огромно количество кино и игр о конце света. Если обложить эти развлечения налогом, то его также можно использовать на строительство убежищ и другие защитные проекты. При этом такой налог будет служить рекламой самим фильмам. Например, под лозунгом: «Посмотри фильм об Апокалипсисе! Сделай вклад в спасение человечества!»

 

21.12 Опережающее расселение в космосе

Есть предположение, что человечество уцелеет, если разделится на части, которые будут быстро заселять космос по отдельности. Например, известный физик С. Хокинг агитирует за создание запасной земли, чтобы избежать рисков, угрожающих планете[128]. При опережающем расселении ни одно воздействие, осуществлённое в одном месте, не сможет догнать всё человечество. Увы, нет никаких технологических предпосылок для ускоренного расселения человечества в космосе: мы имеем весьма смутные представления о том, как создать звездолёты и, вероятно, не сможем построить их без помощи ИИ и роботизированного производства. А значит, человечество сможет начать заселять космос только после того, как преодолеет все риски, связанные с ИИ и нанотехнологиями, и поэтому космические поселения не могут служить защитой от этих рисков. Кроме того, космические поселения в ближайшем космосе, в пределах Солнечной системы, будут крайне зависимы от земных поставок и уязвимы для обычной ракетной атаки. Даже если человечество начнёт убегать с земли с околосветовой скоростью на сверхбыстрых звездолётах, это всё равно не обезопасит его. Во-первых, потому что информация всё равно распространяется быстрее, со скоростью света, и если возникнет враждебный ИИ, то он может проникнуть по компьютерным сетям даже в быстро удаляющийся звездолёт. Во-вторых, как бы ни был быстр звездолёт, его может догнать более лёгкий, быстрый и совершенный (поскольку он будет создан позже) беспилотный аппарат. Наконец, любой звездолёт увозит с собой все земные сверхтехнологии и все человеческие недостатки и связанные с ними проблемы.

Можно использовать METI – то есть отправление сигналов к звёздам, с тем чтобы достичь своего рода бессмертия людей, например, организовав свою SETI -атаку (что, однако, потребует своего развитого ИИ). Или просто отправляя человеческий генокод и знания в надежде, что их кто-нибудь найдёт и нас воскресят.

Наконец, можно запустить волну из самореплицирующихся зондов фон Неймана – то есть роботов, которые распространяются во Вселенной как растения – с помощью семян. Они могли бы в начале осваивать кометы в облаке Оорта. При этом в программе этих роботов можно намертво зашить генокод человека, с тем чтобы такие роботы стремились воссоздать человека и его культуру на любых доступных небесных телах. Есть мнение, что случайные мутации в роботах и нанотехнологических системах практически невозможны, а значит, такие зонды фон Неймана смогут неограниченно долго сохранять изначальную настройку. С другой стороны, такие роботы будут более ресурсоёмки, чем роботы без дополнительной программы по воссозданию людей, и будут проигрывать им в соревновании по освоению Вселенной. Так как вряд ли будет запущена только одна волна зондов фон Неймана – скорее всего, их будет несколько (если человечество не объединится до того). (См. ещё про зонды фон Неймана далее в главе о парадоксе Ферми.) При этом остановить волну их распространения из центра практически невозможно – так как эти зонды очень малы и не поддерживают радиосвязь с Землёй. Единственный вариант – запустить потом гораздо более быструю волну более эффективных репликаторов, которая заранее поглотит всё твёрдое вещество, пригодное для размножения репликаторов в предыдущей фазе.

Это можно рассматривать как один из вариантов направленной панспермии. Другой – просто распылять в космосе очень устойчивые живые клетки и споры микроорганизмов, с тем, чтобы жизнь развилась где-нибудь снова, или если Земле будет угрожать опасность.

Можно описать модель опережающего расселения в космосе с помощью следующей модели, которую я назвал «Саморазмножение против саморазрушения».

Основной защитой от гибели отдельных организмов и видов в живой природе является их способности к саморепликации и распространению по всё большему пространству. Текущее развитие технологий приводит к тому, что всё больший уровень опасности концентрируется в пределах Земли, в то время как экспансия за пределы Земли почти не происходит.

Однако эта ситуация изменится после ожидаемого в будущем открытия молекулярного производства, которое сделает возможным создание роботов-репликаторов, могущих размножаться в космосе (на поверхностях планет и астероидов). После этого они смогут довольно быстро заполнить Солнечную систему (за время от нескольких дней до нескольких лет в зависимости от сценария экспансии – если будет соревнование между несколькими державами за владение Солнечной системой, то в этом случае они будут стремиться разослать своих роботов-заселенцев как можно быстрее и как можно дальше).

По мере того как Солнечная система будет заполняться, отношение энергии разрушения к заселённому объёму радикально изменится. Пространство будет преобладать, и тотальное уничтожение станет практически невозможным (за одни исключением).

Исключение это состоит в гипотетической возможности термоядерной детонации Юпитера или другой планеты Солнечной системы, содержащей достаточно дейтерия. Возможно, в недрах этих планет есть слои, достаточно обогащённые дейтерием для детонации. Однако, скорее, этот дейтерий должен быть дополнительно сконцентрирован, что можно сделать, незаметно отправив внутрь планеты-гиганта саморазмножающихся роботов, способных осуществлять сепарацию дейтерия. Взрыв планеты-гиганта приведёт к срыву нескольких десятков метров поверхности Земли и стерилизации поверхностей других небесных тел.

Однако его, вероятно, будет недостаточно, чтобы уничтожить всех роботов–репликаторов в Солнечной системе, так как они могут находится в тысячах километрах под поверхностью в глубине других планет-гигантов и под поверхностью астероидов или на достаточном удалении от Солнечной системы в облаке Оорта и даже на пути к другим звёздам.

По мере распространения ударной волны роботов-репликаторов к внешним областям Солнечной системы и к ближайшим звёздам, а также по мере технологического освоения всё более быстрых средств транспорта, объём, заполненный возникшим на Земле разумом, будет возрастать, а шансы на его уничтожение – падать.

Разумеется, он может нести, а может и не нести на себе элементы человеческого разума – например, генокод или симуляции. Разлетающиеся в разные стороны роботы-репликаторы не будут иметь физической власти друг над другом, поскольку для этого им бы потребовалась уметь путешествовать со скоростью, в два раза превосходящую скорость их разлёта – но если такой способ будет найден, то и скорость разлёта увеличится. Если они были запущены из одного источника, они могут сохранять управляемость. Устаревшие модели репликаторов, если они не объединены с ИИ, могут быть обогнаны (и уничтожены) более новыми моделями, созданными в интеллектуальном центре Солнечной системы (не обязательно это будет Земля).

Конечно, это не гарантирует безопасность от всех рисков, ведь фазовый переход вакуума, отключение симуляции, столкновение с враждебными инопланетянами действуют на очень большой объём пространства. Также искусственная детонация Солнца, если она окажется возможной, могла бы уничтожить всех разлетающихся роботов-репликаторов на расстоянии до светового года.

Наше рассуждение основывается на том, что способность заселять объём (определяемая скоростью расселения) растёт быстрее, чем способность выделять энергию в одной точке (или ещё как-то на весь этот объём одновременно и сильно воздействовать.) Однако при этом надо допускать, что пропорционально скоростям распространения и репликации будут расти и способности выделять энергию, причём непредсказуемыми для нас сейчас способами (например, с помощью создания искусственных чёрных дыр и новых вселенных.)

Кроме того, плотность материи падает по мере удаления от Солнца, что замедляет экспансию, связанную с репликацией. Даже несколько удаляющихся с очень большой скоростью космических кораблей можно уничтожить, послав им вдогонку сконцентрированные лучи солнечного света: если всё Солнце обернуть сферой Дайсона из зеркал или лазеров, которая затем сможет направлять узко сфокусированный луч в одном направлении.

Большие корабли с людьми в любой космической войне будут слабыми и уязвимыми целями. Равно как и сама планета Земля.

Интересно отметить, что техническая возможность отправить межзвёздный корабль-ковчег появилась ещё в 1960-е годы, и базируется на концепции «взрыволёта» Улама. Этот взрыволёт использует энергию ядерных взрывов для движения вперёд. Детальные расчеты были выполнены в рамках проекта «Орион». В 1968 году Ф. Дайсон опубликовал статью «Межзвездный транспорт»[129], в которой произвёл верхнюю и нижнюю оценку реализуемости проекта. В консервативном (то есть не предполагающем никаких технических свершений) оценка стоимости – 1 ВВП США (600 млрд. долларов США на момент написания статьи), стартовая масса звездолёта – 40 млн. тонн (из них 5 млн. тонн полезной нагрузки), время полёта до Альфы Центавра – 1200 лет. В более продвинутом варианте – стоимость составляет 0,1 ВВП США, время полёта – 120 лет, стартовая масса 150 тыс. тонн (из них 50 тыс. тонн полезной нагрузки). В принципе, используя двухступенчатую схему, более совершенные термоядерные бомбы и отражатели, можно сократить время полёта до ближайшей звезды до 40 лет.

Конечно, экипаж звездолёта обречён на вымирание, если они не обнаружат обитаемую и пригодную для жизни человека планету в ближайшей звёздной системе, а шансы на это крайне малы. Другой вариант состоит в том, что он будет колонизировать необитаемые планеты. Однако в 1980 году Фрейтас предложил проект освоения Луны с помощью самовоспроизводящейся фабрики[130], исходная масса которой составляет 100 тонн, но для управления которой необходим искусственный интеллект. Искусственного интеллекта пока нет, но управление такой фабрикой могли бы осуществлять люди. Основной вопрос состоит в том, какое количество технологий и массу оборудования следует забросить на подобную Луне необитаемую планету, чтобы люди могли создать на ней полностью самоподдерживающуюся и растущую цивилизацию. Речь идёт о создании чего-то вроде обитаемого зонда фон Неймана. Современное самоподдерживающееся государство включает в себя по крайней мере несколько миллионов человек (Израиль), и на каждого приходятся сотни тонн оборудования, в основном в виде домов, дорог. Вес станков значительно меньше. Это дат верхнюю оценку способной к саморепликации человеческой колонии в 1 млрд тонн. Нижняя оценка – это примерно 100 человек, на каждого из которых приходится примерно 100 тонн (в основном еды и жилья), то есть 10 000 тонн массы. Реалистичная оценка должна быть где-то посередине и наверное составляет десятки миллионов тонн. Всё это в предположении, что никакие чудесные нанотехнологии пока не открыты.

Преимущество звездолёта в том, что это неспецифическая реакция на сонм разных угроз с неопределимыми вероятностями. Если возникла некая конкретная угроза (астероид, эпидемия), то тут лучше тратить средства на ее устранение.

Таким образом, если бы такое решение в 60-е годы было принято, уже сейчас такой корабль мог бы быть в пути. Если отвлечься от технической стороны вопроса, тут возникает несколько развилок, касающихся стратегии создания такого звездолёта.

1. Чем раньше такой проект будет начат, тем менее технически совершенным он будет, тем меньше его шансы на успех и выше стоимость. Но чем позже он будет начат, тем больше шансы, что его не успеют завершить до глобальной катастрофы.

2. Чем позже проект стартует, тем больше шансов, что он возьмёт «болезни» родной цивилизации с собой.

3. Проект создания звездолёта может привести и к развитию технологий, угрожающих самой цивилизации. Взрыволёт использует как топливо сотни тысяч водородных бомб. Поэтому он может или использоваться как оружие, или другая сторона может бояться этого, и принимать ответные меры. Кроме того, звездолёт может развернуться и врезаться в Землю, как звёздный молот – или этого могут опасаться. При создании звездолёта возможна техногенная авария с огромными последствиями, в максимальном случае равная детонации всех бомб на борту. Если проект реализует одна из стран, то в случае войны не попытается ли другая страна сбить уже стартовавший звездолёт?

4. Звездолёт является средством защиты от Машины Судного дня. Поэтому создатели такой машины могут воспринимать его как угрозу своему могуществу.

5. Следует ли реализовать один более дорогой проект или несколько более дешёвых?

6. Может быть достаточно ограничится колонизацией Луны, Марса, спутников Юпитера или объектов в поясе Койпера? По крайней мере это могут быть запасные варианты, на которых можно проверить технологии создания автономных поселений.

7. Чем раньше звездолёт стартует, тем меньше известно об экзопланетах. Насколько далеко и с какой скоростью нужно лететь, чтобы быть в относительной безопасности?

8. Сможет ли звездолёт как-либо маскировать себя, чтобы на Земле не знали, где он находится, и надо ли это делать. Должен ли вообще звездолёт поддерживать связь с Землёй? Или есть риск атаки враждебного ИИ в этом случае?

9. Не приведёт ли создание таких проектов к обострению гонки вооружений, к преждевременному исчерпанию ресурсов и другим нежелательным исходам? Создание чистых водородных бомб упростит создание такого звездолёта или во всяком случае удешевит. Но одновременно и увеличит глобальные риски, так как ядерное нераспространение потерпит полный провал.

10. Не будет ли Земля в будущем конкурировать со своими независимыми колониями не приведёт ли это к звёздной войне?

11. Если корабль улетает достаточно медленно, то возможно ли его уничтожить с Земли, догнав или лучевым воздействием?

12. Увеличит ли эта миссия реальные шансы на выживание людей? Улетевшие скорее всего погибнут, так как шанс успеха миссии – от силы процентов 10. Оставшиеся же могут начать себя вести более рискованно, руководствуясь логикой в духе: "Раз у нас есть теперь защита от глобальных рисков, то теперь мы можем провести опасный эксперимент". Сейчас есть страх: мы должны беречь Землю, это единственный очаг разума во вселенной, а вот когда у нас будет ковчег, то теперь мы не будем чувствовать этого страха, и будем беречь свой "очаг" немного слабее. То есть в результате реализации проекта суммарная вероятность выживания снизится.

13. Каковы шансы на то, что в его компьютерную сеть загрузят вирус, если он будет поддерживать связь с Землёй? А если не будет, это снизит шансы на успех. Возможна и конкуренция за близкие звезды, и ее выиграют более поздние и более быстрые аппараты. В конце концов близких звезд на расстоянии порядка 5 световых лет мало – Альфа Центавра, звезда Барнарда, и за них может начаться конкуренция. Возможно также существование тёмных одиноких планет или крупных астероидов, не имеющих своих звёзд. Их плотность в окружающем пространстве может в 10 раз превышать плотность звёзд, но обнаружить их крайне сложно. Если у звезды вообще нет спутников хотя бы размером с крупную комету, то Ковчег-репликатор обречён на гибель. Звезда Барнарда, кроме того, склонна к интенсивным «солнечным вспышкам», которые могут погубить экспедицию.

14. Звездолёт не защитит людей от враждебного ИИ, который найдёт способ его догнать. Также в случае войны звездолёты могут быть престижными и легко уязвимыми целями – непилотируемая ракета всегда будет быстрее звездолёта. Если ковчеги направляются к нескольким ближайшим звёздам, то это не обеспечит их скрытности, поскольку пункт назначения будет известен заранее. Фазовый переход вакуума, взрыв Солнца или другое вызванное человеком высокоэнергетическое событие также может уничтожить звездолёт.

15. Однако звездолёт является излишней защитой от многих других рисков, которые не требуют такого удаления. От почти любой пандемии можно спрятаться на хорошо изолированном острове в океане. От серой слизи, астероида, супервулкана, необратимого глобального потепления можно укрыться на Луне. Проблемы генетической деградации, склонности к насилию и саморазрушению, а также проблемы, связанные с ограниченностью человеческого кругозора, такой звездолёт унесёт с собой. Звездолёт только отяготит проблемы истощения ресурсов, а также войн и гонки вооружений. Таким образом, множество глобальных рисков, от которых звездолёт оказывается оптимальной защитой, оказывается довольно узким.

16. И самое главное: имеет ли смысл сейчас начинать такой проект? Всё равно он не успеет завершится до того, как станут реальны и новые риски, и новые способы создания звездолётов с помощью нанотеха.

21.13 «всё как-нибудь обойдётся»

Эта позиция по предотвращению глобальных рисков основывается на вере во врождённую устойчивость систем и на иррациональной концепции решения проблем по мере их поступления. Она содержит в себе несколько явных и неявных допущений и логических ошибок, в духе «авось, пронесёт». Собственно, этой позиции и придерживаются правительства разных стран, которые решают проблемы только после того, как они стали очевидны. Если сформулировать эту позицию в духе военной доктрины США, она будет звучать так: анализируя и предотвращая все риски по мере их поступления, мы создадим систему контроля каждого конкретного риска, дающую качественное и количественное преобладание над каждым источником риска на каждой фазе его существования.

Однако уже сегодня в современной технологической ситуации мы не можем рассматривать риски «по мере их поступления», поскольку не знаем, где искать, и поскольку риски могут актуализироваться быстрее, чем мы успеем их обдумать и приготовиться к ним. Именно поэтому я стараюсь расширить горизонт прогноза, рассматривая гипотетические и вероятные технологии, которые ещё не созданы, но вполне могут быть созданы, исходя из текущих тенденций.

Другой вариант – картина будущего, называемая «устойчивое развитие» (sustainable development). Однако это не прогноз, а проект. Он основывается на предположении, что технологии достаточно разовьются, чтобы помочь нам преодолеть энергетический и прочие кризисы, но всё же при этом технологии не породят новых невероятных и рискованных возможностей. Вероятность такого исхода событий невелика.

21.14 Деградация цивилизации до уровня устойчивого состояния

Некоторые надеются, что угрозы глобальных катастроф развеются сами собой, когда человечество из-за нехватки ресурсов или в силу предыдущих катастроф в той или иной степени деградирует. Такая деградация сопряжена с трудностями, потому что пока не разворованы все запасы, оставшиеся от цивилизации, и не израсходовано всё оружие, нет никакой выгоды заниматься примитивным сельским хозяйством – гораздо проще грабить соседей. Конкуренция между уцелевшими обществами неизбежно приведёт к новому росту вооружений и технологий, как бы это идеологически ни подавлялось, и через несколько сотен лет цивилизация вернётся на современный уровень, а значит, воскресит и все свои проблемы. Или наоборот, деградирует в направлении к ещё более примитивным формам и вымрет.

21.15 Предотвращение одной катастрофы с помощью другой

Теоретически возможны следующие примеры взаимной нейтрализации опасных технологий и катастроф:

1. Ядерная война останавливает развитие технологий вообще.

2. Тотальный ИИ предотвращает биотерроризм.

3. Биотерроризм делает невозможным развитие ИИ

4. Ядерная зима предотвращает глобальное потепление.

Суть в том, что крупная катастрофа делает невозможной глобальную, отбрасывая человечество на несколько эволюционных ступеней назад. Это возможно в том случае, если мы входим в длительный период высокой вероятности крупных катастроф, но малой вероятности глобальных катастроф. В некотором смысле со второй половине ХХ века мы находимся в этом периоде. Тем не менее это не помешало нам успешно приблизится к тому моменту, когда до создания многих средств глобального всеобщего уничтожения остались, возможно, десятки лет.

Было бы в каком-то смысле «приятно» доказать теорему, что глобальная катастрофа невозможна, потому что к ней не дадут приблизиться очень крупные катастрофы. Однако эта теорема носила бы исключительно вероятностный характер, так как некоторые опасные сверхтехнологии могут появиться в любой момент, особенно ИИ.

Кроме того, любая большая авария (но меньшая отбрасывающей назад катастрофы) повышает осознанность людей в отношении рисков. Хотя здесь возникает определённый стереотип: ожидание повторения точно такого же риска.

21.16 Опережающая эволюция человека

Ещё одной идеей, которая даёт принципиальную надежду на выживание, является идея о том, что процессы киборгизации человека будут идти быстрее, чем процессы создания опасных вооружений. Например, если заменить большинство органов человеческого тела их механическими аналогами, то человек станет неуязвимым к действию биологического оружия. Загрузка сознания в компьютер сделает человека вообще независимым от судьбы своего тела, поскольку возможно резервное копирование информации, причём эти компьютеры могут быть размером с пылинку и могут прятаться в поясе астероидов. В этом случае только полное физическое уничтожение Солнечной системы и её окрестностей приведёт к уничтожению таких «сверхлюдей». Однако в какой мере такие устройства будут именно людьми, а не разновидностями искусственного интеллекта, сказать трудно. Кроме того, этот сценарий, хотя и возможен теоретически, но не настолько вероятен, чтобы можно было на него рассчитывать. Наконец, он может просто не успевать во времени, так как создание оружия гораздо проще, чем киборгизация человека.

Другой момент состоит в том, что киборгизация открывает новые риски, связанные с поражением искусственных частей человеческого тела компьютерными вирусами. Первым событием такого рода стала недавно осуществлённая (в демонстрационных целях экспертами по безопасности) атака на кардиостимулятор с управлением по радиоканалу, в ходе которой он был перепрограммирован на другой режим работы, что потенциально могло бы привести к смерти пациента, если бы эксперимент осуществлялся на живом человеке. Будущий киборгизированный человек будет содержать тысячи дистанционно управляемых медицинских устройств.

21.17 Возможная роль международных организаций в предотвращении глобальной катастрофы

Мы не знаем определённо, кто именно должен заниматься предотвращением глобальных катастроф. Хуже того, вероятно есть много организаций и частных лиц, готовых этим заняться, – кто против того, чтобы стать спасителем мира? (Однако ещё пару лет назад в мире не было ни одного человека, который бы работал именно над темой предотвращения глобальной катастрофы как междисциплинарной проблемой и получал бы за это зарплату.) Перечислим разные «функциональные жанры» организаций, которые могли бы отвечать за предотвращение рисков глобальной катастрофы.

1) «ООН». Главы мировых правительств вместе решают, как справиться с рисками. Так сейчас борются с потеплением, но все участники дискуссии договориться не могут. В результате принимается самое слабое и компромиссное решение. Государства не готовы передать свою власть в ООН.

2) «Мировое правительство». Проблема состоит в самой возможности его образования. Процесс создания мирового правительства чреват войной, что само по себе создаёт глобальный риск. Кроме того, такое правительство не может быть нейтральным. С точки зрения одних групп оно будет выразителем интересов других групп. Оно будет или слабым, или тоталитарным. Тоталитарное правительство породит Сопротивление, борьба с этим Сопротивлением чревата огромными терактами и создаёт новые глобальные риски.

3) Спецслужбы, которые тайно противостоят глобальным рискам. Так борются с террористами. Проблемы: секретность ведёт к утрате информации. Возникает конкуренция спецслужб. Возможна путаница национальных и общечеловеческих интересов – так как спецслужбы служат своему государству, а не людям вообще. Спецслужбы в силу своей специфики не заточены на масштабное долгосрочное видение комплексных проблем и не могут самостоятельно оценить, не привлекая сторонних экспертов, риски ещё не существующих технологий.

4) Тайные группы частных лиц. Возможно, что некая тайная частная организация поставит своей целью облагодетельствовать всё человечество. Однако промежуточный этап – это создание своего (возможно, тайного) мирового правительства. Проблемы: конкуренция спасателей (так как таких тайных организаций может быть много, а методы и картины мира у всех у них разные), необходимость перехода к пункту «мировое правительство». Неприятие заговоров в обществе и противодействие им со стороны спецслужб. Смешение личных и общих целей. Даже Бен Ладен думает, что именно его «всемирный халифат» будет спасением человечества от механистичного и эгоистичного Запада. Частные группы по созданию сильного ИИ также могут понимать, что получат в свои руки абсолютное оружие, и иметь планы по его применению для захвата власти над миром. В любом случае, тайное общество очень часто подразумевает наличие планируемой стадии «мятежа» – явного или неявного установления власти и влияния на весь мир, путём проникновения или прямого захвата. И, разумеется, здесь оно сталкивается с конкуренцией других таких обществ, а также противодействием общества и спецслужб.




Поделиться с друзьями:


Дата добавления: 2015-07-13; Просмотров: 205; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.009 сек.