Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Означает ли крах технологической цивилизации вымирание людей? 1 страница




Окончательный крах технологической цивилизации, скажем, необратимый возврат к родоплеменному строю, означает вымирание с отсрочкой в несколько миллионов лет, поскольку в этом случае человек становится снова одним из обычных видов живых существ, а все виды рано или поздно вымирают. В любом случае это «экзистенциальный» риск в терминологии Бострома, так как означает необратимое повреждение потенциала цивилизации. Например, если население Земли будет составлять миллион человек в течение миллиона лет, то это примерно равносильно одному столетию с населением в 10 миллиардов человек по числу человеческих жизней (то есть XXI веку).

Рост европейской промышленной цивилизации был связан с наличием в одном месте легкодоступных полезных ископаемых – каменного угля и железной руды в Англии и Германии. Легкодоступные в промышленных масштабах источники ресурсов исчерпаны. При этом здесь важна экономическая целесообразность освоения. Вряд ли кто-то будет заново осваивать выплавку железа в промышленных масштабах ради призрачной цели вернуть «золотой век». Нужно, чтобы это давало конкретное преимущество в текущей ситуации, например, позволяло делать эффективное оружие. Иначе многие века будет интереснее рыться в руинах, а не налаживать производство.

Надо честно признать, что мы не знаем, возможно ли повторно запустить машину технологической цивилизации, не имея доступа к легкодоступным ресурсам, в первую очередь металлам и дешёвой энергии, а также не имея высокоурожайных сельскохозяйственных культур и домашних животных. Например, все месторождения золота в Европе были исчерпаны ещё в эпоху античности и средневековья. Конечно, технологическую цивилизацию можно было бы запустить, имея большое количество образованных мотивированных людей под правильным руководством. Например, можно добывать энергию, сжигая древесину, или с помощью гидростанций. Но неизвестно, возможна ли такая «надстройка» (то есть сообщество учёных) без соответствующей промышленной базы. Возможно ли начать «бизнес» цивилизации без стартового капитала природных ресурсов? Или будет как с индейцами Америки, которые знали о принципиальной возможности колеса (у них были колёсные игрушки), но не внедряли его в транспорт, потому что колесо без дорог и без тягловой силы бесполезно, а в горах лучше носильщики, чем колёсные повозки.

Лохран Трайл из университета Аделаиды[123] обнаружил, что для тысяч видов минимальная жизнеспособная популяция – то есть та, в которой вид имеет 90 процентные шансы прожить ещё 100 лет – составляет тысячи, а не сотни особей. Это позволяет нам оценить минимальное количество людей, необходимое для сохранение человеческой популяции. Люди очень живучие существа, но медленно размножаются. Кроме того, если взять случайную выборку из современных людей, то многие из них будут неприспособленны к выживанию во враждебной среде, не иметь культурных стереотипов, подталкивающих к интенсивному размножению, некоторые из них будут носителями СПИДа. Вместе с тем Америка была освоена изначально потомками небольшой группой людей в несколько десятков людей, однако эти люди были хорошо приспособлены к жизни в тех условиях, и имели отточенные культурные навыки охоты, разведения огня и т. д. Я полагаю, что должна сохранится группа не менее, чем в 500 человек, чтобы иметь шансы более 50% на выживание, даже при благоприятных природных обстоятельствах (отсутствия радиоактивного загрязнения, опасных болезней, и при наличии еды). Шансы на то, что пара случайных современных людей сможет стать новыми Адамом и Евой я оцениваю как менее 1 %.

Даймонд в книге «Коллапс» пишет: «Можно сказать, что Тасмания и эти три острова представляют собой наиболее выраженную иллюстрацию закономерности, имеющей значение для всего контекста всемирной истории. Человеческие популяции, насчитывавшие лишь несколько сотен индивидов, оказались неспособными существовать неопределенно долгое время в полной изоляции. Популяция размером в 4 тысячи человек смогла просуществовать десять тысяч лет, однако с серьезными культурными потерями и упущенными возможностями развития, результатом которых стала исключительная примитивность ее материальной культуры. Триста тысяч охотников-собирателей материковой Австралии были более многочисленны и менее изолированы, чем тасманийцы, и тем не менее составляли самую маленькую и изолированную из континентальных популяций мира. Засвидетельствованные примеры технологического регресса на Австралийском материке в сочетании с примером Тасмании указывают на то, что скудость культуры коренных австралийцев по сравнению с народами других континентов может быть отчасти объяснена взаимосвязью изоляции и размера популяции с зарождением и развитием технологий — зависимостью, эффект которой в данном случае имел менее выраженную форму, чем на Тасмании» [Diamond 2004].

Отсюда мы должны заключить, что крах технологической цивилизации со значительной вероятностью означает вымирание человечества, даже если отдельные представители Homo Sapiens просуществуют ещё тысячи и миллионы лет после краха. Более того, существование человечества в нынешнем виде хотя бы сто лет может иметь большую ценность, чем существование одного племени людей в течение миллиона лет, не только потому что качественно интереснее, но и потому что означает большее число прожитых человеческих жизней.


Глава 20. Катастрофы, влияющие на скорость прогресса

20.1 Влияние катастроф на скорость развития

Глобальными рисками третьего рода мы назовём любые события, которые замедляют или ускоряют ход, или меняют порядок развития сверхтехнологий на Земле, и в силу этого оказывают косвенное, но решающее влияние на возможные сценарии глобальных катастроф.

Можно обнаружить следующие взаимосвязи между катастрофами и событиями разных масштабов и их влиянием на развитие и очерёдность возникновения технологий.

1. Любая крупная авария или катастрофа может замедлить развитие технологий. Например, экономический кризис, то есть экономическая катастрофа, приведёт к остановке работ на ускорителях, что уменьшит шансы на создание «чёрной дыры», поскольку ускорители – это крайне дорогие многомиллиардные проекты. Так и произошло с российскими ускорителями после распада СССР. Уменьшится выделение денег на био- и Ии исследования, но их это затронет в меньшей степени, поскольку они могут финансироваться частным образом и гораздо дешевле.

2. Колоссальная, но не окончательная катастрофа остановит почти все исследования, даже если некоторое количество людей выживет.

3. Любая авария средней тяжести приведёт к увеличению мер безопасности и сокращению проектов в своей области. Например, Чернобыльская авария привела как к росту мер безопасности на реакторах, так и к повсеместному отказу от строительства новых реакторов.

4. Военный конфликт приведёт к гонке вооружений и росту числа исследований. Направления перспективных исследований будут выбираться с учётом мнения неких ключевых специалистов. Например, в РФ сейчас стартовала программа в области нанотехнологий. Этого не произошло, если бы те, кто принимают решения и их советники, никогда не слышали про нанотехнологии. Ядерная программа США не началась бы, если б не известное письмо Эйнштейна президенту Ф. Рузвельту. С другой стороны, универсальный ИИ как абсолютное оружие сейчас обойдён вниманием властей (насколько это известно). Однако, вечно это продолжаться не будет. Как только власти поймут, что частные лаборатории, создающие сильный ИИ, возможно, обладают силами для глобального мятежа – они приберут их к рукам. Соответственно, прослышав, что в одной стране власти сделали ставку на мощный ИИ, и другие страны могут так поступить; отдельные организации и крупные фирмы могут также начать разработку своих проектов. Однако разрушение информационной связности может отбросить всю науку об ИИ назад.

5. Само изобретение даже не очень сильного Ии позволит резко ускорить прогресс в других областях. Кроме того, любые принципиальные открытия могут изменить баланс сил.

Итак, некие события могут или сильно снизить уровень исследований в мире, в силу чего, например, более дешёвые проекты получат преимущество перед дорогими, или резко ускорить исследования. Наоборот, разрушение информационной связности затормозит дешёвые проекты, опирающиеся на доступную информацию из Интернета, и не остановит дорогие проекты, например, создание кобальтовой супербомбы.

20.2 Закон Мура

Законом Мура в узком смысле слова называется экспоненциальный рост числа транзисторов на чипе. В широком смысле слова под ним имеется в виду экспоненциальное усиление разных технологий с течением времени. Будущее закона Мура – будет ли он работать на протяжении всего XXI века или его действие прекратится в какой-то момент, – может значительно повлиять на историю человеческого общества в XXI веке и его риски.

На самом деле ускорение, которое описывает закон Мура, является не экспоненциальным, а более быстро растущим (гиперболически). Вопрос этот неоднократно исследовался, например, в статье Рэя Курцвела «Результаты закона ускорения» [Kurzweil 2001]. Подтверждением этого является, во-первых, то, что скорость удвоения числа транзисторов на чипе постепенно, хотя и не равномерно, возрастает (то есть период удвоения сокращается). Если экстраполировать закон Мура в прошлое, то он бы имел начальную точку в середине ХХ века, в то время как компоненты электронных схем развивались и раньше. Предполагается, что в начале ХХ века закон Мура (если его экстраполировать на прогресс электронных схем тогда) имел период удвоения порядка трёх лет [Kurzweil 2001].

Во-вторых, не только возрастает число транзисторов на чипе, но и число компьютеров в мире экспоненциально растёт. В силу этого суммарная доступная вычислительная мощность растёт как экспонента от экспоненты.

В-третьих, растёт связность компьютеров друг с другом, превращая их в единый компьютер. В результате, если в мире к началу 80-х было порядка миллиона компьютеров с частотами процессоров порядка мегагерца, то теперь мы имеем миллиард компьютеров, с частотами порядка гигагерца, связанных между собой Интернетом. Это означает, что совокупная вычислительная мощь за 25 лет выросла не только в миллион раз количественно, но и неисчислимым образом качественно.

Поскольку аналогичная закономерность прослеживается не только относительно чипов, но и жёстких дисков компьютеров, считывания ДНК и ряда других технологий, понятно, что закон Мура связан не с какой-то особенностью производства микросхем, а с универсальной закономерностью в освоении новых технологий, о чём пишет Курцвел.

В своё время наблюдался своеобразный аналог закона Мура в области космонавтики. От первого спутника до высадки на луну имел место экспоненциальный рост успехов, который давал основания для прогнозов о полётах к звёздам к началу XXI века. Однако, вместо этого космонавтика вышла на уровень «насыщения» и даже на откат по некоторым позициям. Это произошло, потому что космонавтика росла экспоненциально, пока не упёрлась в свои естественные пределы, которыми стали возможности химических ракет (и их цена). Хотя космонавтика развивалась, принцип реактивного движения не развивался. (Всё же определённый прогресс есть: цена запуска американской частной ракеты Фалькон предполагается в 7 млн. долларов, что равно стоимости нескольких квартир в центре Москвы, тогда как на организацию ракетной промышленности и строительство Байконура в своё время были потрачены суммы, которые можно оценить в современных ценах в сотни миллиардов долларов.) В области полупроводников и ряда других технологий происходило наоборот – каждый успех в их создании позволял быстрее и дешевле разрабатывать новые версии, потому что здесь есть рекурсивная петля: новые «чипы» разрабатываются на чипах, а в космонавтике это почти не выражено. Это главное. В производстве кремниевых микросхем закон Мура также должен рано или поздно достичь некого физического предела. Однако, если взять закон мура в более общем виде, то он означает закон самоусложнения структур. Можно видеть, как это самоусложнение совершало качественные скачки от одной области экспоненциального роста к другой, всякий раз в гораздо более быструю по параметрам развития – от одноклеточных к многоклеточным, от электронных ламп к транзисторам, от микросхем к – возможно – квантовым компьютерам. (Я не привожу здесь полную цепочку ускорения фаз развития, отмечу только, что каждый переход давал ускорение параметра роста в несколько раз. См. подробный разбор циклов ускорения в работе А. Д. Панова [Панов 2007] и у Курцвела.) Это значит, что такие события, как переход с одной экспоненты на другую, более крутую (а очевидно, не было конкурентной выгоды переходить на менее крутую экспоненту развития), являются более важными, чем даже сам экспоненциальный рост между этими переходами. И каждый раз такие переходы связаны с качественными скачками, с открытием принципиально нового способа оптимизации, нового способа более быстрого «думанья» (иначе говоря, с открытиями более быстрых алгоритмов «искусственного интеллекта», нежели простой перебор вариантов решений). Например, переход к половому размножению был, вероятно, для эволюции открытием более быстрого способа отбора и создания эффективных видов. Переход к письменности – более мощным способом накопления знаний об окружающем мире, чем устная передача информации. Создание научного метода – более мощным способом познания окружающего мира, чем доверие к античным источникам. Создание системы венчурных фирм, разрабатывающих и продающих новые технологии, – более быстрым способом, чем работа отдельных конструкторских бюро и изобретателей-одиночек. (См. например: [Азаров 1998].).

Вероятно, следует остановиться на том, каким образом устроена разработка новых технологий в современном обществе, – что и позволяет поддерживать нынешний темп роста технологий. Она включает в себя следующие процессы:

1) непрерывная генерация и патентование любых идей.

2) создание отдельных лабораторий под каждую идею, у которой есть хотя бы мизерный шанс на успех (венчурные фирмы).

3) непрерывный обмен информацией между всеми участниками процесса, как за счёт открытых публикаций, так и за счёт торговли патентами и лицензиями.

4) отлаженный механизм внедрения любых новинок. Культ потребления новинок.

5) Покупка «мозгов» – людей с их навыками – под конкретные проекты.

Эта система организации процессов инновации, как и все предыдущие, сложилась стихийно – то есть путём простого отбора между разными системами оптимизации. Можно предположить, что переход к следующей системе оптимизации будет связан с подвижками, так сказать, на уровне мета-оптимизации, то есть оптимизации процессов оптимизации. Очевидной чертой современной системы является то, что она концентрируется не вокруг людей-изобретателей, как в XIX веке – например, вокруг Эдисона и теслы, а на отработанном конвейере производства и коммерциализации идей, в котором уникальная личность отдельного человека уже не имеет принципиального значения. Из сказанного вытекает уязвимость современного «закона Мура» к экономическим потрясениям: чтобы этот закон продолжал действовать, нужен широкий фронт из множества фирм, поддерживаемый непрерывным притоком капитала. Соответственно, в будущем обобщенную модель действия закона Мура (иначе говоря, закона ускорения эволюции), ждёт или крах, или переход на ещё более скоростную ступень развития. Поскольку нельзя заставить людей (если только не изменить их природу) менять сотовый телефон 10 раз в год, то, скорее всего, двигателем следующего скачка будут нерыночные (но конкурентные) механизмы, например, гонка вооружений.

Мы можем сделать вывод, что закон Мура является продуктом развития современной экономики, следовательно, экономические риски являются и зонами риска для закона Мура, а значит, – являются глобальными рисками третьего рода. «Закон Мура» в широком смысле слова очень уязвим к целостности и связности общества. Для того, чтобы огромное количество технологий продолжало развиваться по экспоненциальной кривой, необходимо одновременное функционирование тысяч лабораторий, мощнейшая экономика и качественная информационная связность. Соответственно, даже мощный всемирный экономический кризис может подорвать его. Примером такого рода события может быть распад СССР, в результате которого наука резко обрушилась – и обрушилась бы, вероятно, ещё больше, если бы не приток идей с запада, спрос на энергоносители, импорт компьютеров, интернет, поездки за рубеж и поддержка со стороны фонда Сороса. Страшно себе представить, насколько откатилась бы назад наука, если бы СССР был единственным государством на планете и распался.

Понятно, что закон Мура мог бы поддерживаться внутри нескольких отдельных сверхдержав, обладающих полным комплектом ключевых технологий, но возможно, что некоторые ключевые технологии уже стали уникальными в мире. И конечно, одно небольшое государство, даже европейское, не сможет поддерживать темп развития науки на нынешнем уровне, оставаясь в одиночестве. В силу этого, мы должны осознавать уязвимость закона Мура на современном этапе. Однако создание ИИ, нано- и биотехнологий резко уменьшит объём пространства, которое необходимо для «производства всего». Остановка закона Мура не будет означать прекращения всех исследований. Разработка отдельных видов биологического оружия, ИИ, сверхбомб может продолжаться усилиями отдельных лабораторий. Однако без всемирного информационного обмена этот процесс значительно замедлится. Остановка закона Мура отсрочит или сделает невозможным появление сложных высокотехнологичных изделий, таких, как нанороботы, освоение Луны и загрузка мозга в компьютер, однако доведение относительно простых проектов продолжится.


 

Глава 21. Защита от глобальных рисков

21.1 Общее понятие о предотвратимости глобальных рисков

Очевидно, что если удастся выяснить, что существует несколько простых, очевидных и надёжных способов противостоять глобальным катастрофам, то мы значительно улучшим свою безопасность, а ряд глобальных рисков перестанет нам угрожать. Напротив, если окажется, что во всех предлагающихся мерах и средствах защиты есть свои изъяны, которые делают их в лучшем случае неэффективными, а в худшем – просто опасными, то нам необходимо придумать нечто кардинально новое. Представляется, что система защиты – на каждой фазе развития глобального риска – должна осуществлять следующие функции:

· Наблюдение.

· Анализ информации и принятие решения.

· Уничтожение источника угрозы.

Эта стратегия хорошо отработана в контрразведке, борьбе с терроризмом и военном деле. Другая стратегия предполагает бегство от источника угрозы (космические поселения, бункеры). Очевидно, эта вторая стратегия должна применяться в случае провала первой (или одновременно с ней, на всякий случай).

Глобальные риски различаются по степени того, насколько возможно их предотвращение. Например, вполне реально запретить некий класс опасных экспериментов на ускорителях, если научное сообщество придёт к выводу, что эти эксперименты создают определённый риск. Поскольку в мире всего несколько больших ускорителей, которые управляются достаточно открыто, и потому что сами учёные не желают катастрофы и не имеют от неё никаких выгод, то кажется очень простым отменить эксперименты. Фактически, для этого нужно только общее понимание их опасности. То есть максимально предотвратимый риск – это риск, который:

· легко предвидеть,

· легко достичь научного консенсуса в отношении такого предвидения,

· этого консенсуса достаточно, чтобы отказаться от действий, ведущих к данному риску.

Отказаться от действий, ведущих к некому риску (например, запретить некую опасную технологию), легко лишь при определённых условиях:

· Если опасные процессы создаются только людьми;

· Если эти процессы создаются в небольшом числе широко известных мест. (Как, например, физические эксперименты на огромных ускорителях);

· Если люди не ждут никакой выгоды от этих процессов;

· Если опасные процессы предсказуемы как по моменту своего возникновения, так и по ходу развития;

· Если опасные объекты и процессы легко распознаваемы. То есть мы легко, быстро и наверняка узнаём, что началась некая опасная ситуация, и мы правильно оцениваем степень её опасности;

· Если у нас есть достаточно времени в силу специфики процесса, чтобы разработать и принять адекватные меры.

Соответственно, риски, которые трудно предотвращать, характеризуются тем, что:

· Их трудно предвидеть, даже трудно предположить об их возможности. (Даже предположить, что в SETI может быть риск, было трудно.)

· даже если кто-то осознаёт этот риск, ему крайне трудно убедить в этом кого-либо ещё (примеры: трудности с осознанием ИИ и SETI как источника риска, трудности Доказательство Конца Света).

· даже если будет достигнуто общественное согласие о том, что подобные риски действительно опасны, это не приведёт к тому, что люди добровольно откажутся от данного источника риска. (примеры: ядерное оружие.)

Последнее связано с тем, что:

o Источники риска доступны большому числу людей, а кто эти люди – неизвестно (можно поставить на учёт всех физиков ядерщиков, но не хакеров-самоучек).

o Источники риска находятся в неизвестном месте и/или их легко скрыть (биолаборатории).

o Риски создаются независящими от человека природными факторами, или в результате взаимовлияния человеческих действий и природных факторов.

o Источник опасности сулит не только риски, но и выгоды, в частности, является оружием.

o Момент начала аварийной ситуации непредсказуем, равно как и то, как она будет развиваться.

o Опасную ситуацию трудно опознать в качестве таковой, это требует много времени и содержит элемент неопределённости. (Например, трудно определить, что некая новая бактерия является опасной, пока она кого-то не заразит и пока её распространение не достигнет таких масштабов, когда можно понять, что это именно эпидемия.)

o Опасный процесс развивается быстрее, чем мы успеваем на него адекватно реагировать.

Предотвратимость некоторых рисков, однако, не должна приводить к тому, что их следует сбрасывать со счёта, поскольку не обязательно означает, что риск в конечном счёте будет предотвращён. Например, астероидная опасность относится к числу относительно легко предотвратимых рисков, однако реальной противоастероидной (и, что важнее, противокометной) системы защиты у нас сейчас нет. И пока её нет, «предотвратимость» угрозы остаётся чисто гипотетической, поскольку мы не знаем, насколько эффективной и безопасной будет будущая защита, появится ли она вообще и если появится, то когда.

21.2 Активные щиты

В качестве способа предотвращения глобальных рисков предлагается создавать разного рода активные щиты. Активный щит – это средство контроля и воздействия на источник риска по всему земному шару. Фактически, это аналог иммунной системы в масштабе всей планеты. В качестве наиболее очевидного примера можно привести идеи создания всемирной системы ПРО.

Активность щитов подразумевает, что они могут относительно автономно реагировать на любой раздражитель, который попадает под определение угрозы. При этом щит полностью покрывает защищаемую поверхность, то есть поверхность Земли. Понятно, что автономный щит опасен неконтролируемым поведением, а управляемый является абсолютным оружием в руках того, кто им управляет. Как нам известно из дискуссий о СОИ, даже если активный щит является полностью оборонительным оружием, он всё равно даёт преимущество в нападении для защищённой стороны, так как она может не опасаться возмездия.

Сравнение активных щитов с иммунной системой человека, как идеальной формой защиты, некорректно, потому что иммунная система неидеальна. Она обеспечивает статистическое выживание вида за счёт того, что отдельные особи живут в среднем достаточно долго. Но она не обеспечивает неограниченное выживание отдельного индивида. Любой человек неоднократно заражается заразными болезнями в течение жизни, и многие от них гибнут. Для любого человека найдётся болезнь, которая его убьёт. Кроме того, иммунная система хорошо работает тогда, когда точно знает патоген. Если она его не знает, то потребуется время, чтобы он успел себя проявить, и ещё время, чтобы иммунная система выработала против него ответ. То же самое происходит и с компьютерными антивирусами, которые тоже являются активным щитом: хотя они обеспечивают устойчивое существование всех компьютеров, каждый отдельный компьютер время от времени всё равно заражается вирусом, и данные на нём теряются. Кроме того, антивирус не даёт защиты от принципиально нового вируса, пока не пришлют обновления, а за это время новый вирус успевает заразить определённое число компьютеров. Если бы возникла угроза распространения «серой слизи», мы поняли бы, что это – «серая слизь», только после того, как она значительно распространится. Впрочем, есть иммунные системы, работающие по принципу: запрещено всё, что не разрешено, но их тоже можно обмануть, и они более склонны к автоиммунным реакциям.

Короче говоря, иммунная система хороша только тогда, когда есть мощное дублирование основной системы. У нас пока нет возможности дублирования земных жизненных условий, а космические поселения столкнутся с рядом принципиальных трудностей. Кроме того, у всех иммунных систем бывают ложные срабатывания, которые проявляются в автоиммунных заболеваниях – как, например, аллергия и диабет – которые вносят значительный вклад в человеческую смертность, сравнимый по порядку величины с вкладом рака и инфекционных заболеваний. Если иммунная система слишком жёсткая, она порождает автоиммунные заболевания, а если слишком мягкая – то пропускает некоторые опасности. Поскольку иммунная система покрывает весь защищаемый объект, то выход её из строя создаёт угрозу всему объекту (здесь действует принцип «распространение фактора опаснее разрушения»). Террористическая атака на иммунную систему делает всю систему беззащитной. Так работает СПИД, который тем быстрее распространяется, чем сильнее с ним иммунная система борется, поскольку он находится внутри неё.

Широко обсуждаются идеи БиоЩита и НаноЩита[124]. Эти щиты подразумевают распыление по всей поверхности Земли тысяч триллионов контролирующих устройств, способных оперативно проверять любые агенты на опасность и оперативно уничтожать опасные. Также к щитам относится дальнейшее ужесточение контроля в Интернете и всемирное развешивание следящих видеокамер. Однако уже на примере всемирной ПРО видны существенные проблемы любых щитов:

1. они значительно отстают от источника угрозы по времени разработки.

2. они должны действовать сразу на всей территории Земли без исключений. Чем точечнее угроза, тем плотнее должен быть щит.

3. они уже сейчас вызывают серьёзные политические разногласия. Если щит покрывает не всю поверхность Земли, то он может создавать ситуацию стратегической нестабильности.

4. любой щит создаётся на основе ещё более продвинутых технологий, которые могут создавать угрозы своего уровня.

5. щит может быть источником глобального риска сам по себе, если у него начнётся некая «автоиммунная реакция», то есть он начнёт уничтожать то, что должен был защищать. Или если управление щитом будет потеряно, и он начнёт защищаться от своих хозяев. Или если его ложное срабатывание станет поводом для войны.

6. щит не может быть абсолютно надёжен – то есть успех его срабатывания носит вероятностный характер. И тогда, в случае постоянной глобальной угрозы, вопрос его пробивания – это только вопрос времени.

7. Щит должен иметь централизованное управление, но при этом автономность на местах для быстрого реагирования.

Например, антиастероидный щит создаст много новых проблем безопасности человечества. Во-первых, он обеспечит технологию точного управления астероидами, которая за счёт малых воздействий может направить на землю огромную массу, причём тайно, в духе криптовойны. Во-вторых, сам такой щит может быть использован для атаки на Землю. Например, если на высокой орбите будет висеть 50 штук гигатонных бомб, готовых по команде устремиться в любую точку солнечной системы, человечество не будет чувствовать себя в большей безопасности. В-третьих, движение всех астероидов за миллиарды лет хорошо синхронизировалось, и любое нарушение этого равновесия может привести к тому, что тот же самый астероид станет постоянной угрозой, регулярно проходя рядом с Землёй. Особенно это будет опасно, если человечество после такого вмешательства откатится на предтехнологический уровень.

Обратим внимание на то, что каждая опасная технология может быть средством собственного предотвращения:

· Ракеты сбиваются с помощью ракет ПРО.

· По местам производства ядерного оружия наносятся ядерные удары.

· ИИ контролирует весь мир, чтобы нигде не создали неправильный ИИ.

· Биодатчики не дают распространиться биологическому оружию.

· Нанощит защищает от нанороботов.

Часто щиты делают нечто ровно противоположное тому, ради чего они создавались. Например, есть мнение (доклад Беллоны, глава IV.1. «Три «трещины» ДНЯО» [Яблоков 2005]), что договор о нераспространении ядерного оружия плохо справляется с чёрным рынком, но хорошо справляется с распространением «мирного атома» (то есть строительством во всех странах, которые этого хотят, исследовательских ядерных реакторов), который фактически оказывается технологией двойного назначения. Прочные двери, которые защищают кабины самолётов после терактов 11 сентября, не дадут проникнуть террористам в кабину, но если они там всё-таки окажутся (например, в силу того, что сам пилот – террорист), то пассажиры и стюарды не смогут им помешать. Если есть система управления полётом с Земли, то появляется шанс захватить самолёт, используя эту систему, по радио.




Поделиться с друзьями:


Дата добавления: 2015-07-13; Просмотров: 190; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.058 сек.