Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Восприятие новой информации через призму старой. 3 страница




Rees M. 2003. Our Final Hour. N.Y.: Basic Books.

Ross M., Sicoly F. 1979. Egocentric biases in availability and attribution. Journal of Personality and Social Psychology, 37, 322-336.

SmithP.D.2007. Doomsday Men: The Real Dr. Strangelove and the Dream of the Superweapon. N.Y.: St. Martin's Press.

Stevenson D. 2003. A Modest Proposal: Mission to Earth’s Core. Nature, 423: 239–240.

Svenson O. 1981. Are We Less Risky and More Skillful That Our Fellow Drivers? Acta Psychologica, 47: 143–148.

Taleb N. 2005. The Black Swan: Why Don't We Learn that We Don't Learn? N.Y.: Random House.

Tegmark M. 1998. The Interpretation of Quantum Mechanics: Many Worlds or Many Words? Fortschr. Phys, 46: 855–862. http://arxiv.org/pdf/quant-ph/9709032

Tickner J. et al. 2000. The Precautionary Principle. http://www.biotech-info.net/handbook.pdf

Turner M.S., Wilczek, F. 1982. Is Our Vacuum Metastable? Nature, August 12: 633–634.

Vinge V. 1993. The Coming Technological Singularity. Whole Earth Review, Winter issue, 81: 88–95.

Wagner M.M. 2006. Handbook of Biosurveillance. L.: Academic Press.

Ward P.D., Brownlee, D.2000. Rare Earth: Why Complex Life is Uncommon in the Universe. N.Y.: Springer.

Warwick K. 1997. March of the Machines, L: Century.

Weaver T., Wood A. 1979. Necessary Conditions for the Initiation and Propagation of Nuclear Detonation Waves in Plane Atmospheres. Physical review 20, 1 July: 316–338. http://www.lhcdefense.org/pdf/LHC%20-%20Sancho%20v.%20Doe%20-%20Atmosphere%20Ignition%20-%202%20-%20Wood_AtmIgnition-1.pdf

Webb S. 2002. If the Universe Is Teeming with Aliens... Where Is Everybody? Fifty Solutions to Fermi's Paradox and the Problem of Extraterrestrial Life. N.Y.: Springer.

Wells W. 2009. Apocalypse When?: Calculating How Long the Human Race Will Survive. NY:Springer.

Whitby B. et al. 2000. How To Avoid a Robot Takeover: Political and Ethical Choices in the Design and Introduction of Intelligent Artifacts. Presented at AISB-00 Symposium on Artificial Intelligence, Ethics an (Quasi-) Human Rights. http://www.informatics.sussex.ac.uk/users/blayw/BlayAISB00.html

Yudkowsky E. 2008. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic. N.Y.: Oxford University Press, Русский перевод: Е. Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/texts/2007/03/22-285.html

Yudkowsky E.2008. Cognitive Biases Potentially Affecting Judgment of Global Risks. Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, N.Y.: Oxford University Press, Русский перевод: Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html

Yudkowsky E. 2001. Creating Friendly AI 1.0. http://www.singinst.org/upload/CFAI.html.

Zaitsev A. 2007. Sending and Searching for Interstellar Messages. To appear in the proceedings of "International Aeronautical Congress 2007", Hyderabad: University Press. http://arxiv.org/abs/0711.2368


 

Полное содержание

Г. Г. Малинецкий. Размышления о немыслимом.. 7

1. Глобальная неустойчивость. 8

2. Психологический дискурс. 12

3. Проблема инструмента. 15

4. В погоне за предвестниками. 20

Н. Бостром. Вводное слово.. 26

Предисловие. 27

Термины.. 34

Введение. 36

Часть 1. Анализ Рисков. 38

Глава 1. Общие замечания. 38

1.1 Пространство возможностей. 38

1.2 Рассматриваемый промежуток времени: XXI век. 39

1.3 Проблемы вычисления вероятностей различных сценариев. 41

1.4 Количественные оценки вероятности глобальной катастрофы, даваемые различными авторами 59

1.5 Глобальные катастрофы и горизонт прогнозирования. 60

1.6 Краткая история исследований вопроса. 62

1.7 Угрозы менее масштабных катастроф: уровни возможной деградации 71

1.8 Однофакторные сценарии глобальной катастрофы.. 73

1.9 Принципы классификации глобальных рисков. 74

Глава 2. Атомное оружие. 76

2.1 «Ядерная зима». 77

2.2 Полное радиоактивное заражение. 82

2.3 Иные опасности атомного оружия. 85

2.4 Интеграция поражающих факторов ядерного оружия. 89

2.5 Стоимость создания ядерного потенциала, могущего угрожать выживанию человеческой цивилизации. 90

2.7 Изменение вероятности глобальной катастрофы, вызванной ядерным оружием, с течением времени 93

2.8 Стратегия сдерживания под вопросом.. 95

2.9 Ядерный терроризм как фактор глобальной катастрофы.. 96

2.10 Сокращение ядерных вооружений. 96

2.11 Выводы по рискам применения ядерного оружия. 97

Глава 3. Глобальное химическое заражение. 98

Глава 4. Биологическое оружие. 105

4.1 Общие соображения и основные сценарии. 105

4.2 Структура биологической катастрофы.. 108

4.3 «Саморазмножающейся» синтезатор ДНК. 110

4.4 Множественный биологический удар. 110

4.5 Биологические средства доставки. 111

4.6 Вероятность применения биологического оружия и её распределение во времени 112

Глава 5. Супернаркотик и другие риски, связанные с воздействием на человека. 116

5.1. Воздействие на центр удовольствия и новые технологии. 116

5.2 Риски, связанные с самокопирующимися идеями (мемами) 119

5.3 Риски, связанные с размыванием границ между человеческим и нечеловеческим 121

5.4 Риски, связанные с проблемой «философского зомби». 122

5.5 Утрата интереса к жизни и кризисы, заложенные в самой природе разума 123

5.6 Генетическая деградация человека. 126

5.7 Ошибочные решения правительств. 126

5.8 Ограничение человеческой природы ради безопасности. 127

5.9 Снижение человеческого интеллекта. 127

Глава 6. Искусственный интеллект. 130

6.1. Общее описание проблемы.. 130

6.2 Ии как универсальное абсолютное оружие. 134

6.3 Система целей. 135

6.4 Борьба ИИ-проектов между собой. 136

6.5 «Усовершенствованный человек». 136

6.6 ИИ и его отдельные экземпляры.. 137

6.7 «Бунт» ИИ.. 137

6.8 Скорость старта. 137

6.9 Сценарии «быстрого старта». 138

6.10 Медленный старт и борьба разных ИИ между собой. 139

6.11 Плавный переход. Превращение государства тотального контроля в ИИ 139

6.12 «Восстание» роботов. 141

6.13 Контроль и возможность истребления. 141

6.14 ИИ и государства. 142

6.15 Вероятность катастрофы, связанной с ИИ.. 143

6.16 Типы враждебного ИИ.. 145

6.17 Другие риски, связанные с компьютерами. 146

6.18 Время возникновения ИИ.. 147

Глава 7. Риски, связанные с роботами и нанотехнологиями. 149

7.1 Проблема создания микроскопических роботов и нанотехнологии 149

7.2 Робот-распылитель. 151

7.3 Самовоспроизводящийся робот.. 151

7.4 Стая микророботов. 152

7.5 Армии крупных боевых роботов, выходящие из-под контроля. 153

7.6 Миниатюризация роботов – путь к нанотехнологическому оружию 153

7.7 Неограниченное распространение самовоспроизводящихся нанороботов 155

7.8 Вероятность возникновения нанороботов и возможное время осуществления этого события 157

7.9 Другие виды нанотехнологического оружия. 158

Глава 8. Технологические способы провоцирования природных катастроф.. 159

8.1 Искусственная инициация термоядерной детонации Земли и других небесных тел 159

8.2 Отклонение астероидов. 160

8.3 Создание искусственного сверхвулкана. 161

8.4 Намеренное разрушение озонового слоя. 164

Глава 9. Технологические риски, связанные с принципиально новыми открытиями. 165

9.1 Неудачный физический эксперимент.. 165

9.2 Новые виды оружия, новые источники энергии, новые среды распространения и способы дальнодействия. 169

Глава 10. Риски, создаваемые космическими технологиями. 171

10.1 Гипотетические виды космического оружия. 171

10.2 Ксенобиологические риски. 172

10.3 Столкновение с превосходящими нас разумными силами во Вселенной 173

Глава 11. Риски, связанные с программой SETI 178

Глава 12. Риски, связанные с природными катастрофами. 182

12.1 Вселенские катастрофы.. 182

12.2 Геологические катастрофы.. 184

12.3 Извержения сверхвулканов. 184

12.4 Падение астероидов. 186

12.5 Зона поражения в зависимости от силы взрыва. 189

12.6 Астероидная опасность в контексте технологического развития 191

12.7 Солнечные вспышки и увеличение светимости. 194

12.8 Гамма-всплески. 197

12.9 Сверхновые звёзды.. 199

12.10 Сверх-цунами. 200

12.11 Сверхземлетрясение. 201

12.12 Переполюсовка магнитного поля Земли. 201

12.13 Возникновение новой болезни в природе. 202

12.14 Разрушение озонового слоя. 204

Глава 13. Крайне маловероятные природные риски. 206

13.1 Неизвестные процессы в ядре Земли. 206

13.2 Внезапная дегазация растворённых в мировом океане газов. 208

13.3 Нарушение стабильности Земной атмосферы.. 209

13.4 Взрывы других планет солнечной системы.. 210

13.5 Гравитационные возмущения от гипотетических небесных тел 210

13.6 Ложные и опровергнутые теории глобальных катастроф.. 211

Глава 14. Природные катастрофы и эффект наблюдательной селекции. 213

14.1 Прекращение действия «защиты», которую нам обеспечивал антропный принцип 213

14.2 Ослабление устойчивости природных процессов и человеческие вмешательства 215

Глава 15. Глобальное потепление. 216

Глава 16. Антропогенные риски, не связанные с новыми технологиями. 221

16.1 Исчерпание ресурсов. 221

16.2 Перенаселение. 223

16.3 Крах биосферы.. 225

16.4 Социально-экономический кризис. Война. 225

16.5 Генетическая деградация и ослабление фертильности (способности к размножению) 225

16.6 Старение вида. 227

16.7 Вытеснение другим биологическим видом.. 228

16.8 Неизвестные нам сейчас причины катастроф.. 228

Глава 17. Способы обнаружения однофакторных сценариев глобальной катастрофы.. 230

17.1 Общие признаки любого опасного агента. 230

17.2 Способы возникновения. 231

17.3 выход из точки и начало распространения. 231

17.4 Распространение важнее разрушения. 232

17.5 Способ распространения. 233

17.6 Способ причинения смерти. 234

17.7 Типичные виды разрушающего воздействия. 235

17.8 Временная структура события. 236

17.9 Предаварийные ситуации. 237

17.10 Намеренная и случайная глобальная катастрофа. 237

17.11 Машина судного дня. 238

Глава 18. Многофакторные сценарии. 241

18.1 Интеграция различных технологий, создающих ситуации риска 241

18.2 Парные сценарии. 242

18.3 Изучение глобальных катастроф с помощью моделей и аналогий 246

18.4 Неизбежность достижения устойчивого состояния. 248

18.5 Рекуррентные риски. 250

18.6 Глобальные риски и проблема темпа их нарастания. 250

18.7 Сравнительная сила разных опасных технологий. 252

18.8 Последовательность возникновения различных технологий во времени 252

18.9 Сопоставление различных технологических рисков. 253

18.10 Цели создания оружия судного дня. 255

18.11 Социальные группы, готовые рискнуть судьбой планеты.. 260

18.12 Обобщающий коэффициент, связанный с человеческим фактором 261

18.13 Принятие решения о ядерном ударе. 262

18.14 Цена вопроса. 264

18.15 Универсальные причины вымирания цивилизаций. 266

18.16 От финансового кризиса к глобальной катастрофе. 268

18.17. Процессы с положительной обратной связью как универсальный механизм глобальных катастроф 272

Глава 19. События, изменяющие вероятность глобальной катастрофы.. 274

19.1 Определение и общие соображения. 274

19.2 События, которые могут открыть окно уязвимости. 275

19.3 Системные кризисы.. 276

19.4 Кризис кризисов. 285

19.5 Технологическая Сингулярность. 286

19.6 Перепотребление приводит к одновременному исчерпанию всех ресурсов 289

19.7 Системный кризис и технологические риски. 291

19.8 Системный технологический кризис – наиболее вероятный сценарий глобальной катастрофы 292

19.9 Криптовойна. 293

19.10 Уязвимость к сверхмалым воздействиям.. 294

19.11 Гонка вооружений. 295

19.12 Моральная деградация. 296

19.13 Враждебность в обществе как сценарный фактор. 297

19.14 Месть как сценарный фактор. 298

19.15 Война как сценарный фактор. 299

19.16 Деградация биосферы.. 301

19.17 Глобальная дезинфекция. 301

19.18 «Раскачивающее» управление. 302

19.19 Контролируемый и неконтролируемый глобальный риск. Проблемы понимания глобального риска 302

19.20 Общие модели поведения систем на грани устойчивости. 305

19.21 Гипотеза техногуманитарного баланса. 306

19.22 Схемы сценариев. 306

19.23 Степень мотивации и осведомлённости лиц, принимающих решения, как факторы глобального риска. 307

19.24 Означает ли крах технологической цивилизации вымирание людей? 310

Глава 20. Катастрофы, влияющие на скорость прогресса. 313

20.1 Влияние катастроф на скорость развития. 313

20.2 Закон Мура. 314

Глава 21. Защита от глобальных рисков. 318

21.1 Общее понятие о предотвратимости глобальных рисков. 318

21.2 Активные щиты.. 320

21.3 Действующие и будущие щиты.. 323

21.4 Сохранение мирового баланса сил. 325

21.5 Глобальная система наблюдения. 326

21.6 Сознательная остановка технологического прогресса. 328

21.7 Средства превентивного удара. 329

21.8 Удаление источников рисков на значительное расстояние от Земли 331

21.9 Создание автономных поселений в отдалённых уголках Земли. 331

21.10 Создание досье на глобальные риски и рост общественного понимания связанной с ними проблематики. 332

21.11 Убежища и бункеры.. 332

21.12 Опережающее расселение в космосе. 337

21.13 «всё как-нибудь обойдётся». 343

21.14 Деградация цивилизации до уровня устойчивого состояния. 344

21.15 Предотвращение одной катастрофы с помощью другой. 344

21.16 Опережающая эволюция человека. 345

21.17 Возможная роль международных организаций в предотвращении глобальной катастрофы 346

21.18 Бесконечность Вселенной и вопрос об окончательности человеческого вымирания 348

21.19 Предположения о том, что мы живём в «Матрице». 351

21.20 Глобальные катастрофы и устройство общества. 353

21.21 Глобальные катастрофы и текущая ситуация в мире. 355

21.22 Мир после глобальной катастрофы.. 356

21.23 Мир без глобальной катастрофы: наилучший реалистичный вариант предотвращения глобальных катастроф.. 358

21.24 Максимизация функции удовольствия. 358

21.25. Применение новых технологий для уменьшения последствий катастроф 360

21.26 Ускорение субъективного времени с целью избежания катастрофы 360

21.27 Какие малые действия можно сделать, что изменить ситуацию с глобальными катастрофами 361

21.28 Популяризация проблематики глобальных рисков. 368

Глава 22. Непрямые способы оценки вероятности глобальной катастрофы.. 370

22.1 Принцип Парето. 370

22.2 Гипотеза о «Чёрной королеве». 372

22.3 Парадокс Ферми. 373

22.4 Доказательство Конца Света – «Doomsday argument». Формула Готта 377

22.5 Рассуждение о конце света Картера-Лесли. 380

22.6 Непрямая оценка вероятности природных катастроф.. 383

22.7 Рассуждение о Симуляции. 386

22.8 Интеграция различных непрямых оценок. 389

Глава 23. Наиболее вероятные сценарии глобальной катастрофы.. 395

Часть 2. Когнитивные искажения в оценке глобальных рисков. 400

Глава 1. Общие замечания. Ошибка как интеллектуальная катастрофа. 400

Глава 2. Ошибки, возможные только относительно угроз существованию человечества. 406

Глава 3. как когнитивные искажения, которые могут касаться любых проблем, влияют на оценку глобальных рисков 421

Глава 4. Возможные общелогические ошибки в рассуждениях о глобальных рисках. 455

Заключение. Перспективы предотвращения глобальных катастроф.. 466

Литература. 468

Полное содержание. 476


Алексей Валерьевич Турчин – эксперт Российского Трансгуманистического Движения по глобальным катастрофам, выпускник ист. фака МГУ. Автор книги «Война и ещё 25 сценариев конца света», статей и переводов по проблемам влияния новых технологий на выживаемость человеческой цивилизации. Живёт и работает в Москве.

« Такая книга должна была появиться. Её время пришло. Хорошо было бы, чтобы она была написана лет на 20 раньше. Но прошлого уже не изменишь, а о будущем надо думать, проектировать его и осмысливать его опасности, риски и угрозы.

Эта книга находится на грани между обзором работ, посвященных сценариям глобальной катастрофы, выполненным в мире, между футурологическим исследованием и методологическим анализом существующих подходов. Автор книги – Алексей Турчин – стремится к объективному анализу, к научности, к целостному осмыслению глобальных рисков. Безусловным достоинством книги является её интеллектуальная честность, стремление к чёткому разделению фактов, результатов, гипотез, сомнений, домыслов». Г. Г. Малинецкий, российский математик. Доктор физико-математических наук, профессор, заместитель директора Института прикладной математики им. М. В. Келдыша РАН.

 

“Множество академических учёных тратит массу времени, думая о множестве вещей. К сожалению, угрозы существованию человеческого вида всё ещё не являются одной из них. Мы должны надеяться, что эта ситуация изменится, и возможно, данная книга стимулирует больше исследований по этой проблеме”. Ник Бостром, Future of humanity institute, Oxford, UK, входит в TOP 100 мировых мыслителей по версии Foreign Policy Magazin 2009.

 


[1] Малинецкий Георгий Геннадиевич (род. 1956, Уфа) — российский математик. Доктор физико-математических наук, профессор, заместитель директора Института прикладной математики им. М. В. Келдыша РАН (ИПМ).

[2] Более подробно обо всём рассказано в книге С.П. Капицы, С.П. Курдюмова, Г.Г. Малинецкого. Синергетика и прогнозы будущего. 3-е издание. М.: Едиториал УРСС, 2003.-288с.

[3] Математическая теория режимов с обострением создавалась с начала 1980-х годов в научной школе чл.-корр РАН Сергея Павловича Курдюмова в Институте прикладной математики им. М. В. Келдыша РАН. В своих статьях, книгах, выступлениях С. П. Курдюмов порой сетовал, что главные для развития человечества вопросы пока не вызывают интереса и внимания. Но будущее уже на пороге и закрывать на него глаза уже нельзя.

[4] Этот текст принадлежит перу талантливого журналиста. Ваннах М. Грозовые ожидания. Рейтинг популярных страшилок XXI века // Компьютерра, 2008, №19, с.34-36.

[5] Сигида А. Мертвое дело. Пора привыкать к заморозкам – Русский репортер, 5-12 июня, 2008, с.38-39

[6] Лем С. Сумма технологии. Собрание сочинений, том тринадцатый, дополнительный. М.: Текст, 1996.-463с.

[7] Степанов С. А. Страх и трепет в кн. Азимова А. Выбор катастроф. -Спб.: Амфора, 2001, с.5-10

[8] Кросс Л., Шеррер Р. Наступит ли конец космологии? Ускоряющаяся вселенная уничтожает следы собственного прошлого // В мире науки, 2008, №6, с.31-37.

[9] Подробности есть в книге. В. А. Владимирова, Ю. Л. Воробьёва, Г Г. Малинецкого и др. Управление риском. Риск. Устойчивое развитие. Синергетика. М.: наука, 2000, -431с.

[10] Хитгенс Т. Звездные войны // В мире науки, 2008, №6, с.63-69

[11] Малинецкий Г Г., Подлазов А. В., Кузнецов И. В. О национальной системе научного мониторинга// Вестник РАН. 2005. Т.75, №7, с.1‑16.

[12] Более ранняя версия этой части исследования вышла в сборнике Института системного анализа РАН в виде статьи «О возможных причинах недооценки рисков гибели человеческой цивилизации» [Турчин 2007a].

 

 

[14]Вот здесь есть краткий обзор истории концепции вероятности: http://www.riskland.ru/lib/sub_prob.shtml.

[15] http://en.wikipedia.org/wiki/Rule_of_succession

[16] Очевидно, что по мере того, как проблема будет приближаться к нам по времени и конкретизироваться, мы сможем получить более точные оценки в некоторых конкретных случаях, особенно, в легко формализуемых задачах типа пролёта астероидов и последствий ядерной войны.

[17]См. подробнее мой текст: «От экономического кризиса к глобальной катастрофе». http://www.proza.ru/2009/04/24/732

[18] http://www.mirozdanie.narod.ru/

[19] http://www.poteplenie.ru/

[20] http://depletedcranium.com/why-you-cant-build-a-bomb-from-spent-fuel/

 

[21] Подробнее можно посмотреть, например, здесь: http://www.nuclear-weapons.nm.ru/theory/dirty_bombs.htm

[22] Александр Колдобский. Осторожно – термояд! http://www.geocities.com/barga44/protiv1.rtf

[23] http://www.proza.ru/texts/2008/07/19/466.html

[24] Andre Gsponer and Jean-Pierre Hurni. Antimatter weapons. http://cui.unige.ch/isi/sscr/phys/antim-BPP.html

[25] Чак Хансен «Ядерное оружие США». "Урановая пушка", включенная в состав устройства, не была первым решением, рассмотренным разработчиками Лос-Аламоса; первоначальная бомба пушечного типа имела длину 17 футов (512 см.) и являлась оружием с плутониевым наполнением, которой для предотвращения преждевременной детонации требовалось сдвижение системы "мишень-снаряд" со скоростью 3000 футов в секунду (903 м/с). Цит. по "Давайте обсудим физику ядерного терроризма, г-н Колдобский!" http://www.nasledie.ru/terror/25_7/7_1/article.php?art=0

[26] Arjun Makhijani and Hisham Zerriffi. Dangerous Thermonuclear Quest http://www.ieer.org/reports/fusion/chap4.html.

[27]«Зона отчуждения, режим присвоения» http://www.expert.ru/printissues/ukraine/2007/48/zona_otchyzhdeniya/ - например, в Белоруссии разрешается вести сельское хозяйство и при 40 кюри на кв. км., что не сильно отличается от уровней в 300 кюри, а значит, уровни в 300 кюри не могут дать гарантированного вымирания.

[28]"Гуру" криптографии оценил риск ядерной войны” http://rnd.cnews.ru/liberal_arts/news/top/index_science.shtml?2008/04/07/295802, его страница со статьёй: Martin Hellman "Risk Analysis of Nuclear Deterrence». http://nuclearrisk.org/index.php

[29] «Обнаружен огромный подземный океан». http://geoman.ru/news/item/f00/s02/n0000244/index.shtml

[30] http://www.wired.com/science/discoveries/news/2007/11/igem_winner сообщение об этом прокомментировано следующей шуткой: «Осторожно, это продукт содержит маленькие части, которые могут истребить нашу цивилизацию. Использовать под наблюдением взрослых».

[31] По этой ссылке можно посмотреть цены на подержанные ДНК-синтезаторы: http://www.labx.com/v2/newad.cfm?catID=14

[32] Hacking goes squishy. Sep 3rd 2009 The Economist print edition

http://www.economist.com/sciencetechnology/tq/displaystory.cfm?story_id=14299634

 

[33] http://www.homeoint.org/kotok/vaccines/news12.02.htm

[34] «Генетический хакер может создать биологическое оружие у себя дома». Перевод статьи «Биовойна для чайников» – «Biowar for Dummies» by Paul Boutin http://www.membrana.ru/articles/global/2006/02/22/220500.html

[35] Green Goo: The New Nano-Threat. http://www.wired.com/medtech/health/news/2004/07/64235

[36] http://news.yahoo.com/s/time/20080915/us_time/thearmystotallyseriousmindcontrolproject;_ylt=Ag6k7VZPDxl_X5rtgfYDzkWs0NUE

[37] Это реальный термин в современной философии сознания. Большую подборку статей по-английски можно найти здесь: http://consc.net/online/1/all#zombies Краткое изложение проблемы по-русски: «Зомби и искусственный интеллект» http://philos.miem.edu.ru/6/257.htm

[38] Хорошее введение в проблему квалиа есть в Википедии: http://ru.wikipedia.org/wiki/Квалиа Специальные работы по проблеме можно найти здесь: http://consc.net/online/1/all#qualia

[39] См. краткое изложение и дискуссию здесь: http://nature-wonder.livejournal.com/168800.html

[40] «Продемонстрировав, что симуляция мозга является реалистичным проектом, исследователи полагают, что из их результатов следует возможность смоделировать мозг млекопитающего в течение 3 лет, и человеческий мозг в течение десятилетия». http://www.technologyreview.com/Biotech/19767/

[41] 'Larry Page, Google Look Into AI:'

http://www.webpronews.com/topnews/2007/02/19/larry-page-google-look-into-ai

[42] http://www.agiri.org/wiki/index.php?title=Novamente_Cognition_Engine

[43] http://www.singinst.org/blog/2007/07/31/siai-why-we-exist-and-our-short-term-research-program/

[44] http://www.numenta.com/about-numenta/numenta-technology.php

[45] http://www.opencyc.org/

[46] Eurisko, The Computer With A Mind Of Its Own http://www.aliciapatterson.org/APF0704/Johnson/Johnson.html

[47] http://www.adaptiveai.com/

[48] 'Кило процессоров на кончике пальца в разы обгоняет классические камни' http://www.membrana.ru/articles/technic/2006/04/05/190100.html

[49] Как утверждает Юдковски в дискуссионном листе SL4.

[50] См. Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html

[51] Мною выполнен перевод их на русский язык: «Siai рекомендации по созданию дружественного ИИ». http://www.proza.ru/texts/2007/07/13-272.html

[52] В отношении шахмат этот принцип сформулировал Стейниц.

[53] А именно, упоминавшихся уже работ Юдковски и Омохундро.

[54]Ethanol bill fuels food Costs http://money.cnn.com/2007/12/07/news/economy/biofuels/index.htm?postversion=2007120712

[55] Краткие сведения о проекте есть в Википедии. http://en.wikipedia.org/wiki/Eurisko

[56] http://www.darpa.mil/ipto/programs/bica/ Доступ с российских компьютеров закрыт.

[57] См. Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html

[58] http://e-drexler.com/p/07/00/1204TechnologyRoadmap.html

[59] Dangers of Molecular Manufacturing http://www.crnano.org/dangers.htm, русский перевод http://www.proza.ru/texts/2008/04/08/430.html

[60] http://www.darpa.mil/dso/thrusts/materials/multfunmat/nav/index.htm

[61] http://reprap.org/bin/view/Main/WebHome

[62] Robert A. Freitas Jr. Michael Vassar. Lifeboat Foundation Nanoshield

http://www.kurzweilai.net/meme/frame.html?main=/articles/art0685.html?m%3D2 Майкл Вассер, Роберт Фрайтас. Проект «Нанощит» фонда Лайфбоат. С моими комментариями. http://www.scribd.com/doc/12113758/Nano-Shield

[63] Болонкин А. «Искусственный взрыв Солнца: реальная угроза человечеству»

http://lasthot.ru/forum/news/3645-iskusstvennyjj-vzryv-solnca-realnaja-ugroza-chelovechestvu.html и Bolonkin. Artificial Explosion of Sun. AB-Criterion for Solar Detonation

http://www.scribd.com/doc/24024795/Artificial-Explosion-of-Sun-AB-Criterion-for-Solar-Detonation

[64] Richard C. Hoagland. Did NASA Accidentally “Nuke” Jupiter?

http://www.enterprisemission.com/NukingJupiter.html

[65] «О возможности искусственной инициации взрыва планет-гигантов и других объектов Солнечной системы». http://www.proza.ru/texts/2008/07/19/466.html

[66] М. Аджиев. Осторожно, тяжелая вода! http://n-t.ru/tp/mr/otv.htm

[67] «Буровые разведчики навсегда включили грязный вулкан».

http://www.membrana.ru/print.html?1169755080

[68] Личное сообщение Л.Я. Арановича. Работа выполнена на грант РФФИ.

[69] Six Places to Nuke When You’re Serious

http://www.acceleratingfuture.com/michael/blog/?p=120

[70]http://www.oko-planet.spb.ru/?open&h=1&p=6_2&type=viewmes&site=235C6

[71] study of potentially dangerous events during heavy-ion collisions at the lhc: Report of the lhc safety study group. http://doc.cern.ch/yellowrep/2003/2003-001/p1.pdf

[72] The Potential for Danger in Particle Collider Experiments.

http://www.risk-evaluation-forum.org/anon1.htm

[73] См. там же.

[74] http://www.gazeta.ru/science/2007/11/23_a_2333388.shtml

[75] D. Brin. SHOUTING AT THE COSMOS....Or How SETI has Taken a Worrisome Turn Into Dangerous Territory. http://lifeboat.com/ex/shouting.at.the.cosmos

[76] Такого мнения придерживался под конец жизни И.С. Шкловский, автор знаменитой книги «Вселенная, жизнь, разум», отметим также исследование P. Ward. Rare Earth, 2002.




Поделиться с друзьями:


Дата добавления: 2015-07-13; Просмотров: 216; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.01 сек.