КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Восприятие новой информации через призму старой. 3 страница
Rees M. 2003. Our Final Hour. N.Y.: Basic Books. Ross M., Sicoly F. 1979. Egocentric biases in availability and attribution. Journal of Personality and Social Psychology, 37, 322-336. SmithP.D.2007. Doomsday Men: The Real Dr. Strangelove and the Dream of the Superweapon. N.Y.: St. Martin's Press. Stevenson D. 2003. A Modest Proposal: Mission to Earth’s Core. Nature, 423: 239–240. Svenson O. 1981. Are We Less Risky and More Skillful That Our Fellow Drivers? Acta Psychologica, 47: 143–148. Taleb N. 2005. The Black Swan: Why Don't We Learn that We Don't Learn? N.Y.: Random House. Tegmark M. 1998. The Interpretation of Quantum Mechanics: Many Worlds or Many Words? Fortschr. Phys, 46: 855–862. http://arxiv.org/pdf/quant-ph/9709032 Tickner J. et al. 2000. The Precautionary Principle. http://www.biotech-info.net/handbook.pdf Turner M.S., Wilczek, F. 1982. Is Our Vacuum Metastable? Nature, August 12: 633–634. Vinge V. 1993. The Coming Technological Singularity. Whole Earth Review, Winter issue, 81: 88–95. Wagner M.M. 2006. Handbook of Biosurveillance. L.: Academic Press. Ward P.D., Brownlee, D.2000. Rare Earth: Why Complex Life is Uncommon in the Universe. N.Y.: Springer. Warwick K. 1997. March of the Machines, L: Century. Weaver T., Wood A. 1979. Necessary Conditions for the Initiation and Propagation of Nuclear Detonation Waves in Plane Atmospheres. Physical review 20, 1 July: 316–338. http://www.lhcdefense.org/pdf/LHC%20-%20Sancho%20v.%20Doe%20-%20Atmosphere%20Ignition%20-%202%20-%20Wood_AtmIgnition-1.pdf Webb S. 2002. If the Universe Is Teeming with Aliens... Where Is Everybody? Fifty Solutions to Fermi's Paradox and the Problem of Extraterrestrial Life. N.Y.: Springer. Wells W. 2009. Apocalypse When?: Calculating How Long the Human Race Will Survive. NY:Springer. Whitby B. et al. 2000. How To Avoid a Robot Takeover: Political and Ethical Choices in the Design and Introduction of Intelligent Artifacts. Presented at AISB-00 Symposium on Artificial Intelligence, Ethics an (Quasi-) Human Rights. http://www.informatics.sussex.ac.uk/users/blayw/BlayAISB00.html Yudkowsky E. 2008. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic. N.Y.: Oxford University Press, Русский перевод: Е. Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/texts/2007/03/22-285.html Yudkowsky E.2008. Cognitive Biases Potentially Affecting Judgment of Global Risks. Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, N.Y.: Oxford University Press, Русский перевод: Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html Yudkowsky E. 2001. Creating Friendly AI 1.0. http://www.singinst.org/upload/CFAI.html. Zaitsev A. 2007. Sending and Searching for Interstellar Messages. To appear in the proceedings of "International Aeronautical Congress 2007", Hyderabad: University Press. http://arxiv.org/abs/0711.2368
Полное содержание Г. Г. Малинецкий. Размышления о немыслимом.. 7 1. Глобальная неустойчивость. 8 2. Психологический дискурс. 12 3. Проблема инструмента. 15 4. В погоне за предвестниками. 20 Н. Бостром. Вводное слово.. 26 Предисловие. 27 Термины.. 34 Введение. 36 Часть 1. Анализ Рисков. 38 Глава 1. Общие замечания. 38 1.1 Пространство возможностей. 38 1.2 Рассматриваемый промежуток времени: XXI век. 39 1.3 Проблемы вычисления вероятностей различных сценариев. 41 1.4 Количественные оценки вероятности глобальной катастрофы, даваемые различными авторами 59 1.5 Глобальные катастрофы и горизонт прогнозирования. 60 1.6 Краткая история исследований вопроса. 62 1.7 Угрозы менее масштабных катастроф: уровни возможной деградации 71 1.8 Однофакторные сценарии глобальной катастрофы.. 73 1.9 Принципы классификации глобальных рисков. 74 Глава 2. Атомное оружие. 76 2.1 «Ядерная зима». 77 2.2 Полное радиоактивное заражение. 82 2.3 Иные опасности атомного оружия. 85 2.4 Интеграция поражающих факторов ядерного оружия. 89 2.5 Стоимость создания ядерного потенциала, могущего угрожать выживанию человеческой цивилизации. 90 2.7 Изменение вероятности глобальной катастрофы, вызванной ядерным оружием, с течением времени 93 2.8 Стратегия сдерживания под вопросом.. 95 2.9 Ядерный терроризм как фактор глобальной катастрофы.. 96 2.10 Сокращение ядерных вооружений. 96 2.11 Выводы по рискам применения ядерного оружия. 97 Глава 3. Глобальное химическое заражение. 98 Глава 4. Биологическое оружие. 105 4.1 Общие соображения и основные сценарии. 105 4.2 Структура биологической катастрофы.. 108 4.3 «Саморазмножающейся» синтезатор ДНК. 110 4.4 Множественный биологический удар. 110 4.5 Биологические средства доставки. 111 4.6 Вероятность применения биологического оружия и её распределение во времени 112 Глава 5. Супернаркотик и другие риски, связанные с воздействием на человека. 116 5.1. Воздействие на центр удовольствия и новые технологии. 116 5.2 Риски, связанные с самокопирующимися идеями (мемами) 119 5.3 Риски, связанные с размыванием границ между человеческим и нечеловеческим 121 5.4 Риски, связанные с проблемой «философского зомби». 122 5.5 Утрата интереса к жизни и кризисы, заложенные в самой природе разума 123 5.6 Генетическая деградация человека. 126 5.7 Ошибочные решения правительств. 126 5.8 Ограничение человеческой природы ради безопасности. 127 5.9 Снижение человеческого интеллекта. 127 Глава 6. Искусственный интеллект. 130 6.1. Общее описание проблемы.. 130 6.2 Ии как универсальное абсолютное оружие. 134 6.3 Система целей. 135 6.4 Борьба ИИ-проектов между собой. 136 6.5 «Усовершенствованный человек». 136 6.6 ИИ и его отдельные экземпляры.. 137 6.7 «Бунт» ИИ.. 137 6.8 Скорость старта. 137 6.9 Сценарии «быстрого старта». 138 6.10 Медленный старт и борьба разных ИИ между собой. 139 6.11 Плавный переход. Превращение государства тотального контроля в ИИ 139 6.12 «Восстание» роботов. 141 6.13 Контроль и возможность истребления. 141 6.14 ИИ и государства. 142 6.15 Вероятность катастрофы, связанной с ИИ.. 143 6.16 Типы враждебного ИИ.. 145 6.17 Другие риски, связанные с компьютерами. 146 6.18 Время возникновения ИИ.. 147 Глава 7. Риски, связанные с роботами и нанотехнологиями. 149 7.1 Проблема создания микроскопических роботов и нанотехнологии 149 7.2 Робот-распылитель. 151 7.3 Самовоспроизводящийся робот.. 151 7.4 Стая микророботов. 152 7.5 Армии крупных боевых роботов, выходящие из-под контроля. 153 7.6 Миниатюризация роботов – путь к нанотехнологическому оружию 153 7.7 Неограниченное распространение самовоспроизводящихся нанороботов 155 7.8 Вероятность возникновения нанороботов и возможное время осуществления этого события 157 7.9 Другие виды нанотехнологического оружия. 158 Глава 8. Технологические способы провоцирования природных катастроф.. 159 8.1 Искусственная инициация термоядерной детонации Земли и других небесных тел 159 8.2 Отклонение астероидов. 160 8.3 Создание искусственного сверхвулкана. 161 8.4 Намеренное разрушение озонового слоя. 164 Глава 9. Технологические риски, связанные с принципиально новыми открытиями. 165 9.1 Неудачный физический эксперимент.. 165 9.2 Новые виды оружия, новые источники энергии, новые среды распространения и способы дальнодействия. 169 Глава 10. Риски, создаваемые космическими технологиями. 171 10.1 Гипотетические виды космического оружия. 171 10.2 Ксенобиологические риски. 172 10.3 Столкновение с превосходящими нас разумными силами во Вселенной 173 Глава 11. Риски, связанные с программой SETI 178 Глава 12. Риски, связанные с природными катастрофами. 182 12.1 Вселенские катастрофы.. 182 12.2 Геологические катастрофы.. 184 12.3 Извержения сверхвулканов. 184 12.4 Падение астероидов. 186 12.5 Зона поражения в зависимости от силы взрыва. 189 12.6 Астероидная опасность в контексте технологического развития 191 12.7 Солнечные вспышки и увеличение светимости. 194 12.8 Гамма-всплески. 197 12.9 Сверхновые звёзды.. 199 12.10 Сверх-цунами. 200 12.11 Сверхземлетрясение. 201 12.12 Переполюсовка магнитного поля Земли. 201 12.13 Возникновение новой болезни в природе. 202 12.14 Разрушение озонового слоя. 204 Глава 13. Крайне маловероятные природные риски. 206 13.1 Неизвестные процессы в ядре Земли. 206 13.2 Внезапная дегазация растворённых в мировом океане газов. 208 13.3 Нарушение стабильности Земной атмосферы.. 209 13.4 Взрывы других планет солнечной системы.. 210 13.5 Гравитационные возмущения от гипотетических небесных тел 210 13.6 Ложные и опровергнутые теории глобальных катастроф.. 211 Глава 14. Природные катастрофы и эффект наблюдательной селекции. 213 14.1 Прекращение действия «защиты», которую нам обеспечивал антропный принцип 213 14.2 Ослабление устойчивости природных процессов и человеческие вмешательства 215 Глава 15. Глобальное потепление. 216 Глава 16. Антропогенные риски, не связанные с новыми технологиями. 221 16.1 Исчерпание ресурсов. 221 16.2 Перенаселение. 223 16.3 Крах биосферы.. 225 16.4 Социально-экономический кризис. Война. 225 16.5 Генетическая деградация и ослабление фертильности (способности к размножению) 225 16.6 Старение вида. 227 16.7 Вытеснение другим биологическим видом.. 228 16.8 Неизвестные нам сейчас причины катастроф.. 228 Глава 17. Способы обнаружения однофакторных сценариев глобальной катастрофы.. 230 17.1 Общие признаки любого опасного агента. 230 17.2 Способы возникновения. 231 17.3 выход из точки и начало распространения. 231 17.4 Распространение важнее разрушения. 232 17.5 Способ распространения. 233 17.6 Способ причинения смерти. 234 17.7 Типичные виды разрушающего воздействия. 235 17.8 Временная структура события. 236 17.9 Предаварийные ситуации. 237 17.10 Намеренная и случайная глобальная катастрофа. 237 17.11 Машина судного дня. 238 Глава 18. Многофакторные сценарии. 241 18.1 Интеграция различных технологий, создающих ситуации риска 241 18.2 Парные сценарии. 242 18.3 Изучение глобальных катастроф с помощью моделей и аналогий 246 18.4 Неизбежность достижения устойчивого состояния. 248 18.5 Рекуррентные риски. 250 18.6 Глобальные риски и проблема темпа их нарастания. 250 18.7 Сравнительная сила разных опасных технологий. 252 18.8 Последовательность возникновения различных технологий во времени 252 18.9 Сопоставление различных технологических рисков. 253 18.10 Цели создания оружия судного дня. 255 18.11 Социальные группы, готовые рискнуть судьбой планеты.. 260 18.12 Обобщающий коэффициент, связанный с человеческим фактором 261 18.13 Принятие решения о ядерном ударе. 262 18.14 Цена вопроса. 264 18.15 Универсальные причины вымирания цивилизаций. 266 18.16 От финансового кризиса к глобальной катастрофе. 268 18.17. Процессы с положительной обратной связью как универсальный механизм глобальных катастроф 272 Глава 19. События, изменяющие вероятность глобальной катастрофы.. 274 19.1 Определение и общие соображения. 274 19.2 События, которые могут открыть окно уязвимости. 275 19.3 Системные кризисы.. 276 19.4 Кризис кризисов. 285 19.5 Технологическая Сингулярность. 286 19.6 Перепотребление приводит к одновременному исчерпанию всех ресурсов 289 19.7 Системный кризис и технологические риски. 291 19.8 Системный технологический кризис – наиболее вероятный сценарий глобальной катастрофы 292 19.9 Криптовойна. 293 19.10 Уязвимость к сверхмалым воздействиям.. 294 19.11 Гонка вооружений. 295 19.12 Моральная деградация. 296 19.13 Враждебность в обществе как сценарный фактор. 297 19.14 Месть как сценарный фактор. 298 19.15 Война как сценарный фактор. 299 19.16 Деградация биосферы.. 301 19.17 Глобальная дезинфекция. 301 19.18 «Раскачивающее» управление. 302 19.19 Контролируемый и неконтролируемый глобальный риск. Проблемы понимания глобального риска 302 19.20 Общие модели поведения систем на грани устойчивости. 305 19.21 Гипотеза техногуманитарного баланса. 306 19.22 Схемы сценариев. 306 19.23 Степень мотивации и осведомлённости лиц, принимающих решения, как факторы глобального риска. 307 19.24 Означает ли крах технологической цивилизации вымирание людей? 310 Глава 20. Катастрофы, влияющие на скорость прогресса. 313 20.1 Влияние катастроф на скорость развития. 313 20.2 Закон Мура. 314 Глава 21. Защита от глобальных рисков. 318 21.1 Общее понятие о предотвратимости глобальных рисков. 318 21.2 Активные щиты.. 320 21.3 Действующие и будущие щиты.. 323 21.4 Сохранение мирового баланса сил. 325 21.5 Глобальная система наблюдения. 326 21.6 Сознательная остановка технологического прогресса. 328 21.7 Средства превентивного удара. 329 21.8 Удаление источников рисков на значительное расстояние от Земли 331 21.9 Создание автономных поселений в отдалённых уголках Земли. 331 21.10 Создание досье на глобальные риски и рост общественного понимания связанной с ними проблематики. 332 21.11 Убежища и бункеры.. 332 21.12 Опережающее расселение в космосе. 337 21.13 «всё как-нибудь обойдётся». 343 21.14 Деградация цивилизации до уровня устойчивого состояния. 344 21.15 Предотвращение одной катастрофы с помощью другой. 344 21.16 Опережающая эволюция человека. 345 21.17 Возможная роль международных организаций в предотвращении глобальной катастрофы 346 21.18 Бесконечность Вселенной и вопрос об окончательности человеческого вымирания 348 21.19 Предположения о том, что мы живём в «Матрице». 351 21.20 Глобальные катастрофы и устройство общества. 353 21.21 Глобальные катастрофы и текущая ситуация в мире. 355 21.22 Мир после глобальной катастрофы.. 356 21.23 Мир без глобальной катастрофы: наилучший реалистичный вариант предотвращения глобальных катастроф.. 358 21.24 Максимизация функции удовольствия. 358 21.25. Применение новых технологий для уменьшения последствий катастроф 360 21.26 Ускорение субъективного времени с целью избежания катастрофы 360 21.27 Какие малые действия можно сделать, что изменить ситуацию с глобальными катастрофами 361 21.28 Популяризация проблематики глобальных рисков. 368 Глава 22. Непрямые способы оценки вероятности глобальной катастрофы.. 370 22.1 Принцип Парето. 370 22.2 Гипотеза о «Чёрной королеве». 372 22.3 Парадокс Ферми. 373 22.4 Доказательство Конца Света – «Doomsday argument». Формула Готта 377 22.5 Рассуждение о конце света Картера-Лесли. 380 22.6 Непрямая оценка вероятности природных катастроф.. 383 22.7 Рассуждение о Симуляции. 386 22.8 Интеграция различных непрямых оценок. 389 Глава 23. Наиболее вероятные сценарии глобальной катастрофы.. 395 Часть 2. Когнитивные искажения в оценке глобальных рисков. 400 Глава 1. Общие замечания. Ошибка как интеллектуальная катастрофа. 400 Глава 2. Ошибки, возможные только относительно угроз существованию человечества. 406 Глава 3. как когнитивные искажения, которые могут касаться любых проблем, влияют на оценку глобальных рисков 421 Глава 4. Возможные общелогические ошибки в рассуждениях о глобальных рисках. 455 Заключение. Перспективы предотвращения глобальных катастроф.. 466 Литература. 468 Полное содержание. 476 Алексей Валерьевич Турчин – эксперт Российского Трансгуманистического Движения по глобальным катастрофам, выпускник ист. фака МГУ. Автор книги «Война и ещё 25 сценариев конца света», статей и переводов по проблемам влияния новых технологий на выживаемость человеческой цивилизации. Живёт и работает в Москве. « Такая книга должна была появиться. Её время пришло. Хорошо было бы, чтобы она была написана лет на 20 раньше. Но прошлого уже не изменишь, а о будущем надо думать, проектировать его и осмысливать его опасности, риски и угрозы. Эта книга находится на грани между обзором работ, посвященных сценариям глобальной катастрофы, выполненным в мире, между футурологическим исследованием и методологическим анализом существующих подходов. Автор книги – Алексей Турчин – стремится к объективному анализу, к научности, к целостному осмыслению глобальных рисков. Безусловным достоинством книги является её интеллектуальная честность, стремление к чёткому разделению фактов, результатов, гипотез, сомнений, домыслов». Г. Г. Малинецкий, российский математик. Доктор физико-математических наук, профессор, заместитель директора Института прикладной математики им. М. В. Келдыша РАН.
“Множество академических учёных тратит массу времени, думая о множестве вещей. К сожалению, угрозы существованию человеческого вида всё ещё не являются одной из них. Мы должны надеяться, что эта ситуация изменится, и возможно, данная книга стимулирует больше исследований по этой проблеме”. Ник Бостром, Future of humanity institute, Oxford, UK, входит в TOP 100 мировых мыслителей по версии Foreign Policy Magazin 2009.
[1] Малинецкий Георгий Геннадиевич (род. 1956, Уфа) — российский математик. Доктор физико-математических наук, профессор, заместитель директора Института прикладной математики им. М. В. Келдыша РАН (ИПМ). [2] Более подробно обо всём рассказано в книге С.П. Капицы, С.П. Курдюмова, Г.Г. Малинецкого. Синергетика и прогнозы будущего. 3-е издание. М.: Едиториал УРСС, 2003.-288с. [3] Математическая теория режимов с обострением создавалась с начала 1980-х годов в научной школе чл.-корр РАН Сергея Павловича Курдюмова в Институте прикладной математики им. М. В. Келдыша РАН. В своих статьях, книгах, выступлениях С. П. Курдюмов порой сетовал, что главные для развития человечества вопросы пока не вызывают интереса и внимания. Но будущее уже на пороге и закрывать на него глаза уже нельзя. [4] Этот текст принадлежит перу талантливого журналиста. Ваннах М. Грозовые ожидания. Рейтинг популярных страшилок XXI века // Компьютерра, 2008, №19, с.34-36. [5] Сигида А. Мертвое дело. Пора привыкать к заморозкам – Русский репортер, 5-12 июня, 2008, с.38-39 [6] Лем С. Сумма технологии. Собрание сочинений, том тринадцатый, дополнительный. М.: Текст, 1996.-463с. [7] Степанов С. А. Страх и трепет в кн. Азимова А. Выбор катастроф. -Спб.: Амфора, 2001, с.5-10 [8] Кросс Л., Шеррер Р. Наступит ли конец космологии? Ускоряющаяся вселенная уничтожает следы собственного прошлого // В мире науки, 2008, №6, с.31-37. [9] Подробности есть в книге. В. А. Владимирова, Ю. Л. Воробьёва, Г Г. Малинецкого и др. Управление риском. Риск. Устойчивое развитие. Синергетика. М.: наука, 2000, -431с. [10] Хитгенс Т. Звездные войны // В мире науки, 2008, №6, с.63-69 [11] Малинецкий Г Г., Подлазов А. В., Кузнецов И. В. О национальной системе научного мониторинга// Вестник РАН. 2005. Т.75, №7, с.1‑16. [12] Более ранняя версия этой части исследования вышла в сборнике Института системного анализа РАН в виде статьи «О возможных причинах недооценки рисков гибели человеческой цивилизации» [Турчин 2007a].
[14]Вот здесь есть краткий обзор истории концепции вероятности: http://www.riskland.ru/lib/sub_prob.shtml. [15] http://en.wikipedia.org/wiki/Rule_of_succession [16] Очевидно, что по мере того, как проблема будет приближаться к нам по времени и конкретизироваться, мы сможем получить более точные оценки в некоторых конкретных случаях, особенно, в легко формализуемых задачах типа пролёта астероидов и последствий ядерной войны. [17]См. подробнее мой текст: «От экономического кризиса к глобальной катастрофе». http://www.proza.ru/2009/04/24/732 [18] http://www.mirozdanie.narod.ru/ [19] http://www.poteplenie.ru/ [20] http://depletedcranium.com/why-you-cant-build-a-bomb-from-spent-fuel/
[21] Подробнее можно посмотреть, например, здесь: http://www.nuclear-weapons.nm.ru/theory/dirty_bombs.htm [22] Александр Колдобский. Осторожно – термояд! http://www.geocities.com/barga44/protiv1.rtf [23] http://www.proza.ru/texts/2008/07/19/466.html [24] Andre Gsponer and Jean-Pierre Hurni. Antimatter weapons. http://cui.unige.ch/isi/sscr/phys/antim-BPP.html [25] Чак Хансен «Ядерное оружие США». "Урановая пушка", включенная в состав устройства, не была первым решением, рассмотренным разработчиками Лос-Аламоса; первоначальная бомба пушечного типа имела длину 17 футов (512 см.) и являлась оружием с плутониевым наполнением, которой для предотвращения преждевременной детонации требовалось сдвижение системы "мишень-снаряд" со скоростью 3000 футов в секунду (903 м/с). Цит. по "Давайте обсудим физику ядерного терроризма, г-н Колдобский!" http://www.nasledie.ru/terror/25_7/7_1/article.php?art=0 [26] Arjun Makhijani and Hisham Zerriffi. Dangerous Thermonuclear Quest http://www.ieer.org/reports/fusion/chap4.html. [27]«Зона отчуждения, режим присвоения» http://www.expert.ru/printissues/ukraine/2007/48/zona_otchyzhdeniya/ - например, в Белоруссии разрешается вести сельское хозяйство и при 40 кюри на кв. км., что не сильно отличается от уровней в 300 кюри, а значит, уровни в 300 кюри не могут дать гарантированного вымирания. [28]"Гуру" криптографии оценил риск ядерной войны” http://rnd.cnews.ru/liberal_arts/news/top/index_science.shtml?2008/04/07/295802, его страница со статьёй: Martin Hellman "Risk Analysis of Nuclear Deterrence». http://nuclearrisk.org/index.php [29] «Обнаружен огромный подземный океан». http://geoman.ru/news/item/f00/s02/n0000244/index.shtml [30] http://www.wired.com/science/discoveries/news/2007/11/igem_winner сообщение об этом прокомментировано следующей шуткой: «Осторожно, это продукт содержит маленькие части, которые могут истребить нашу цивилизацию. Использовать под наблюдением взрослых». [31] По этой ссылке можно посмотреть цены на подержанные ДНК-синтезаторы: http://www.labx.com/v2/newad.cfm?catID=14 [32] Hacking goes squishy. Sep 3rd 2009 The Economist print edition http://www.economist.com/sciencetechnology/tq/displaystory.cfm?story_id=14299634
[33] http://www.homeoint.org/kotok/vaccines/news12.02.htm [34] «Генетический хакер может создать биологическое оружие у себя дома». Перевод статьи «Биовойна для чайников» – «Biowar for Dummies» by Paul Boutin http://www.membrana.ru/articles/global/2006/02/22/220500.html [35] Green Goo: The New Nano-Threat. http://www.wired.com/medtech/health/news/2004/07/64235 [36] http://news.yahoo.com/s/time/20080915/us_time/thearmystotallyseriousmindcontrolproject;_ylt=Ag6k7VZPDxl_X5rtgfYDzkWs0NUE [37] Это реальный термин в современной философии сознания. Большую подборку статей по-английски можно найти здесь: http://consc.net/online/1/all#zombies Краткое изложение проблемы по-русски: «Зомби и искусственный интеллект» http://philos.miem.edu.ru/6/257.htm [38] Хорошее введение в проблему квалиа есть в Википедии: http://ru.wikipedia.org/wiki/Квалиа Специальные работы по проблеме можно найти здесь: http://consc.net/online/1/all#qualia [39] См. краткое изложение и дискуссию здесь: http://nature-wonder.livejournal.com/168800.html [40] «Продемонстрировав, что симуляция мозга является реалистичным проектом, исследователи полагают, что из их результатов следует возможность смоделировать мозг млекопитающего в течение 3 лет, и человеческий мозг в течение десятилетия». http://www.technologyreview.com/Biotech/19767/ [41] 'Larry Page, Google Look Into AI:' http://www.webpronews.com/topnews/2007/02/19/larry-page-google-look-into-ai [42] http://www.agiri.org/wiki/index.php?title=Novamente_Cognition_Engine [43] http://www.singinst.org/blog/2007/07/31/siai-why-we-exist-and-our-short-term-research-program/ [44] http://www.numenta.com/about-numenta/numenta-technology.php [45] http://www.opencyc.org/ [46] Eurisko, The Computer With A Mind Of Its Own http://www.aliciapatterson.org/APF0704/Johnson/Johnson.html [47] http://www.adaptiveai.com/ [48] 'Кило процессоров на кончике пальца в разы обгоняет классические камни' http://www.membrana.ru/articles/technic/2006/04/05/190100.html [49] Как утверждает Юдковски в дискуссионном листе SL4. [50] См. Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html [51] Мною выполнен перевод их на русский язык: «Siai рекомендации по созданию дружественного ИИ». http://www.proza.ru/texts/2007/07/13-272.html [52] В отношении шахмат этот принцип сформулировал Стейниц. [53] А именно, упоминавшихся уже работ Юдковски и Омохундро. [54]Ethanol bill fuels food Costs http://money.cnn.com/2007/12/07/news/economy/biofuels/index.htm?postversion=2007120712 [55] Краткие сведения о проекте есть в Википедии. http://en.wikipedia.org/wiki/Eurisko [56] http://www.darpa.mil/ipto/programs/bica/ Доступ с российских компьютеров закрыт. [57] См. Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html [58] http://e-drexler.com/p/07/00/1204TechnologyRoadmap.html [59] Dangers of Molecular Manufacturing http://www.crnano.org/dangers.htm, русский перевод http://www.proza.ru/texts/2008/04/08/430.html [60] http://www.darpa.mil/dso/thrusts/materials/multfunmat/nav/index.htm [61] http://reprap.org/bin/view/Main/WebHome [62] Robert A. Freitas Jr. Michael Vassar. Lifeboat Foundation Nanoshield http://www.kurzweilai.net/meme/frame.html?main=/articles/art0685.html?m%3D2 Майкл Вассер, Роберт Фрайтас. Проект «Нанощит» фонда Лайфбоат. С моими комментариями. http://www.scribd.com/doc/12113758/Nano-Shield [63] Болонкин А. «Искусственный взрыв Солнца: реальная угроза человечеству» http://lasthot.ru/forum/news/3645-iskusstvennyjj-vzryv-solnca-realnaja-ugroza-chelovechestvu.html и Bolonkin. Artificial Explosion of Sun. AB-Criterion for Solar Detonation http://www.scribd.com/doc/24024795/Artificial-Explosion-of-Sun-AB-Criterion-for-Solar-Detonation [64] Richard C. Hoagland. Did NASA Accidentally “Nuke” Jupiter? http://www.enterprisemission.com/NukingJupiter.html [65] «О возможности искусственной инициации взрыва планет-гигантов и других объектов Солнечной системы». http://www.proza.ru/texts/2008/07/19/466.html [66] М. Аджиев. Осторожно, тяжелая вода! http://n-t.ru/tp/mr/otv.htm [67] «Буровые разведчики навсегда включили грязный вулкан». http://www.membrana.ru/print.html?1169755080 [68] Личное сообщение Л.Я. Арановича. Работа выполнена на грант РФФИ. [69] Six Places to Nuke When You’re Serious http://www.acceleratingfuture.com/michael/blog/?p=120 [70]http://www.oko-planet.spb.ru/?open&h=1&p=6_2&type=viewmes&site=235C6 [71] study of potentially dangerous events during heavy-ion collisions at the lhc: Report of the lhc safety study group. http://doc.cern.ch/yellowrep/2003/2003-001/p1.pdf [72] The Potential for Danger in Particle Collider Experiments. http://www.risk-evaluation-forum.org/anon1.htm [73] См. там же. [74] http://www.gazeta.ru/science/2007/11/23_a_2333388.shtml [75] D. Brin. SHOUTING AT THE COSMOS....Or How SETI has Taken a Worrisome Turn Into Dangerous Territory. http://lifeboat.com/ex/shouting.at.the.cosmos [76] Такого мнения придерживался под конец жизни И.С. Шкловский, автор знаменитой книги «Вселенная, жизнь, разум», отметим также исследование P. Ward. Rare Earth, 2002.
Дата добавления: 2015-07-13; Просмотров: 232; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |