Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Часть 1. Общие обзоры темы

Читайте также:
  1. Best Windows Apps 2013. Часть 1. Или приводим чистую операционную систему в рабочее состояние.
  2. I. Общая часть (титульный лист)
  3. I. Общая часть.
  4. I. ОБЩИЕ ПОЛОЖЕНИЯ
  5. I.Общие сведения
  6. II. ОБЩИЕ ПОЛОЖЕНИЯ
  7. II. Практическая часть.

Препринт

 

Проект

Российского Трансгуманистического Движения

 

 

 

 

Москва 2011

 

Содержание

 

Предисловие 4

ЧАСТЬ 1. ОБЩИЕ ОБЗОРЫ ТЕМЫ ГЛОБАЛЬНЫХ РИСКОВ 6

Билл Джой. Почему мы не нужны будущему 7

Вернор Виндж. Технологическая Сингулярность 39

Ник Бостром. Угрозы существованию: Анализ сценариев человеческого вымирания и других подобных опасностей. 51

Елиезер Юдковски. Когнитивные искажения, влияющие на оценку глобальных рисков. 88

Дэвид Брин. Сингулярность и кошмары 119

А.А.Кононов. Идеологические начала общей теории неуничтожимости человечества 142

Робин Хансен. Катастрофа, социальный коллапс и человеческое вымирание 154

А.В.Турчин. Процессы с положительной обратной связью как основной механизм глобальных катастроф 171

ЧАСТЬ 2. ОЦЕНКА ВЕРОЯТНОСТИ ГЛОБАЛЬНОЙ КАТАСТРОФЫ 186

Ник Бостром, Макс Тегмарк. Насколько невероятна катастрофа судного дня? 187

Ник Бостром. Рассуждение о Конце Света для начинающих 194

Ник Бостром. Doomsday Argument жив и брыкается 198

Ник Бостром. Доказательство симуляции 209

Данила Медведев 226

спекуляции Ника Бострома? 226

М.Чиркович, А.Сандберг, Н.Бостром. Антропная тень: эффекты наблюдательной селекции и риски вымирания человечества 247

Алексей Турчин. Природные катастрофы и антропный принцип 269

Тоби Орд, Рафаела Хиллербранд, Андрес Сандберг. Проверяя непроверяемое: методологические вызовы в оценке рисков с низкой вероятностью и высокими ставками 303

Эдриан Кент. Критический обзор оценок рисков глобальных катастроф 323

ЧАСТЬ 3. ГЛОБАЛЬНЫЕ РИСКИ И НОВЫЕ ТЕХНОЛОГИИ 345

Eлиезер Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска 346

Роберт Фрейтас. Проблема Серой Слизи 393

CRN. Опасности молекулярного производства 408

М. Вассер, Р.Фрайтас. Проект «Нанощит» 421

Алексей Карнаухов. Парниковая катастрофа. 440

Милан Чиркович, Ричард Каткарт. Гео-инженерия, пошедшая насмарку: новое частное решение парадокса Ферми 443

Ричард Керригэн. Следует ли обеззараживать сигналы SETI? 467

А.В. Турчин. Глобальные риски, связанные с программой SETI 477

П.Д. Смит. Кобальтовая бомба (отрывок из книги «Люди судного дня») 500

ЧАСТЬ 4. ГЛОБАЛЬНЫЕ РИСКИ, СВЯЗАННЫЕ С ПРИРОДНЫМИ КАТАСТРОФАМИ 503

Владислав Пустынский. Последствия падения на Землю крупных астероидов 504

Уильям Нейпьер. Опасность комет и астероидов 516

Майкл Рампино. Супервулканизм и другие катастрофические геофизические процессы 534

Арнон Дар. Влияние сверхновых, гамма-всплесков, солнечных вспышек и космических лучей на земную окружающую среду 551


 

 

Предисловие

 

Этот сборник статей посвящен пока малоисследованной области – рискам катастроф, которые могут привести к полному и окончательному вымиранию людей.

В XXI веке перед человечеством стоит монументальная задача – освоение сверхтехнологий. И хотя эти технологии обещают много сладких плодов, в том числе неограниченное продление жизни, главным вопросом все же является безопасность их применения. А наибольший риск от новых технологий – это катастрофа, которая может привести к полному исчезновению человечества.

Цель этого сборника – показать серьёзность подхода зарубежных учёных к проблеме глобальных рисков и ознакомить отечественного читателя с первоисточниками информации по проблеме.

В начале сборника находятся три фундаментальные статьи, каждая из которых в своё время привела к многочисленным откликам.

Первой идёт основополагающая статья Билла Джоя «Почему мы не нужны будущему», изданная в 2000 году в журнале Wired. Эта статья привела к началу широкой дискуссии в обществе на тему глобальных рисков.

Далее следует статья Вернора Винджа 1993 года о Технологической сингулярности, которая необходима для понимания проблем, возникающих перед человечеством в связи с будущим созданием Искусственного Интеллекта (ИИ).

Наконец, статья Ника Бострома об угрозах существованию (так мы переводим термин «existential risk s»), послужившая отправной точкой для многочисленных статей, приведенных в этом сборнике, а термин «existential risks» закрепился в зарубежной науке.

В первую часть сборника входит и статья Е.Юдковски о когнитивных искажениях в оценке глобальных рисков, которая дала новую перспективу в анализе проблемы.

В статье знаменитого писателя-фантаста Д.Брина рассматривается такой способ предотвращения глобальных катастроф как «тотальная прозрачность».

А.Кононов рассматривает в своей статье глобальные цели, которые необходимы для долгосрочного выживания человечества, а именно «задачу неуничтожимости цивилизации».

Американский экономист Р.Хансен исследует вопрос о том, может ли социальный коллапс привести к последующему вымиранию человечества.

В моей статье рассматриваются процессы с положительной обратной связью как общий механизм разных глобальных катастроф.

Во второй части собраны статьи, в которых рассмотрены проблемы вычисления вероятности глобальной катастрофы. Это – наиболее сложная часть сборника, и неподготовленный читатель может ее пропустить. Большое внимание в сборнике уделено так называемой Теореме о конце света (Doomsday argument) и вообще различным приложениям теории вероятности для оценки рисков глобальных катастроф с учётом эффектов наблюдательной селекции. Дискуссии эти далеко не закончены, но наверняка представляют интерес для будущего исследователя глобальных рисков. Ещё две статьи дают новую перспективу в оценке рисков опасных физических экспериментов, вроде Большого Адронного Коллайдера. В этих статьях производится оценка рисков с точки зрения ожидаемого возможного ущерба и с точки зрения вероятности истинности оценок безопасности коллайдера. Две статьи рассматривают гипотезу о том, что мы живём внутри компьютерной симуляции, созданной сверхцивилизацией. Вероятность того, что мы можем быть в симуляции, полностью изменяет оценку глобальных рисков. Эти две статьи высказывают противоположные точки зрения на данный аргумент.

В третьей части собраны статьи, в которых рассматриваются риски, связанные с новыми технологиями. Три статьи посвящены рискам, связанным с нанотехнологиями, и проектам их предотвращения. Обсуждаются риски программы поиска сигналов внеземного разума SETI, а также риски Искусственного интеллекта. Глава из книги П.Д.Смита рассказывает о забытой угрозе – кобальтовой бомбе.

В четвертой части рассматриваются глобальные риски, создаваемые возможными природными катастрофами.

Часть статей для этого сборника взята из книги “Global catastrophic risks”, вышедшей в Оксфорде в 2008 году. Большую часть статей, которые приведены в этой книге, были переведены мной. (Кроме статей Билла Джоя, Винджа и одной статьи Бострома.)

Сборник выходит при поддержке Российского Трансгуманистического Движения в серии «Диалоги о будущем» и рассчитан в первую очередь на тех, кто имеет профессиональный интерес к глобальным рискам, но может быть любопытен и для широкого круга читателей.

 

 

А.Турчин


 

ЧАСТЬ 1. ОБЩИЕ ОБЗОРЫ ТЕМЫ


Дата добавления: 2015-10-24; просмотров: 101 | Нарушение авторских прав


Читайте в этой же книге: В качестве последнего средства | Калибровка и сверхуверенность | Глобальные риски | Возможность катастрофы: современный взгляд | Предвидение возможности глобальных катастроф | Возражение второе | Возражение третье | МЯГКИЙ ПРИНЦИП РАВНОЗНАЧНОСТИ | Бесконечное число вселенных | Ошибки в формуле |
<== предыдущая страница | следующая страница ==>
Two GPS Failures| Наши наиболее могущественные технологии 21-го века – робототехника, генная инженерия и нанотехнология[2] – угрожают подвергнуть человеческий род опасности.

mybiblioteka.su - 2015-2024 год. (0.009 сек.)