"Алексей Турчин. Структура глобальной катастрофы" - читать интересную книгу автора

принять в отношении нее. И хотя возможные меры в этой книге обсуждаются,
здесь вы не найдете универсального рецепта избавления от глобальных рисков.
Однако книга не должна внушить читателю ощущение неизбежности гибели. Автор
полагает, что, несмотря на трудности и риски, ожидающие человечество в XXI
веке, люди имеют шанс выжить и, более того, построить более совершенный мир.
Однако выживание является необходимым условием для любого совершенного мира.
Опять же, в этой книге мы не обсуждаем то, каким бы мог быть совершенный
мир, в котором новые технологии использованы во благо плюс, а не для
разрушения.
В этом томе вы найдете мою монографию "Структура глобальной
катастрофы", а также три статьи в приложении к ней, необходимые для более
ясного понимания темы. Монография распадается на две большие части -
методологии анализа и собственно исследования рисков. Методология состоит в
основном из критического анализа способности человеческого мышления к
предсказанию и оценке глобальных рисков. (Более ранняя версия части,
посвященной методологии, вышла в сборнике Института системного анализа РАН в
виде статьи "О возможных причинах недооценки глобальных рисков" .) Эта
методология может быть полезна, с небольшими изменениями, и в любых других
футурологических исследованиях. В разделе о методологии дается ряд
рекомендаций о том, как именно следует осуществлять анализ рисков. Разбор
конкретных рисков во второй части состоит из максимального подробного
перечня различных угроз со ссылками на источники и критического анализа.
Затем исследуются системные эффекты взаимодействия разных рисков,
обсуждаются способы вероятностной оценки глобальных рисков и другие
связанные с этим вопросы.
В материалах, прилагаемых к книге, следует, в первую очередь отметить
новаторскую статью американца Е. Юдковски "Искусственный интеллект как
позитивный и негативный фактор глобального риска", переведенную мной на
русский язык. Эта статья выходит в научном сборнике "Риски глобальной
катастрофы" , который издается университетским издательством Оксфорда в этом
году под редакцией Ника Бострома и Милана Чирковича. Е. Юдковски - ведущий
научный сотрудник Сингулярити института в Калифорнии, который занимается
разработкой системы универсального искусственного интеллекта и проблемами
его безопасности ("дружественности"). Он написал несколько больших текстов о
проблемах создания систем ИИ и обеспечения их дружественности, ввел
концепцию саморазвивающегося Семени ИИ (Seed AI), много писал о проблемах
футурологии и возможной Технологической Сингулярности - резкого ускорения
технологий в будущем. Его институт разработал "SIAI рекомендации по созданию
дружественного ИИ", которые претендуют на то, чтобы стать отраслевым
стандартом в безопасности ИИ.
Ник Бостром - шведский ученый и философ, возглавляющий институт
"Будущее человечества" в Оксфорде, автор исследований по этике, теории
вероятностей, футурологии и философии, неоднократно публиковался в ведущих
реферируемых научных журналах Mind, Nature и др. Часть его работ по теории
вероятностей посвящена малоизвестному в России логическому парадоксу,
называемому Doomsday argument, название которого мы будем переводить как
"Теорема о конце света". Есть много разных мнений о ее истинности, ложности
и границах применимости, однако нам кажется важным ознакомить читателя с
этим направлением современной мысли. Поэтому в приложении добавлена статья
Ника Бострома "Введение в теорему о конце света для начинающих". Хотя