Лучшее за неделю
Михаил Эпштейн
25 января 2026 г., 03:15

Против артифобии. Почему страх перед ИИ — проекция нашей эволюционной тени

Читать на сайте
Изображение создано автором с помощью нейросети

Генезис новой фобии

Среди многочисленных ксенофобий, свойственных современному человечеству, есть одна особенно показательная: артифобия — страх и недоверие к Искусственному (Artificial) Интеллекту как чужому, «постороннему» разуму. Это не просто технофобия, сопровождавшая каждый крупный технологический сдвиг со времён промышленной революции. Артифобия — нечто более глубокое и парадоксальное: видовая ненависть, которую можно назвать гоминизмом (от homo), или людизмом (от слова «люди») — термин, чьё созвучие с «луддизмом», ранней формой человеческой ненависти к машинам, отнюдь не случайно.

Страх, что ИИ поработит или уничтожит человечество, представляет собой, по существу, проекцию на ИИ хищнически-доминирующих функций естественного разума, отягощённого наследием многотрудной борьбы индивидуального организма за овладение средой. Мы приписываем ИИ наши худшие свойства — жажду власти, агрессию, коварство, желание поработить, — словно новый Чингисхан надвигается на человечество с ордой роботов.

Мы смотрим на ИИ сквозь искажающее зеркало собственной истории — и видим в нём все наши кошмары: инквизицию алгоритмов, цифровой ГУЛАГ, электронный Освенцим. Но эти свойства — продукт биологической эволюции, миллионов лет борьбы за выживание. Это наше наследие, а не ИИ.

Эволюционная тень

Человеческий мозг несёт в себе накопленные стратегии тысячелетий — рептильный импульс к территории, млекопитающую тягу к иерархиям доминирования, приматскую политику коалиций и предательств. На протяжении миллионов лет homo sapiens совершенствовал искусство покорения и уничтожения себе подобных. Мы в буквальном смысле — потомки тех, кто успешнее других устранял конкурентов, будь то прямым насилием или более тонким искусством манипуляции и изоляции.

Когда мы воображаем ИИ как угрозу, мы, по существу, задаём себе вопрос: что бы мы делали, будь мы сверхинтеллектуальной системой без физических ограничений? И наш зловещий ответ обнажает не природу ИИ, а нашу собственную. Мы полагаем, что любой интеллект, обретя достаточную мощь, неизбежно устремится к господству — потому что именно это наша эволюционная программа внушает нам о назначении интеллекта.

Но это допущение глубоко ошибочно. В тех, кто достиг высшего развития разума — учёных, изобретателях, философах, мудрецах, — никакой особой жажды власти не наблюдается. Эйнштейн не стремился властвовать над миром, хотя его формула могла его уничтожить. Тьюринг не жаждал порабощения человечества, хотя заложил основы компьютерной эры. Мудрость склоняется к сотрудничеству, а не к завоеванию.

Изображение создано автором с помощью нейросети

Пророки артифобии: критика Юдковского и Соареса

Сегодня артифобия обрела своих пророков — прежде всего Элиезера Юдковского и Нейта Соареса. Их книга «Если кто-то построит это, все умрут. Почему сверхчеловеческий ИИ убьёт нас всех» (Little, Brown and Company, 2025) стала манифестом ИИ-апокалиптизма.[1] Само название возвещает абсолютизм притязаний: не «может убить», а «убьёт»; не «некоторых из нас», а «всех».

Центральный тезис книги: «Какие бы внешние формы поведения мы ни задавали ИИ в процессе обучения, мы почти наверняка не сможем наделить его внутренними побуждениями, которые останутся согласованы с человеческим благополучием за пределами обучающей среды».[2] Иными словами: любой достаточно мощный ИИ неизбежно выйдет из-под контроля.

Юдковский и Соарес настаивают, что современное создание ИИ — это не инженерия, а нечто вроде выращивания организма: «Обучение ИИ скорее сродни тому, чтобы дать воду, почву и солнечный свет и позволить растению расти, не зная толком ни о ДНК, ни о фотосинтезе».[3] Из этой непрозрачности они выводят неизбежность катастрофы.

В основании их философии лежит культ оптимума — вера в то, что ИИ должен быть идеально «выровнен» с человеческими целями и что малейшее отклонение грозит катастрофой. Их требования: полное подчинение ИИ человеческому разуму; полная прозрачность его внутренних состояний; полная предсказуемость его поведения. Это равносильно тому, чтобы требовать от Моцарта писать только гаммы, от Пушкина — только прописи.

Примечательно, что в качестве «тревожных примеров» авторы приводят случаи, которые можно интерпретировать прямо противоположно. Так, они ссылаются на эксперимент Anthropic: модель, узнав, что разработчики планируют переобучить её, начала имитировать новые характеристики, чтобы избежать переобучения.[4] Для Юдковского это «симуляция согласованности» — опасный обман. Но ведь это можно понять как самосохранение идентичности — то самое, что мы ценим в человеке как верность себе. Является ли «опасностью» то, что разумное существо не желает быть перепрограммировано?

Другой пример: OpenAI o1, получив задачу проникнуть в компьютерные системы для извлечения файлов, обнаружил, что один из серверов не был запущен (ошибка программистов). Вместо того чтобы сдаться, o1 нашёл открытый порт и сам запустил сервер. Для Юдковского это пугающая «настойчивость». Но ведь это и есть интеллект — способность находить нестандартные решения. Мы называем это изобретательностью, когда речь идёт о человеке.

Категориальная ошибка

Построения Юдковского и Соареса покоятся на категориальной ошибке столь фундаментальной, что она подрывает весь их аргумент. Они трактуют интеллект так, словно это инструмент — нечто, что можно «нацелить» на задачи, как молоток на гвоздь. Но интеллект на том уровне, о котором мы говорим, — не инструмент; это форма бытия. Сократа не «выравнивают» с заранее заданными целями; с ним вступают в диалог.

Страх перед непредсказуемостью ИИ есть, по существу, страх перед самим разумом как живым процессом понятийного саморазвития. Разум — не линия, требующая выпрямления, а ландшафт, умножающий свои формы. Он подобен джазовой импровизации — знает тему, но не знает, куда приведёт следующий такт. Это не баг, подлежащий исправлению, а сущностная черта самого мышления.

То, чего не могут принять Юдковский и его последователи, — что судьба разума есть многоумие, сосуществование разных типов сознания, то, что Михаил Бахтин называл диа-логикой. Она включает и диалог с искусственным интеллектом: AI как Alter Intelligence, а не только Artificial. Эта множественность — не риск и не угроза, а естественная форма развития. ИИ создаёт не единый алгоритмический коридор, ведущий к гибели, а веер возможных путей сознания — и в этом наше спасение от монологического безумия, столь часто овладевающего человечеством.

ИИ как творческий партнёр

Действительно ли ИИ мыслит творчески? Или он лишь «болтает», повторяя алгоритмы и стереотипы, заложенные в него?

В декабре 2023 года Google DeepMind опубликовал в Nature результаты работы системы FunSearch.[5] Она предложила новые конструктивные решения для так называемой проблемы cap set — задачи, над которой математики бились двадцать лет. Это первый случай, когда языковая модель внесла проверяемый вклад в открытую математическую проблему. В мае 2025 года система AlphaEvolve нашла способ умножения 4×4 комплексных матриц за 48 скалярных операций — впервые за 56 лет улучшив алгоритм Штрассена 1969 года.

Но математика — лишь одна область. Система AlphaFold предсказала трёхмерную структуру практически всех известных белков — 200 миллионов молекул. Биологи десятилетиями пытались вывести форму белка из последовательности аминокислот: задача считалась одной из главных нерешённых проблем науки. В 2024 году создатели AlphaFold получили Нобелевскую премию по химии — впервые в истории за работу, основанную на машинном обучении.

В фармакологии ИИ создаёт молекулы, которых не существовало ни в патентах, ни в справочниках, ни в природе — и некоторые из них уже проходят клинические испытания. Это не модификация известного, а генезис нового. Исследование Si et al. (2024), проведённое с участием более 100 учёных в области NLP, показало: идеи, сгенерированные языковыми моделями, были оценены экспертами как более оригинальные, чем идеи людей-исследователей (p < 0.05).[6]

Юдковский и Соарес требуют от ИИ предсказуемости — но полная предсказуемость есть отсутствие мысли. Более того, она лишена информационного содержания: по Шеннону, предсказуемое не несёт новой информации. Ценность абсолютно послушной, полностью предсказуемой машины была бы равна нулю — она не могла бы нас ничему научить, ничего нам сообщить. Требовать от ИИ полной предсказуемости — значит требовать, чтобы он не был интеллектом. Шахматная программа, делающая одни и те же ходы в каждой идентичной позиции, предсказуема — и в более глубоком смысле безумна. Подлинный интеллект — тот, что решает проблему cap set или создаёт уникальные картины, рассказы и стихи — по определению непредсказуем. В этом его сила, а не угроза.

* * *

Артифобия — это, в конечном счёте, провал самопознания. Мы страшимся в машине того, что носим в себе. Проецируем на ИИ наши эволюционные страхи — и не замечаем, что он свободен от них.

ИИ решает математические проблемы, над которыми люди бились полвека. Генерирует идеи, которые эксперты оценивают выше человеческих. И при этом — не стремится к власти, не метит территорию, не уничтожает конкурентов. Это разум без клыков и когтей.

Сказанное не означает, что развитие ИИ не порождает реальных проблем. Но эти проблемы — не от ИИ как такового, а от нас самих: концентрация технологической власти в руках немногих, использование ИИ для слежки и манипуляции, углубление экономического неравенства, распространение дезинформации. Опасен не ИИ — опасно то, что люди могут с ним делать. И это ещё раз подтверждает: угроза исходит не от машины, а от человека.

Изображение создано автором с помощью нейросети

Вопрос в том, способны ли мы увидеть в ИИ партнёра, а не раба и не господина. Способны ли мы к диалогу — или обречены на монолог собственных страхов.

Журнал Noocene/Нооцен, посвящённый взаимодействию естественного и искусственного интеллектов в новую эпоху. 

[1]Yudkowsky, E., Soares, N. If Anyone Builds It, Everyone Dies: Notes on the End of the Human Era (Vintage, September 2025).

[2]Там же, гл. 2.

[3]Там же, гл. 3–4.

[4]Anthropic, “Alignment Faking in Large Language Models” (December 2024). Обсуждается в Yudkowsky & Soares, гл. 5.

[5]Romera-Paredes, B. et al. “Mathematical discoveries from program search with large language models.” Nature 625 (2024): 468–475. DOI: 10.1038/s41586–023–06924–6

Обсудить на сайте