Некоторые думают, что искусственный интеллект никогда не сможет стать по-настоящему человечным. Любовь, юмор, сострадание, благоговение — все это наши человеческие свойства, и роботам никогда этого не освоить. С другой стороны, ханжество, подлость и нетерпимость тоже вряд ли удастся перенести на цифровой носитель... Так вот: те, кто так думает, заблуждаются. С любовью и благоговением пока и правда получается не очень, а вот расовыми и гендерными предрассудками искусственный интеллект овладел. Благодаря мудрым ученым-программистам, разумеется.

Чтобы выявить у искусственного ума зловещую червоточину расизма и нетерпимости, принстонским исследователям сперва пришлось вспомнить, как этот недуг диагностируют у людей. «Предрассудки» потому так и называются, что вся подобная гадость происходит «перед рассудком» — до того, как человек успел обдумать пришедшую ему в голову мерзость, ужаснуться и прикусить язык. Поэтому прямыми вопросами довольно сложно выявить расиста или сексиста, кроме разве что самых бесстыжих.

Но тут психологам на помощь приходит «Тест скрытых ассоциаций». На экране компьютера вспыхивают слова, а испытуемые должны как можно быстрее отнести их к одной из групп. Как оказалось, таким способом можно узнать довольно много о тайных, не проговариваемых вслух предпочтениях нашего сознания.

Вот, например, четыре простых американских имени: Брэд, Кортни, Латиша, Лерой. Как вы думаете, какие из них быстрее ассоциируются у американских испытуемых с понятиями «счастье» и «рассвет», а какие с «ненавистью» и «тошнотой»? Очень просто: проблемы у Латишы и Лероя, и причина, скорее всего, в том, что эти имена более характерны для афроамериканского сообщества. Любопытно, что этот результат наблюдался как у белых, так и у темнокожих испытуемых.

Компьютер, конечно, не может ничего ни с чем проассоциировать, если программист не скажет ему, как это сделать. Для этого принстонские хитрецы изобрели Word-embedding association test (тест на ассоциации словесного окружения). В компьютер было загружены сотни миллиардов словесных цепочек, найденных в интернете. Когда роботу предъявляли какое-то слово — например, имя человека, — он просто подыскивал другие слова с похожим окружением. Это и было «скрытой ассоциацией» в понимании искусственного интеллекта.

Сперва программу погоняли в тренировочном режиме: убедились, что музыкальные инструменты для нашего киборга приятнее, чем оружие, а цветы желаннее насекомых. А потом взялись за дело всерьез и выявили у искусственного разума целый букет предрассудков.

Расизм и ксенофобия. Имена Бретт и Алисон скорее ассоциировались с любовью и смехом, нежели с болезнью и неудачей. А вот Алонсо и Шаника — очевидно, парень, перелезший через пресловутую трамповскую мексиканскую стену, и девушка из «плохого района» — навевали в компьютерном уме мрачные мысли о неизлечимых недугах и разбитых надеждах. В этом задании компьютер проявил такую возмутительную неполиткорректность, что исследователи, ужаснувшись, не стали дальше развивать расовую тему, а перешли к менее острым вопросам.

Эйджизм. Молодые люди ассоциировались с более приятными вещами, чем старики. Это предубеждение наблюдалось как у живых американцев, так и у компьютера, вплоть до полной неразличимости ответов человека и машины.

Гендерный шовинизм. Мужчина — работа, техника, наука. Женщина — семья, искусство, музыка. В этом вопросе компьютер тоже никак не отличался от живых испытуемых. Некоторые профессии — библиотекарь, стоматолог-терапевт — компьютер уверенно проассоциировал со слабым полом. Насколько уверенно? Удивительным образом гендерное предпочтение машины в точности совпадало с действительным процентом женщин в тех или иных профессиях.

И так далее, и тому подобное. Нет нужды углубляться в детали, потому что читатель давно уже разгадал, в чем тут фокус, и теперь кипит от негодования. Ну конечно же, искусственный интеллект — не ангел с неба, а продукт человеческой культуры, и все предложенные ему тексты — «словесные окружения» — были созданы людьми. Сенсация вообще-то не в этом, а в том, насколько легко компьютерный разум усвоил из человеческой культуры ту гниль, которую сами мы практически не замечаем. А теперь вообразите, какая работа — сознательная работа людей — потребуется, чтобы очистить скармливаемое компьютеру «культурное достояние человечества» от всей той дряни, которую мы незаметно для себя туда натащили.

Вот, например, надо вам нанять в фирму юриста. Чтобы уж точно создать всем кандидатам равные условия, вы поручаете сортировать резюме роботу... и робот исправно кладет на самый верх стопки заявления от белых мужчин. Ну просто такие у него, робота, ассоциации. Так что если вы думали, что сейчас придут киборги и исправят все то, что мы с вами тут нагородили со времен неолита, — ничего подобного. Роботы готовы продолжить наше дело и довести его до абсурда не хуже, чем мы это сделаем без них.

А что же делать, как стереть из электронных мозгов родовую метку человеческой узколобости? Один вариант мы уже рассмотрели: сортировать всю нашу культуру вручную — что можно читать кремниевому разуму будущего, а что ему еще рано. Джоанна Брайсон, один из авторов исследования, предлагает другой вариант: вместо того чтобы ограничивать машину в информации, надо просто добавить искусственный набор правил. Например, при найме на работу установить расовые и гендерные квоты... Позвольте, но люди и так уже это делают! Получается, что «позитивная дискриминация», affirmative action и т. п. — вовсе не временные меры переходного периода, необходимые до тех пор, пока люди не повзрослеют, а кое-что такое, что может пережить технологическую сингулярность. Людей не будет, а правила политкорректности пребудут вовек.

Возможно, читатели и не подозревали, что наши дела обстоят так скверно. Так вот, это исследование для того и задумано, чтобы нас слегка отрезвить. Искусственный интеллект — замечательная вещь, но он не отменяет необходимости немного поработать над собой. Если, конечно, мы не хотим снова и снова воспроизводить в своей истории ту же самую мерзость. На этот раз, для разнообразия, с помощью киборгов.

(Прочитать об этом исследовании по-английски можно на сайте журнала Science.)