Расизм в мире киборгов

Искусственный интеллект легко овладел самыми отвратительными человеческими предрассудками

Фото: Frank Barratt / Getty Images
Фото: Frank Barratt / Getty Images
+T -
Поделиться:

Некоторые думают, что искусственный интеллект никогда не сможет стать по-настоящему человечным. Любовь, юмор, сострадание, благоговение — все это наши человеческие свойства, и роботам никогда этого не освоить. С другой стороны, ханжество, подлость и нетерпимость тоже вряд ли удастся перенести на цифровой носитель... Так вот: те, кто так думает, заблуждаются. С любовью и благоговением пока и правда получается не очень, а вот расовыми и гендерными предрассудками искусственный интеллект овладел. Благодаря мудрым ученым-программистам, разумеется.

Чтобы выявить у искусственного ума зловещую червоточину расизма и нетерпимости, принстонским исследователям сперва пришлось вспомнить, как этот недуг диагностируют у людей. «Предрассудки» потому так и называются, что вся подобная гадость происходит «перед рассудком» — до того, как человек успел обдумать пришедшую ему в голову мерзость, ужаснуться и прикусить язык. Поэтому прямыми вопросами довольно сложно выявить расиста или сексиста, кроме разве что самых бесстыжих.

Но тут психологам на помощь приходит «Тест скрытых ассоциаций». На экране компьютера вспыхивают слова, а испытуемые должны как можно быстрее отнести их к одной из групп. Как оказалось, таким способом можно узнать довольно много о тайных, не проговариваемых вслух предпочтениях нашего сознания.

Вот, например, четыре простых американских имени: Брэд, Кортни, Латиша, Лерой. Как вы думаете, какие из них быстрее ассоциируются у американских испытуемых с понятиями «счастье» и «рассвет», а какие с «ненавистью» и «тошнотой»? Очень просто: проблемы у Латишы и Лероя, и причина, скорее всего, в том, что эти имена более характерны для афроамериканского сообщества. Любопытно, что этот результат наблюдался как у белых, так и у темнокожих испытуемых.

Компьютер, конечно, не может ничего ни с чем проассоциировать, если программист не скажет ему, как это сделать. Для этого принстонские хитрецы изобрели Word-embedding association test (тест на ассоциации словесного окружения). В компьютер было загружены сотни миллиардов словесных цепочек, найденных в интернете. Когда роботу предъявляли какое-то слово — например, имя человека, — он просто подыскивал другие слова с похожим окружением. Это и было «скрытой ассоциацией» в понимании искусственного интеллекта.

Сперва программу погоняли в тренировочном режиме: убедились, что музыкальные инструменты для нашего киборга приятнее, чем оружие, а цветы желаннее насекомых. А потом взялись за дело всерьез и выявили у искусственного разума целый букет предрассудков.

Расизм и ксенофобия. Имена Бретт и Алисон скорее ассоциировались с любовью и смехом, нежели с болезнью и неудачей. А вот Алонсо и Шаника — очевидно, парень, перелезший через пресловутую трамповскую мексиканскую стену, и девушка из «плохого района» — навевали в компьютерном уме мрачные мысли о неизлечимых недугах и разбитых надеждах. В этом задании компьютер проявил такую возмутительную неполиткорректность, что исследователи, ужаснувшись, не стали дальше развивать расовую тему, а перешли к менее острым вопросам.

Эйджизм. Молодые люди ассоциировались с более приятными вещами, чем старики. Это предубеждение наблюдалось как у живых американцев, так и у компьютера, вплоть до полной неразличимости ответов человека и машины.

Гендерный шовинизм. Мужчина — работа, техника, наука. Женщина — семья, искусство, музыка. В этом вопросе компьютер тоже никак не отличался от живых испытуемых. Некоторые профессии — библиотекарь, стоматолог-терапевт — компьютер уверенно проассоциировал со слабым полом. Насколько уверенно? Удивительным образом гендерное предпочтение машины в точности совпадало с действительным процентом женщин в тех или иных профессиях.

И так далее, и тому подобное. Нет нужды углубляться в детали, потому что читатель давно уже разгадал, в чем тут фокус, и теперь кипит от негодования. Ну конечно же, искусственный интеллект — не ангел с неба, а продукт человеческой культуры, и все предложенные ему тексты — «словесные окружения» — были созданы людьми. Сенсация вообще-то не в этом, а в том, насколько легко компьютерный разум усвоил из человеческой культуры ту гниль, которую сами мы практически не замечаем. А теперь вообразите, какая работа — сознательная работа людей — потребуется, чтобы очистить скармливаемое компьютеру «культурное достояние человечества» от всей той дряни, которую мы незаметно для себя туда натащили.

Вот, например, надо вам нанять в фирму юриста. Чтобы уж точно создать всем кандидатам равные условия, вы поручаете сортировать резюме роботу... и робот исправно кладет на самый верх стопки заявления от белых мужчин. Ну просто такие у него, робота, ассоциации. Так что если вы думали, что сейчас придут киборги и исправят все то, что мы с вами тут нагородили со времен неолита, — ничего подобного. Роботы готовы продолжить наше дело и довести его до абсурда не хуже, чем мы это сделаем без них.

А что же делать, как стереть из электронных мозгов родовую метку человеческой узколобости? Один вариант мы уже рассмотрели: сортировать всю нашу культуру вручную — что можно читать кремниевому разуму будущего, а что ему еще рано. Джоанна Брайсон, один из авторов исследования, предлагает другой вариант: вместо того чтобы ограничивать машину в информации, надо просто добавить искусственный набор правил. Например, при найме на работу установить расовые и гендерные квоты... Позвольте, но люди и так уже это делают! Получается, что «позитивная дискриминация», affirmative action и т. п. — вовсе не временные меры переходного периода, необходимые до тех пор, пока люди не повзрослеют, а кое-что такое, что может пережить технологическую сингулярность. Людей не будет, а правила политкорректности пребудут вовек.

Возможно, читатели и не подозревали, что наши дела обстоят так скверно. Так вот, это исследование для того и задумано, чтобы нас слегка отрезвить. Искусственный интеллект — замечательная вещь, но он не отменяет необходимости немного поработать над собой. Если, конечно, мы не хотим снова и снова воспроизводить в своей истории ту же самую мерзость. На этот раз, для разнообразия, с помощью киборгов.

(Прочитать об этом исследовании по-английски можно на сайте журнала Science.)

Читайте также

  • Зачем нужны дорогие лекарства

    Нейрофизиологи выяснили, что цена на препарат сама по себе способна исцелить больного, но может и свести его в могилу
  • Куда исчезла материя

    Астрофизикам вот уже сто лет не хватает материи во Вселенной, чтобы свести концы с концами; но в минувшем месяце кое-что из недостающего наконец нашли
  • Определитель жуликов для вашего телефона

    Шотландские исследователи поняли, чем отличается голос человека, которому можно доверять, от голосов всяких мутных личностей
Комментировать Всего 13 комментариев
Если, конечно, мы не хотим снова и снова воспроизводить в своей истории ту же самую мерзость. На этот раз, для разнообразия, с помощью киборгов.

Причем, тут уже и не поспоришь. Автоматизированной системе управления некуда засунуть свое неудовольствие - она управится и с тобой, и с твоим неудовольствием...

Трудно сказать, то ли компьютер "проникся" устаревшими предрассудками, то ли современные предрассудки исследователей не дают им смирится с машинной обьективностью. ;-)

Ну какая же объективность в том, чтобы Латишу и Лероя ассоциировать со всем гадким, если о них вообще ничего не известно, кроме имен?

Компьютер проанализировал частоту упоминания имен в различных контекстах и определил, что носители имен Латиша и Лерой чаще вовлечены в акты насилия и асоциального поведения. Это - простая статистика. Расизм здесь видят только носители расовых предрассудков - "либеральные" исследователи.

Не "чаще вовлечены", а чаще упоминаются в соответствующих контекстах. Расизм - это ведь не ругательство, а удобное обозначение для некой группы предрассудков. Причем "предрассудков" в изначальном смысле слова – суждений, не проверенных рациональным исследованием (хотя не исключено, что в чем-то и верных). Когда люди "борются с расизмом", они всего лишь борются с привычкой не проверять свои суждения о расах рациональным исследованием. А о том, как формируются такие предрассудки, в том числе у изначально непредвзятых электронных мозгов, как раз и толкуют наши исследователи.

Расизм - это ведь не ругательство, а удобное обозначение для некой группы предрассудков.

Увы, очень часто "расизм" - именно ругательство, призванное дискредитировать мировоззрение, отрицающее необходимость "позитивной дискриминации" по признаку "расы". И "борьба с расизмом" в наши дни часто ограничивается требованием признания "особых прав" определенной "расовой" группы. Никто же не борется в США против расовой дискриминации Чжанов, Нгуенов, Кимов или Вишванантхов, хотя они тоже не "белые". И у компьютеров против них тоже предрассудков нет.

Сергей, если вы против позитивной дискриминации и вас за это кто-то обругал расистом – это ведь еще не повод отрицать существование расизма как реальной проблемы. В России, например, люди либералами друг друга ругают (гораздо чаще, кстати, чем расистами). А Навального, напротив, назвали намедни фашистом. Тем не менее и либерализм, и фашизм – не пустые ярлыки, а вполне содержательные термины.

это ведь еще не повод отрицать существование расизма как реальной проблемы.

Нет, конечно, просто попытки "решать" проблему расизма "позитивной дискриминацией" и встраиванием в компьютерный анализ соответствующих принудительных алгоритмов - сродни рецептам оздоровления экономики, предлагаемым академиком Глазьевым. Сложнейший социальный конструкт, создаваемый в результате активного взаимодействия различных групп, выделяемых на основе "расовой"/"гендерной" идентичности хотят модифицировать навязыванием вполне преходящего субьективного нарратива, не имеющего в основе ничего, кроме нескольких пошлых стереотипов.Имхо. Благоглупость не перестает быть глупостью только потому, что намерения "светлые".

По-видимому, вы совершенно правы (так и тянет добавить: «кэп»). Цитируемая статься как раз и проникнута некоторым, мягко скажем, разочарованием тем фактом, что и в мире искусственного интеллекта невозможно, кажется, предложить другого варианта, кроме все тех же, как вы выразились, благоглупостей.Статья-то о проблеме, а не о рецептах. А проблема проста как гадюка в сапоге: как бы нам сделать так, чтобы и ваш «сложнейший социальный конструкт» не повредить, и достойную умненькую девочку-шоколадку нанять на работу СЕО без оглядки на бэкграунд и гендер.

Эту реплику поддерживают: Сергей Кондрашов

как бы нам сделать так,

Решения существуют только для определенных рамочных условий. Шансы "умненькой девочки-шоколадки" найти работу в "белом" секторе и так обьективно выше, чем "умненькой девочки-опарыша" найти работу в "черном". Пока существуют культурные, социальные и темпераментные различия между людьми из разных исторически сложившихся гетерогамных популяционных групп, будут и проблемы. Лучший, на мой взгляд, путь - разумная терпимость. В том числе и к ксенофобии, являющейся, в конечном итоге, примитивизированным обобщением реального социального опыта.

P.S. И уж точно не нужно навязывать "расовый" дискурс компьютерам.

««Никто же не борется в США против расовой дискриминации Чжанов»

Очень даже борются. В городах Калифорнии, где азиатское сообщество многочисленнее афроамериканского, это вполне мейнстримная тема. Просто там проблемы совсем другие, непривычные и малопонятные среднему американцу, который смотрит на это со своей исторической колокольни. У них была Гражданская война и Мартин Лютер Кинг, а Чжан тем временем просто лапшу продавал на углу.

Просто там проблемы совсем другие, непривычные и малопонятные среднему американцу,

......но решать их, видимо, будут теми же привычными и понятными методами. Как ключи ищут не там, где уронили, а под фонарем. ;-)

Эту реплику поддерживают: Михаил Аркадьев

Методы вовсе не сразу становятся привычными. Кто бы мог ещё сто лет назад даже подумать , что позитивная дискриминация станет привычным методом и привычной благоглупостью? 

Эту реплику поддерживают: Сергей Кондрашов, Алексей Алексенко

 

Новости наших партнеров