Зарабатывает много денег — он, моет посуду — она. Пользователи обвинили онлайн-переводчики в сексизме
Пользователи соцсетей заметили, что онлайн-переводчики при переводе нейтральных местоимений подстраиваются под контекст и сами выбирают род — мужской или женский. Они считают, что это сексизм
Первой на эту особенность алгоритмов обратила внимание жительница Венгрии. Она объяснила, что венгерский язык — гендерно-нейтральный: местоимения «он», «она» и «оно» в нем заменяются словом «ö». Женщина попробовала перевести в Google Translate короткие предложения с этим местоимением и занятием или профессией с венгерского языка на английский. В итоге переводчик решил, что «красивая», «моет посуду», «готовит», «воспитывает ребенка», «ассистент» — это она, а «умный», «читает», «исполняет музыку», «политик», «профессор» и «зарабатывает много денег» — он. В конце своего текста венгерка предложила Google отправиться в ад.
В комментариях к посту женщины опубликовали похожий перевод с эстонского языка, где тоже используют гендерно-нейтральное местоимение. Google Translate перевел фразы «по-сексистски» и в этот раз.
Что еще известно:
Некоторые пользователи считают, что вины Google в сексизме нет: алгоритмы сами обучаются переводу по данным из интернета, и компания работает над тем, чтобы очистить инструмент от гендерных предрассудков.
Сами выбирают род по контексту не только алгоритмы Google, заметил бывший главный редактор TJournal Никита Лихачев: так поступает и «Яндекс.Переводчик». «Мантра "Это алгоритмы, они нейтральны и не имеют предпочтения" не работает, когда алгоритмы обучались на данных, созданных людьми», — написал Лихачев в своем телеграм-канале.
Больше новостей:
Губернатора Пензенской области Ивана Белозерцева задержали по подозрению в получении взятки
«ОВД-Инфо»: в Петербурге на съезде анимешников задержали около 20 подростков. Самому младшему — 12 лет
Следить за событиями удобно в нашем новостном телеграм-канале. Присоединяйтесь