Лучшее за неделю
Константин Церазов
28 июля 2025 г., 14:28

Этические вопросы применения ИИ в финансовой сфере в России

Искусственный интеллект (ИИ) стремительно проникает в финансовую сферу, обеспечивая автоматизацию процессов, повышение эффективности и персонализацию услуг. Однако его внедрение сопровождается рядом этических проблем, которые требуют тщательного анализа и регулирования. В России в 2024–2025 годах эти вопросы находятся в центре внимания как со стороны бизнеса, так и государства. Рассмотрим ключевые аспекты этики ИИ в финансах, опираясь на актуальные данные и инициативы
Читать на сайте

Прозрачность и объяснимость алгоритмов

Одной из главных этических проблем применения ИИ в финансовой сфере является недостаточная прозрачность алгоритмов. Как отмечает Банк России, сложность современных систем ИИ затрудняет понимание логики их решений, что может привести к предвзятым или дискриминационным выводам. Например, при оценке кредитоспособности клиента алгоритмы могут учитывать данные, которые приводят к несправедливым решениям, основанным на гендерных, возрастных или социальных характеристиках. Это создает риск нарушения принципов справедливости и недискриминации.

В 2024 году Национальный центр развития ИИ при правительстве РФ совместно с ВЦИОМ провел исследование, показавшее, что 85% россиян считают необходимым внедрение единых этических стандартов для ИИ, из них 56% настаивают на их обязательности. Это отражает общественный запрос на прозрачность и подотчетность технологий. Для решения этой проблемы в России действует Кодекс этики в сфере ИИ, принятый в 2021 году и поддержанный крупнейшими компаниями, такими как ВТБ, Альфа-Банк и Т-Банк. Кодекс подчеркивает важность объяснимости алгоритмов и человеческого надзора за ИИ-системами.

Проблема предвзятости и дискриминации

Предвзятость алгоритмов — еще одна этическая дилемма. ИИ, обучающийся на исторических данных, может воспроизводить существующие социальные предубеждения. Например, если данные для кредитного скоринга содержат информацию о преимущественном одобрении кредитов для определенных групп населения, алгоритм может закрепить эту тенденцию, что противоречит принципам равенства. В 2024 году исследование «Ассоциации ФинТех» показало, что около 90% методов ИИ, используемых в российских банках, основаны на машинном обучении, что делает проблему предвзятости особенно актуальной.

Для минимизации таких рисков в России активно развивается концепция «доверенного ИИ». Национальная стратегия развития ИИ подчеркивает необходимость создания прозрачных и этичных систем, учитывающих национальные особенности и традиции. В рамках Альянса в сфере ИИ, объединяющего более 800 российских компаний, разрабатываются методики этической экспертизы ИИ-решений, чтобы исключить дискриминацию.

Безопасность данных и конфиденциальность

Применение ИИ в финансах связано с обработкой больших объемов персональных данных, что поднимает вопросы конфиденциальности. В 2024 году объем российского рынка больших данных (big data) достиг 300 млрд рублей, что свидетельствует о масштабах использования данных в финансовом секторе. Неправомерное использование или утечка данных могут привести к серьезным нарушениям прав клиентов.

Банк России акцентирует внимание на безопасности данных, подчеркивая, что финансовые организации должны самостоятельно управлять рисками, связанными с ИИ. В 2025 году планируется выпуск консультативного доклада ЦБ, посвященного регулированию ИИ в финансах, с акцентом на защиту данных и операций клиентов. Кроме того, в рамках Цифрового форума БРИКС 2024 эксперты отметили, что жесткое регулирование ИИ не требуется, но Кодекс этики должен быть доработан для конкретных сфер применения, включая финансы.

Противодействие кибермошенничеству и дипфейкам

Рост киберугроз, включая дипфейки, представляет серьезную этическую проблему. ИИ-технологии, используемые для создания дипфейков, могут быть применены для мошенничества, например, подделки голоса или видео для получения доступа к банковским счетам.

В 2024 году Росконгресс отметил обеспокоенность регулирующих органов по поводу сложности обнаружения таких угроз. Например Альфа-Банк, активно внедряющий ИИ, развивает решения для противодействия мошенничеству, включая системы мониторинга транзакций на основе ИИ.

В 2025 году Т-Банк представил ИИ-ассистента Safeliner, который помогает выявлять уязвимости в коде и предотвращать кибератаки на этапе разработки. Это подчеркивает важность этического подхода к созданию ИИ-решений, которые защищают клиентов, а не создают новые угрозы.

Общественное восприятие и регулирование

Общественное мнение в России демонстрирует настороженность к ИИ. По данным ВЦИОМ, в 2024 году 61% россиян считают, что ИИ следует использовать только в определенных сферах, а 12% выступают за полный запрет его применения. Это подчеркивает необходимость этического регулирования, которое бы учитывало общественные ожидания.

Кодекс этики ИИ, поддерживаемый ВТБ, Альфа-Банком и другими компаниями, остается ключевым инструментом саморегулирования. 

Что в итоге?

Применение ИИ в финансовой сфере России открывает огромные возможности, но сопряжено с этическими вызовами: от прозрачности алгоритмов до защиты данных и противодействия киберугрозам. Сейчас идет активная работа над решением этих проблем через Кодекс этики, развитие «доверенного ИИ» и планы по законодательному регулированию. Участие государства, бизнеса и общества в этом процессе позволит создать безопасную и справедливую экосистему для использования ИИ, обеспечивая баланс между инновациями и этикой.

Обсудить на сайте