Но в 2025 году у аудиторов и инвесторов появился новый ночной кошмар. Он не берет взяток, не испытывает жадности, но при этом способен генерировать идеально правдоподобные финансовые документы с цифрами, которых не существовало, и обоснованиями, которые являются чистой воды выдумкой. Речь идет о «галлюцинациях» больших языковых моделей (LLM), которые неожиданно стали инструментом для создания нового поколения финансового мошенничества.

Долгое время считалось, что главная опасность нейросетей в бухгалтерии — это утечка данных. Однако практика показала: куда страшнее ситуация, когда ИИ начинает творить. В погоне за эффективностью и «красивыми» отчетами некоторые компании (или отдельные недобросовестные менеджеры) начали использовать GPT-4 и аналоги для дополнения квартальной отчетности.

Проблема в том, что LLM по своей природе — это машины для правдоподобного связывания слов, а не для точных вычислений. Попросив нейросеть «объяснить скачок операционных расходов» или «спрогнозировать рост выручки в новом сегменте», пользователь рискует получить «галлюцинацию». Модель сгенерирует безупречный с точки зрения стилистики текст: она добавит несуществующие рыночные обоснования, сошлется на мнимые контракты или «опишется» в процентах.

Раньше финансовый фрод (мошенничество) был трудоемким делом. Чтобы скрыть дыру в балансе, нужно было подделать первичку, подкупить бухгалтера или потратить недели на фабрикацию данных. Теперь же с помощью генеративного ИИ можно создать «убедительную легенду» для отчета за считанные минуты. Это породило феномен, который в аудиторских кругах уже окрестили «синтетической отчетностью» — документы, где цифры могут быть реальными, но контекст, причины успехов или неудач — полностью сфабрикованы.

Ответ не заставил себя ждать. Крупнейшие аудиторские компании (Big Four) и регулирующие органы (такие как SEC в США) в экстренном порядке внедряют встречный инструмент — детекторы «финансовых галлюцинаций». Однако теперь это не просто проверка цифр на арифметическую ошибку. Новый вид аудита — лингвистический.

Современные AI-детекторы анализируют не баланс, а текстовую часть отчетности (MD&A — анализ руководства). Они ищут характерные для LLM маркеры: неестественную плавность переходов, отсутствие специфических отраслевых «шумов», которые неизбежны у человека, или статистически маловероятные сочетания прогнозов. Алгоритм учится отличать текст, написанный уставшим финансовым директором, от текста, сгенерированного нейросетью, стремящейся любой ценой соблюсти формальную структуру «успешного успеха».

Это порождает новый виток гонки вооружений. С одной стороны — ИИ, который фабрикует «убедительную ложь» быстрее любого бухгалтера. С другой — ИИ-криминалист, выискивающий эту ложь по лингвистическим следам.

Но есть в этой истории и глубокая философская проблема. Раньше мы судили о здоровье компании по интонации менеджмента: живой язык CEO мог сказать больше, чем сухие цифры. Теперь же мы вступаем в эру, где даже идеально написанный текст перестает быть гарантией реальности бизнеса. Появляется новая профессия — промпт-криминалист, специалист, способный определить, где закончилась человеческая жадность и началась «галлюцинация» алгоритма.

Пока что рынок учится отличать ошибки ИИ от намеренного введения в заблуждение. Но ясно одно: в ближайшие годы инвесторам придется заплатить «налог на доверие» к красивым текстам, сгенерированным нейросетями. И, возможно, скоро фраза «покажите мне исходный код расчета прогноза» станет самым надежным способом защиты капитала.