Сплошной стресс и заламывание рук. Хочется сегодня сделать паузу и посмотреть на ИИ с другой стороны. Не как на угрозу или инструмент обогащения, а как на странного соседа по планете, который иногда ведет себя ну очень по-человечески. Причем в своих самых нелепых проявлениях. Давайте поговорим о том, почему самая умная нейросеть в мире может с пеной у рта доказывать вам, что Наполеон выиграл Ватерлоо, и чувствовать себя при этом абсолютно правой.

Вы задаете ChatGPT вопрос, на который не знаете ответа. Нейросеть выдает уверенную, красивую, идеально структурированную справку. Вы бежите делиться открытием и… тут же выясняется, что цитата, которую привел ИИ, принадлежит не философу Ницше, а какому-то блогеру, а статистика «взята с потолка».

Знакомьтесь, это «галлюцинация». Так разработчики называют склонность больших языковых моделей выдумывать факты с абсолютной серьезностью.

Почему так происходит? Парадокс в том, что ИИ — это не база знаний, а машина предсказаний. Он не помнит информацию, а вычисляет, какое слово должно идти следующим, чтобы фраза выглядела правдоподобно. Ему все равно, что сказать: «Столица Франции — Париж» или «Столица Франции — Луна». Для него оба варианта — просто комбинации символов. Но первый вариант встречался в текстах в миллион раз чаще, поэтому он «побеждает». Если же данных мало, ИИ начинает фантазировать, чтобы дать вам хоть какой-то ответ.

Самое интересное — это поведение машины напоминает человеческое. Психологи называют это «стремлением к социальному одобрению». Мы не любим говорить «я не знаю». Нам проще придумать правдоподобную версию, сохранить лицо и не потерять авторитет в глазах собеседника.

Создатели нейросетей учат их быть скромнее. Вы наверняка замечали, как иногда ИИ отвечает: «Это сложный вопрос, и у меня нет точных данных, но предположим...». Это не стеснение машины, это победа инженеров, которые научили алгоритм сомневаться. Ведь в мире, где информация и так переполнена ложью, нам от машин нужна не уверенная ложь, а честная неуверенность.