Андрей Никулин — ИИ-практик: «Хороший AI — это предсказуемый AI»

13 февраля 2026 г. — Банки России

Андрей Никулин — ИИ-практик, со-основатель и CPO RuTronix.ai, ex-Perplexity. У него большой бэкграунд в цифровых системах, где “ну оно иногда падает” не считается нормой. И в AI он смотрит не на то, насколько модель “умная”, а на другое: можно ли объяснить её поведение, ограничить его и быстро вернуть систему в нормальное состояние, если что-то пошло не так.

Про искусственный интеллект обычно говорят как про “ум”: какая модель сильнее, где выше качество ответов, кто лучше решает сложные задачи. Это понятная логика — пока ты смотришь на демо или на тестовые сценарии.

Но в продукте очень быстро выясняется, что главный вопрос другой: можно ли заранее понять, как система поведёт себя в следующий раз.

Андрей Никулин — ИИ-практик

Потому что сильная модель, которая время от времени “чудит”, почти всегда приносит больше боли, чем пользы. Особенно в продакшене, где любая странность превращается в тикеты, потери денег и недоверие команды. Поэтому “хороший AI” — это в первую очередь предсказуемый AI.

Почему “умный” AI — не всегда хороший

Почти у всех команд один сценарий. Сначала выбирают модель, прогоняют тестовые кейсы, получают приличные результаты — и кажется, что можно выкатывать.

А потом начинается реальная жизнь.

В продакшене AI внезапно начинает:

И тут “умность” перестаёт быть главным преимуществом. Даже редкие сбои становятся опасными, если никто не понимает:

Где обычно ломается предсказуемость

Парадокс в том, что проблема часто не в самой модели. Проблема в том, как её вшили в систему.

AI начинает принимать решения в контексте, который никто толком не описал и не зафиксировал. В итоге поведение системы зависит от факторов, за которые формально никто не отвечает.

Это обычно происходит, когда:

Снаружи кажется: “работает”. Внутри — никто до конца не понимает, почему оно работает именно так. А значит, никто не может гарантировать стабильный результат.

Предсказуемость — это не настройка. Это проектирование.

Инженерный подход здесь простой: предсказуемость не появляется сама. Её нельзя “докрутить промптом”. Её нужно спроектировать.

Предсказуемый AI — это система, где заранее понятно:

Важный момент: предсказуемость — это не “AI никогда не ошибается”. Это когда ошибки:

Почему автономность без контроля — это ловушка

На практике автономность без ограничений почти всегда заканчивается потерей управляемости. “Оно само решило” — худшая фраза, которую можно услышать в продуктовой команде.

Хороший AI — не тот, кто делает всё сам. Хороший AI — тот, кто действует в понятных рамках, с логами, контролем, возможностью остановки и отката.

Если систему нельзя быстро проверить, остановить или вернуть назад — ей нельзя доверять, даже если 90% времени она работает нормально.

Что делает AI предсказуемым на практике

Тут нет магии. Обычно всё упирается в несколько принципов, которые часто игнорируют, потому что они “не такие красивые, как выбор модели”.

1) Явные ограничения

AI должен понимать границы: что можно делать, что нельзя — не философски, а на уровне конкретных действий и правил.

2) Нормальная интеграция в продукт

AI — часть системы, а не “внешний мозг”. Его решения должны быть привязаны к бизнес-логике и проверкам, а не жить отдельной жизнью.

3) Наблюдаемость

Любое действие AI должно оставлять след: что он видел на входе, что сделал, почему так решил, к чему это привело. Без этого нет ни доверия, ни развития.

Предсказуемость — признак зрелости

По мере взросления AI-продуктов фокус неизбежно смещается: меньше восторга от возможностей, больше внимания к надёжности.

Хороший AI — не самый креативный и не самый сложный. Хороший AI — тот, чьё поведение:

Идея подхода Андрея Никулина простая: AI имеет смысл пускать в серьёзные задачи только тогда, когда он ведёт себя как инженерная система, а не как бесконечный эксперимент. В этом смысле предсказуемость — не ограничение. Это фундамент доверия

Комментарии

blog comments powered by Disqus