Андрей Никулин — ИИ-практик: «Хороший AI — это предсказуемый AI»
13 февраля 2026 г. — Банки России

Андрей Никулин — ИИ-практик, со-основатель и CPO RuTronix.ai, ex-Perplexity. У него большой бэкграунд в цифровых системах, где “ну оно иногда падает” не считается нормой. И в AI он смотрит не на то, насколько модель “умная”, а на другое: можно ли объяснить её поведение, ограничить его и быстро вернуть систему в нормальное состояние, если что-то пошло не так.
Про искусственный интеллект обычно говорят как про “ум”: какая модель сильнее, где выше качество ответов, кто лучше решает сложные задачи. Это понятная логика — пока ты смотришь на демо или на тестовые сценарии.
Но в продукте очень быстро выясняется, что главный вопрос другой: можно ли заранее понять, как система поведёт себя в следующий раз.

Потому что сильная модель, которая время от времени “чудит”, почти всегда приносит больше боли, чем пользы. Особенно в продакшене, где любая странность превращается в тикеты, потери денег и недоверие команды. Поэтому “хороший AI” — это в первую очередь предсказуемый AI.
Почему “умный” AI — не всегда хороший
Почти у всех команд один сценарий. Сначала выбирают модель, прогоняют тестовые кейсы, получают приличные результаты — и кажется, что можно выкатывать.
А потом начинается реальная жизнь.
В продакшене AI внезапно начинает:
- получать нетипичные входные данные,
- работать под нагрузкой,
- пересекаться с другими сервисами,
- влиять на реальные процессы и деньги.
И тут “умность” перестаёт быть главным преимуществом. Даже редкие сбои становятся опасными, если никто не понимает:
- почему это произошло,
- где граница нормы,
- как это воспроизвести,
- как быстро остановить и откатить.
Где обычно ломается предсказуемость
Парадокс в том, что проблема часто не в самой модели. Проблема в том, как её вшили в систему.
AI начинает принимать решения в контексте, который никто толком не описал и не зафиксировал. В итоге поведение системы зависит от факторов, за которые формально никто не отвечает.
Это обычно происходит, когда:
- у AI нет чётких границ ответственности (“он тут просто помогает” — и на этом всё),
- не определены точки, где нужен человек,
- логика решений размазана по системе, и непонятно, кто хозяин процесса.
Снаружи кажется: “работает”. Внутри — никто до конца не понимает, почему оно работает именно так. А значит, никто не может гарантировать стабильный результат.
Предсказуемость — это не настройка. Это проектирование.
Инженерный подход здесь простой: предсказуемость не появляется сама. Её нельзя “докрутить промптом”. Её нужно спроектировать.
Предсказуемый AI — это система, где заранее понятно:
- какие решения AI может принимать сам,
- где он обязан остановиться и попросить подтверждение,
- что считается ошибкой,
- и что система делает в случае отклонений.
Важный момент: предсказуемость — это не “AI никогда не ошибается”. Это когда ошибки:
- ожидаемы,
- заметны,
- и с ними можно работать (а не узнавать о них по жалобе клиента).
Почему автономность без контроля — это ловушка
- С ростом популярности AI-агентов возникает соблазн: дать системе больше самостоятельности. Кажется, что это быстрее, дешевле и масштабируемее.
На практике автономность без ограничений почти всегда заканчивается потерей управляемости. “Оно само решило” — худшая фраза, которую можно услышать в продуктовой команде.
Хороший AI — не тот, кто делает всё сам. Хороший AI — тот, кто действует в понятных рамках, с логами, контролем, возможностью остановки и отката.
Если систему нельзя быстро проверить, остановить или вернуть назад — ей нельзя доверять, даже если 90% времени она работает нормально.
Что делает AI предсказуемым на практике
Тут нет магии. Обычно всё упирается в несколько принципов, которые часто игнорируют, потому что они “не такие красивые, как выбор модели”.
1) Явные ограничения
AI должен понимать границы: что можно делать, что нельзя — не философски, а на уровне конкретных действий и правил.
2) Нормальная интеграция в продукт
AI — часть системы, а не “внешний мозг”. Его решения должны быть привязаны к бизнес-логике и проверкам, а не жить отдельной жизнью.
3) Наблюдаемость
Любое действие AI должно оставлять след: что он видел на входе, что сделал, почему так решил, к чему это привело. Без этого нет ни доверия, ни развития.
Предсказуемость — признак зрелости
По мере взросления AI-продуктов фокус неизбежно смещается: меньше восторга от возможностей, больше внимания к надёжности.
Хороший AI — не самый креативный и не самый сложный. Хороший AI — тот, чьё поведение:
- понятно,
- воспроизводимо,
- контролируемо.
Идея подхода Андрея Никулина простая: AI имеет смысл пускать в серьёзные задачи только тогда, когда он ведёт себя как инженерная система, а не как бесконечный эксперимент. В этом смысле предсказуемость — не ограничение. Это фундамент доверия