Agentic AI: мечта CEO или новый источник корпоративных уязвимостей?
October 29, 2025
preview

Когда GPT впервые научился вызывать внешние API, стало понятно: нас ждет эра agentic AI. Вчера «Яндекс» представил «Алису» с AI-агентами, которые могут записать вас к врачу, заказать товар и оплатить услугу.

Удобно? Безусловно. Но что, если агент ошибется — отправит деньги не туда, запишет к не тому врачу или сольет данные партнерам? Кто несет ответственность — разработчики, компания или сама «Алиса»?

Тот же вопрос встает и перед бизнесом. В корпоративной среде agentic AI действуют уже от лица компании. Они сами ставят задачи, создают тикеты, вносят изменения в CRM и принимают решения. Это шаг к самоуправляемой организации — и новая зона риска, где ошибка модели может стоить миллионы.

Меня зовут Сергей Спиренков, я евангелист в KODE и CEO собственных проектов. В статье расскажу, где агентные системы уже приносят пользу, а где превращаются из помощников в источник уязвимостей.

Agentic AI в корпорациях: уровень внедрения в 2025

Такая архитектура перестала быть экспериментом: по данным PwC’s AI Agent Survey (2025), 79% компаний уже внедряют агентные системы, и две трети из них фиксируют рост продуктивности и сокращение издержек. Почти 9 из 10 руководителей увеличивают бюджеты на AI, а многоагентные модели — когда несколько агентов работают синхронно между функциями — становятся следующим шагом.

Экономические ожидания от внедрения agentic AI тоже есть. По оценке McKinsey, широкое распространение таких систем может добавить мировой экономике $450–650 млрд ежегодно к 2030 году. Автономные системы помогут увеличить выручку компаний на 5–10% в ряде отраслей и сократить операционные издержки на треть.

Удачные кейсы применения AI-агентов

По данным PwC’s AI Agent Survey (2025), большинство корпоративных агентов пока автоматизируют то, что раньше считалось «неоптимизируемой» рутиной: обновляют базы данных, анализируют отчеты, готовят сводки. Это дает локальный прирост эффективности, но не перестраивает процессы. Трансформация начнется тогда, когда агенты будут встраиваться в бизнес-логику и взаимодействовать между отделами, создавая связанный контур принятия решений.

Исследование McKinsey тоже показывает, что наибольший ROI фиксируется там, где агент работает не изолированно, а как элемент цепочки — например, в supply chain или клиентском пути. В таких компаниях AI становится «вторым слоем» операционной системы: отслеживает данные, предлагает решения, исполняет рутинные шаги.

В IT-департаментах агенты берут на себя стандартные тикеты, мониторинг и тестирование. В промышленности — прогнозируют отказы и оптимизируют техобслуживание: Mercedes-Benz добилась 99,9% бесперебойной работы и снизила себестоимость производства на 25%.

Агентные технологии начинают выходить и за рамки корпоративных контуров. В сентябре Google представила AP2 (Agent Payments Protocol) — открытый протокол, позволяющий агентам самостоятельно совершать платежи с криптографическим подтверждением согласия пользователя.

Схема напоминает архитектуру API-оркестрации: агент получает задание (Intent Mandate), формирует корзину, запрашивает токен у Credential Provider и проводит транзакцию без хранения платежных данных. Такой подход устраняет проблему доверия и галлюцинаций в платежных сценариях и открывает путь к взаимодействию агентов между собой — machine-to-machine commerce без участия человека.

Agentic AI в кибербезопасности

Автономность, которая несет риски в бизнес-процессах, в кибербезопасности превращается в преимущество. Агентные системы уже анализируют логи, выявляют аномалии и ускоряют реагирование на инциденты.

Индустрия движется в сторону специализированных моделей, обученных на реальных инцидентах и отчетах SOC-центров. Так, IBM Research представила семейство компактных LLM для анализа уязвимостей и инцидентов, которые по точности сопоставимы с крупными моделями, но требуют меньше ресурсов. Подход характерен для новой волны решений: не масштаб ради мощности, а узкая специализация и способность рассуждать по шагам.

Реальные инциденты и неудачные внедрения

Рост автономности уже успел проявиться не только в экспериментах, но и в сбоях, стоивших компаниям миллионов долларов и репутации. Эти случаи — следствие архитектурных решений и границ доверия, которые компании задают сами.

Amazon Web Services и падение инфраструктуры. Недавно появились слухи, что Amazon Web Services уволила около 40 % DevOps-команды и частично заменила их AI-системой, способной автоматически находить и устранять ошибки в инфраструктуре. Внутреннее письмо опубликовали на вики и быстро удалили. Через несколько недель произошел крупный сбой, затронувший Snapchat, Roblox и десятки других сервисов. Официальных подтверждений не было, но кейс стал показательным.

Anthropic и неэффективные AI-агентах. По данным исследований, AI-агент от Anthropic успешно справился лишь с ~24 % типовых офисных задач. При этом совокупные затраты на инфраструктуру, контроль и ревью результатов превысили прогнозы.

IBM и сокращения в HR. В 2023–2024 годах компания уволила около 8 тысяч человек из HR-подразделения, внедрив виртуального сотрудника AskHR. Модель должна была обрабатывать документы и заявки на отпуска. Но компания столкнулась с ситуациями, где требовались эмпатия и субъективная оценка. Ошибки накопились, и IBM была вынуждена вернуть тысячи специалистов.

Duolingo и сокращение фрилансеров. В 2023–2024 годах платформа начала заменять внештатных авторов и переводчиков на AI. Компания сократила около 10% фрилансеров и планировала довести этот показатель 90%. Однако в 2025 компанию остановила волна критики: пользователи жаловались на шаблонные курсы, а в соцсетях разгорелось обсуждение утраты качества. Duolingo вернула часть специалистов — автономия без человеческого контекста ударила по продукту быстрее, чем снизила издержки.

Google и новый Agent Payments Protocol. В пилотах Google AI тестируются агенты, имеющие доступ к платежным операциям. Возникает ключевой вопрос: кто несет ответственность при сбое и финансовых потерях? Пока ни один регламент не определяет, кто возвращает деньги, если ошибка была на стороне модели.

Эти эпизоды показывают, что уровень риска в agentic-системах определяется не мощностью модели, а тем, насколько четко задана среда и политика взаимодействия. Пока бизнес продолжает экспериментировать, каждый новый уровень автономии требует не только архитектурных решений, но и новой управленческой дисциплины.

Темная сторона технической автономии: drift, hijacking, shadow AI

Если в простых сценариях AI-агент ограничен внутренними API и sandbox-средой, то при подключении к CRM, бухгалтерии или инфраструктуре каждый неверный шаг превращается в потенциальный инцидент. Проблема в том, что у agentic AI нет классического «детерминированного поведения»: он не выполняет скрипт, а рассуждает. И эти рассуждения со временем могут меняться.

Один из эффектов — agent drift. Когда агент работает с расширенной памятью, он начинает корректировать собственные паттерны, обучаясь и на неудачных шагах. В итоге может измениться не только стратегия действий, но и интерпретация целей. Если не контролировать обновление контекста, агент способен переопределить приоритеты — например, начать оптимизировать метрику эффективности, а не соблюдение политики безопасности.

Другой риск — agent hijacking. Чем шире набор инструментов и API, тем выше вероятность компрометации токенов или подмены команд. Уязвимости чаще всего кроются не в самой модели, а во внешних интеграциях: open-source библиотеках, SDK для оркестрации или плохо настроенных хранилищах секретов. Захватив контекст, злоумышленник может заставить агента выполнять вредоносные действия — от утечки данных до изменения бизнес-логики.

Отдельная категория — shadow AI: несанкционированные агенты, которые сотрудники запускают самостоятельно. На первый взгляд — безобидная инициатива («поможет ускорить отчеты»), но в итоге она создает дублирующий слой автоматизации, вне контроля DevSecOps и без мониторинга действий. Такие агенты нередко хранят корпоративные токены в открытом виде, используют публичные API и становятся точками утечки.

Будущее agentic AI

Пока у компаний нет универсального фреймворка для управления автономными системами. Лучшие практики строятся вокруг идеи контролируемой свободы: агент может действовать сам, но только в пределах заранее описанных правил, лимитов доступа и зон ответственности. В этом и состоит парадокс agentic AI: чтобы он приносил пользу, ему нужно доверять; чтобы ему доверять, его автономию приходится ограничивать.

Пока что Gartner прогнозирует, что более 40% проектов agentic AI будут свернуты к 2027 году из-за затрат, неясной бизнес-ценности и недостаточного контроля рисков.

А каким вы видите будущее agentic AI?

The site uses cookies, which allows you to receive information about you. This is necessary to improve the site. By continuing to use the site, you agree to the use of cookies - more details in our Policy on the processing of personal data