Microsoft усиливает защиту Zero Trust с развитием AI
Microsoft расширяет возможности zero trust для защиты AI-агентов. Компания интегрирует свои инструменты безопасности — Entra, Purview и Defender — в процессы разработки и управления AI-агентами. Это связано с растущими рисками, которые несут автономные AI-системы.
AI-агенты становятся неотъемлемой частью бизнес-процессов, но их нельзя доверять по умолчанию. Они могут быть уязвимы к атакам, включая инъекции промптов и утечки данных. Microsoft предлагает рассматривать их как обычных сотрудников — с теми же требованиями к безопасности.
Что именно меняется
- Entra Agent ID — система идентификации AI-агентов, работающая по принципу zero trust. Она автоматически присваивает уникальные идентификаторы агентам, созданным в Copilot Studio и Azure AI Foundry.
- Purview теперь поддерживает контроль доступа AI-агентов к данным, включая кастомные приложения через новый SDK.
- Defender интегрируется в Azure AI Foundry для выявления уязвимостей на этапе разработки.
Контекст
Ранее эксперты предупреждали, что AI-агенты могут стать новым вектором атак. Microsoft уже использует их в Security Copilot, а к 2028 году прогнозирует появление 1,3 млрд подобных систем. Без должной защиты это превратится в масштабную проблему.
Новые инструменты должны снизить риски, но идеального решения пока нет. Компаниям придется балансировать между возможностями AI и требованиями безопасности.