У контексті безладного використання штучного інтелекту, що перетворюється на загрозу безпеці, компанія з управління доступом до ідентичності Okta реагує шляхом посилення функцій виявлення несанкціонованих AI-агентів (так званих “тіньових AI”). 12 числа (за місцевим часом) Okta оголосила про додавання до своєї платформи управління безпекою ідентичності нових можливостей для розпізнавання тіньових AI, їхнього відстеження та управління їхніми правами.
Запроваджена функція “виявлення агентів” дозволяє систематично контролювати права та доступ до даних AI-агентів у межах організації, допомагаючи безпечно запускати AI у рамках встановлених заходів безпеки. Ця функція особливо ефективна для виявлення AI-агентів, створених на несанкціонованих платформах, а також для відстеження передачі даних зовнішнім сторонам через процес авторизації OAuth у реальному часі.
Керівник відділу безпеки AI в Okta Харіш Пері підкреслив: “AI-агенти працюють на рівні застосунків, а не мережі або пристроїв, і виконують постійні та широкі права за допомогою нелюдських ідентичностей.” Він додав: “Ця нова функція спрямована на виявлення несанкціонованого використання AI та розробку відповідних заходів реагування.”
Побоювання щодо тіньового AI також підтверджуються у недавньому звіті Gartner. У ньому зазначається, що 69% компаній відстежують сліди використання співробітниками несанкціонованих генеративних інструментів AI, а до 2030 року понад 40% компаній стикнуться з ризиками безпеки або порушеннями відповідності через тіньовий AI. Okta вважає, що така “відсутність видимості безпеки” виникає через швидке поширення інструментів для створення AI-агентів та зростання використання неперевірених конструкторів AI.
Завдяки цьому оновленню Okta пропонує єдину безпечну панель для управління ідентичністю у хмарних інфраструктурах Oracle, Google, Microsoft, Salesforce та інших SaaS-екосистемах, інтегруючи управління нелюдськими ідентичностями. Це дозволяє адміністраторам ідентифікувати власників, обсяг прав та потенційні загрози безпеці для всіх типів AI-агентів (незалежно від їхнього затвердження).
Крім того, Okta планує до першого кварталу 2027 фінансового року розширити можливості виявлення на основні платформи AI, такі як Microsoft Copilot Studio, Salesforce Agentforce. Це має на меті посилити контроль за правами та ризиками, пов’язаними з кожним AI-агентом.
Віце-президент з бізнес-технологій Дженна Клайн зазначила: “Стратегія Okta щодо застосування AI полягає у пріоритеті управління та контролю, а не у розширенні функціональності,” підкреслюючи важливість постійного підходу, заснованого на контролі.
Тіньовий AI легко може перетворитися з інструменту швидкої адаптації у неконтрольовану технологію під час впровадження AI у компаніях. Тому посилена функція ISPM від Okta розглядається як крок, що відображає еволюцію стратегії безпеки компанії — балансуючи між інноваціями у сфері AI та збереженням безпеки й контролю.