OpenAI у понеділок повідомила, що розгортає налаштовану версію ChatGPT на платформі GenAI.mil, створеній Міністерством оборони США. Цей крок розширює доступ військових до потужних генеративних моделей штучного інтелекту, хоча критики попереджають, що помилки користувачів залишаються ключовим ризиком безпеки. ChatGPT приєднується до зростаючого списку моделей ШІ, доступних для військових США, включаючи Gemini від Google та Grok, систему ШІ, розроблену xAI, яка була інтегрована у SpaceX цього місяця.
«Ми вважаємо, що люди, відповідальні за захист країни, повинні мати доступ до найкращих інструментів, і важливо для США та інших демократичних країн розуміти, як за допомогою належних заходів безпеки штучний інтелект може допомогти захищати людей, стримувати противників і запобігати майбутнім конфліктам», — заявила OpenAI у своїй заяві. OpenAI повідомила, що версія ChatGPT для GenAI.mil затверджена для некласифікованого використання Міністерством оборони і працюватиме в рамках авторизованої урядової хмарної інфраструктури. За словами OpenAI, система включає заходи безпеки, спрямовані на захист чутливих даних. Однак J.B. Branch, адвокат відповідальності великих технологій у Public Citizen, попередив, що надмірна довіра користувачів до ШІ може підривати ці заходи безпеки.
«Дослідження показують, що коли люди використовують ці великі мовні моделі, вони схильні надавати їм перевагу довіри», — сказав Branch у Decrypt. «Тому у високовпливових ситуаціях, таких як військові, це робить ще важливішим переконатися, що вони отримують правильну інформацію». Розгортання відбувається на тлі прискорення Пентагоном впровадження комерційного ШІ у військові мережі та у зв’язку з прагненнями розробників ШІ отримати прибуток. У січні міністр оборони Піт Гегсет заявив, що департамент планує розгортати провідні моделі ШІ як у некласифікованих, так і у класифікованих військових мережах. Хоча OpenAI заявила, що налаштована версія ChatGPT призначена лише для некласифікованих даних, Branch попередив, що внесення будь-якої чутливої інформації у системи ШІ робить її вразливою для противників, додавши, що користувачі часто плутають такі інструменти з безпечними сховищами. «Класифікована інформація має бути доступною лише для певного кола осіб», — сказав він. «Тому навіть якщо у вас є система обмежень, яка дозволена лише у військових структурах, це не змінює факту, що класифіковані дані призначені лише для обмеженого кола людей». OpenAI не одразу відповіла на запит про коментар від Decrypt.