OpenAI запустила нову програму винагороди за виявлення вразливостей безпеки для боротьби з новими ризиками в штучному інтелекті. Оголошена 26 березня 2026 року та повідомлена Cointelegraph, ініціатива зосереджена на тому, як люди можуть неправильно використовувати системи ШІ. Замість обмеження зусиль лише технічними недоліками, OpenAI спрямовує увагу на реальні шкодливі наслідки. Цей крок відображає зростаючий тиск на компанії, що працюють з ШІ, діяти відповідально, оскільки їхні інструменти стають більш потужними та широко використовуються.
OpenAI співпрацює з Bugcrowd для проведення програми. Компанія запрошує етичних хакерів, дослідників та аналітиків тестувати свої системи. Однак ця програма виходить за межі звичайного тестування безпеки. Учасники можуть повідомляти про проблеми, такі як інжекція запитів та зловживання агентами. Таким чином, ці ризики можуть впливати на поведінку ШІ у непередбачуваний спосіб. OpenAI прагне зрозуміти, як такі дії можуть призвести до шкідливих наслідків. З цим компанія намагається бути на крок попереду потенційних загроз.
OpenAI дозволяє подавати повідомлення, що не стосуються чітких технічних вразливостей. Це відрізняє цю програму від стандартних програм винагороди за помилки. Дослідники можуть повідомляти про сценарії, коли ШІ дає небезпечні або шкідливі відповіді. Вони повинні надати чіткі докази ризику. Крім того, цей підхід сприяє глибшому аналізу поведінки ШІ. Однак OpenAI не приймає прості спроби обійти системи безпеки (джейлбрейк). Компанія прагне отримати значущі результати, а не поверхневі експлойти. Також вона планує вирішувати делікатні ризики, такі як біологічні загрози, через приватні кампанії.
Оголошення викликало як похвалу, так і критику. Деякі експерти вважають, що OpenAI робить важливий крок до прозорості. Вони бачать у цій програмі спосіб залучити широку спільноту до покращення безпеки ШІ. Інші ставлять під сумнів мотиви компанії. Крім того, критики стверджують, що такі програми можуть не вирішувати глибокі етичні питання. Вони турбуються про те, як OpenAI керує даними та відповідальністю. Ці дискусії підкреслюють постійний напружений стан у галузі ШІ.
Нова ініціатива OpenAI показує, як розвивається галузь. Безпека ШІ тепер включає як технічні, так і соціальні ризики. Відкриваючи свої системи для зовнішнього огляду, OpenAI заохочує співпрацю. Це може призвести до кращих заходів безпеки та підвищення довіри. Водночас, програма не вирішує всі питання. Залишаються відкритими питання регулювання та довгострокового впливу. Проте OpenAI дала зрозуміти, що усвідомлює важливість ситуації. Зі зростанням ШІ проактивні заходи безпеки стануть ключовими у формуванні його майбутнього.