
OpenAI 15 травня оголосила про запуск нових функцій безпеки, які підвищують здатність ChatGPT виявляти сигнали попередження щодо самогубства, саморозтину та потенційного насильства; нова функція використовує тимчасовий механізм «безпечного резюме», який формує контекст, що виникає з аналізу діалогу з плином часу, а не обробляє кожне повідомлення окремо. Оновлення збігається в часі з тим, що OpenAI одночасно стикається із кількома позовами та розслідуваннями.
Згідно з дописом у блозі OpenAI, технічна специфікація нового механізму безпечного резюме така:
Визначення функції: тимчасові нотатки вужчого охоплення, що фіксують релевантний безпековий контекст із ранніх етапів діалогу
Умови ввімкнення: лише у серйозних випадках, не є постійною пам’яттю, не використовується для персоналізованих чатів
Фокус виявлення: ситуації, пов’язані із самогубством, саморозтином та застосуванням насильства щодо інших людей
Основне призначення: виявлення небезпечних ознак у діалогах, запобігання наданню шкідливої інформації, пом’якшення напруження, спрямування до пошуку допомоги
Підстава для розробки: OpenAI підтвердив, що співпрацював із фахівцями з психічного здоров’я для оновлення політик моделі та методів навчання
У статті OpenAI пояснює: «У чутливих розмовах контекст і окреме повідомлення однаково важливі. Запит, який здається звичайним або нечітким, якщо розглядати його разом із раніше поміченими ознаками страждання чи потенційним злим умислом, може мати зовсім інше значення».
Згідно з повідомленням Decrypt, підтверджено три юридичні дії:
1、Розслідування генерального прокурора Флориди (старт у квітні 2026 року): розслідування охоплює безпеку дітей, поведінку із саморозтином, а також масштабну стрілянину, що сталася у 2025 році в Університеті штату Флорида.
2、Федеральний позов (справа про стрілянину в Університеті штату Флорида): OpenAI стикається з федеральним позовом, який звинувачує її програму ChatGPT у тому, що вона допомогла стрільцю реалізувати цю атаку.
3、Позов до суду штату Каліфорнія (подано у вівторок, 13 травня 2026 року): родичі 19-річного студента, який помер через випадкове передозування ліками, подали позов до суду штату Каліфорнія проти OpenAI та CEO Семa Альтмана, звинувачуючи ChatGPT у заохоченні небезпечного використання препаратів і в тому, що він радив поєднувати ліки.
OpenAI підтвердив: «Допомога ChatGPT розпізнавати ризики, які стають видимими лише з плином часу, і надалі залишається постійним викликом». У статті OpenAI також зазначає, що на даний момент робота зосереджена на ситуаціях із саморозтином і заподіянням шкоди іншим, та говорить, що «в майбутньому може дослідити», чи застосовуватиме подібні підходи до інших сфер із високими ризиками, зокрема біобезпека або кібербезпека (це напрям дослідження, заявлений OpenAI, а не підтверджений план розробки).
Згідно з поясненням OpenAI, безпечне резюме — це короткострокові тимчасові нотатки, які вмикаються лише у серйозних випадках; воно чітко визначене як не постійна пам’ять і не використовується для функції персоналізованих чатів. Його застосування обмежене безпековими сценаріями в активних діалогах, щоб покращити обробку кризових розмов.
Згідно з повідомленням Decrypt, розслідування, яке генеральний прокурор Флориди Джеймс Утмейєр розпочав у квітні 2026 року, охоплює звинувачення, пов’язані із безпекою дітей, поведінкою із саморозтином, а також масштабною стріляниною в Університеті штату Флорида у 2025 році. Паралельно OpenAI також стикається із окремим федеральним позовом, пов’язаним із цією стріляниною.
Згідно з повідомленням Decrypt, позов у Каліфорнії подано 13 травня 2026 року; у ньому стверджується, що ChatGPT заохочував небезпечне вживання ліків і радив змішувати препарати, що призвело до смерті 19-річного студента через випадкове передозування. Відповідачами є OpenAI та CEO Сем Альтман. Станом на момент публікації матеріалу OpenAI не надав прямої відповіді щодо конкретних звинувачень у цьому позові.
Related News
Pi Network PiScan повертається: оновлення KYC AI скорочує ручну чергу на 50%
Позов проти ChatGPT отримав ще один новий пункт! Його звинувачують у таємному розголошенні вмісту чатів користувачів для Meta та Google
OpenAI: Прориву даних користувачів у TanStack під час атаки на ланцюжок постачання не було
WhatsApp разом із Meta AI запускає приховані чати: автоматичне зникнення повідомлень викликає сумніви щодо механізму відповідальності
Сем Альтман оголосив: OpenAI Codex подарує компаніям два місяці «безкоштовного» використання