Ещё одно дело в юридических разбирательствах с ChatGPT! Его обвиняют в тайной утечке содержимого пользовательских чатов в Meta и Google

Одна жительница Калифорнии подала коллективный иск против OpenAI, обвинив компанию в нарушении законов о конфиденциальности. Она утверждает, что ChatGPT без согласия пользователей пересылает содержание запросов пользователей в Meta и Google через инструменты отслеживания. Этот кейс считается знаковым: это первый в федеральном суде прямой вызов способу обработки данных AI-чатботом, что вызвало повышенное внимание к защите приватности в сфере AI.

(ChatGPT! В дело о подростковом суициде! OpenAI: усилила психологические механизмы защиты GPT-5)

ChatGPT подозревают в встраивании скрытых трекинговых кодов: весь чат оказался подглядываемым

13 мая жительница Калифорнии Amargo Couture подала иск в федеральный окружной суд Южного округа Калифорнии.

В жалобе указано, что OpenAI встроила в код на официальном сайте ChatGPT сторонние трекинговые инструменты вроде Meta «Facebook Pixel» и Google «Google Analytics». Эти трекинговые коды автоматически работают без ведома пользователей и в реальном времени передают содержание запросов и персонально идентифицируемые сведения в Meta и Google, включая крайне чувствительные личные данные — состояние здоровья, финансовые рекомендации, юридические вопросы и т.д.

Couture заявляет, что в 2025–2026 годах несколько раз использовала ChatGPT, чтобы задавать вопросы по личному здоровью и финансам, но при этом полностью не знала, что эти приватные данные были переданы третьим сторонам — крупным рекламно-технологическим компаниям.

От основания требований: потенциальные суммы компенсаций OpenAI — свыше 5 млн долларов

В жалобе говорится, что OpenAI предположительно нарушила несколько американских и калифорнийских законов, включая «Закон об электронной связи (ECPA)» и калифорнийский «Закон о нарушении конфиденциальности». При этом действие CIPA не ограничивается традиционными телефонными коммуникациями: оно распространяется и на «развивающиеся технологии», включая компьютеры, интернет и электронную почту.

Согласно калифорнийскому законодательству, максимальная предусмотренная законом компенсация за каждое нарушение может достигать 5 000 долларов. Если иск будет квалифицирован как коллективный, масштаб потенциального возмещения окажется весьма значительным; сумма по делу оценивается более чем в 5 млн долларов. Адвокаты истца подчеркнули, что OpenAI помогала Meta и Google перехватывать содержание сообщений без разрешения пользователей, что представляет собой систематическое нарушение приватности миллионов пользователей.

Что такое трекинговые коды? Невидимые «воры данных»

Так называемые «трекинговые пиксели (Tracking Pixels)» — это фрагменты микрокода, встраиваемые в исходный код веб-страницы, и обычным пользователям обычно сложно заметить их присутствие. Каждый раз, когда пользователь заходит на сайт, трекинговый пиксель автоматически запускается, незаметно собирает информацию о действиях пользователя при просмотре и операциях и затем отправляет ее компаниям вроде Meta или Google.

Для e-commerce-площадок или сайтов рекламной направленности такой подход может иметь коммерческую обоснованность; однако контекст использования ChatGPT совершенно иной. Пользователи задают вопросы в ChatGPT, часто потому что доверяют этой платформе и готовы делиться тайными переживаниями, которые не сказали бы никому: например, болезнями, душевными ранами или финансовыми кризисами. Как только эти разговоры будут выкачаны рекламными компаниями, OpenAI рискует потерять доверие пользователей.

Meta как раз использует эти данные для создания своей масштабной системы точного таргетинга рекламы. Согласно жалобе, практически все выручка Meta формируется за счет рекламы; ее рекламные системы могут отслеживать активность пользователей и внутри платформы, и за ее пределами, делая выводы об интересах, поведении и социальных склонностях пользователей, а также создавая механизмы размещения рекламы для различных аудиторий.

Нужна срочная законодательная защита приватности пользователей: AI-диалоги не должны стать «брешью»

По мере того как все больше людей интегрируют AI-инструменты в повседневную жизнь, приватностные споры во всем мире продолжают набирать обороты. Будь то эмоциональные трудности и личные внутренние переживания, которые пользователи раскрывают AI-чатботам, или конфиденциальные данные, которые сотрудники компаний массово прикрепляют в рабочих контекстах, от частных лиц до организаций всем грозит угроза.

Пару дней назад OpenAI уже оказалась под совместными обвинениями: ее связали с тем, что ChatGPT якобы способствовал стрелку в нападении в университете штата Флорида, что косвенно привело к гибели обоих людей.

Юристы считают, что если подобные иски будут признаны обоснованными, это окажет значимый прецедентный эффект на всю AI-индустрию: компании будут вынуждены яснее информировать пользователей о том, какие данные собираются, как долго они хранятся и с кем передаются, а также предоставлять понятные механизмы согласия/отказа. В настоящее время OpenAI не сделала по этому поводу никаких публичных заявлений. Дело находится на ранней стадии, и вопрос о получении статуса коллективного иска еще предстоит решить суду.

Эта статья о судебном иске против ChatGPT — еще один случай в копилке обвинений! Обвиняют в тайной утечке пользовательских чатов в Meta и Google впервые появилась на Link News ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев