Кратко
Использование Meta искусственного интеллекта для контроля своих платформ создает большое количество низкокачественных отчетов, которые истощают ресурсы и замедляют расследования случаев эксплуатации детей, сообщает The Guardian.
Эта новость появилась после того, как на прошлой неделе представители правоохранительных органов Нью-Мексико заявили, что отчеты, созданные ИИ, перегружают следователей и замедляют дела о детской эксплуатации.
Офицеры программы по борьбе с преступлениями против детей в интернете специально указали на автоматизированные системы Meta, заявив, что они генерируют тысячи бесполезных советов каждый месяц, которые передаются правоохранительным органам.
«Мы получаем много советов от Meta, которые — просто мусор», — заявил Бенджамин Цвибель, специальный агент ICAC в Нью-Мексико, во время судебного процесса против компании.
Другой офицер ICAC, пожелавший остаться анонимным, сообщил The Guardian, что киберсоветы департамента удвоились с 2024 по 2025 год.
«Это довольно подавляюще, потому что мы получаем так много отчетов, но их качество очень низкое с точки зрения нашей способности принимать серьезные меры», — сказал он.
В заявлении, переданном Decrypt, представитель Meta отметил, что компания давно сотрудничает с правоохранительными органами и отметила, что Министерство юстиции и Национальный центр по пропавшим и эксплуатируемым детям хвалили ее процесс отчетности.
«В 2024 году мы получили более 9000 экстренных запросов от американских властей и решили их в среднем за 67 минут, а в случаях, связанных с безопасностью детей и суицидом, — еще быстрее», — сказал представитель.
«В соответствии с применимым законодательством мы также сообщаем о предполагаемом изображении сексуальной эксплуатации детей в NCMEC и поддерживаем их в приоритизации отчетов, помогая создавать их инструмент управления делами и маркируя киберсоветы, чтобы они знали, какие из них срочные», — добавил он.
Однако офицеры ICAC заявили, что некоторые отчеты, отправленные Meta, не являются уголовными по своей природе, а другие не содержат достоверных доказательств, необходимых для возбуждения дела.
Рост связан с законом о отчетности, подписанным в мае 2024 года, который расширил требования к отчетности, включив планируемое или неминуемое насилие, торговлю детьми и связанную эксплуатацию, а также потребовал от компаний дольше сохранять доказательства.
По статистике
Meta остается крупнейшим источником отчетов для CyberTipline NCMEC, составляя около двух третей из 20,5 миллиона советов, полученных в 2024 году, что меньше 36,2 миллиона в 2023 году.
Снижение частично связано с изменениями в практике отчетности Meta.
В своем отчете о целостности за август 2025 года Meta сообщила, что Facebook, Instagram и Threads отправили более 2 миллионов отчетов CyberTip в NCMEC во втором квартале 2025 года.
Из них более 528 000 касались неподобающих взаимодействий с детьми, а более 1,5 миллиона — распространения или повторного распространения материалов сексуальной эксплуатации детей.
Несмотря на эти цифры, Джей Би Бранч, представитель организации Public Citizen, заявил, что увеличенная зависимость от ИИ сделала Закон о отчетности менее эффективным для следователей, утверждая, что хотя алгоритмы давно помогают снизить нагрузку на модераторов, человеческие рецензенты были наиболее эффективным фильтром.
«Часть проблемы в том, что многие технологические компании уволили модераторов контента и заменили их ИИ-системами безопасности», — сказал Бранч Decrypt. «В результате, из-за чрезмерной осторожности, выбирается слишком много ложных срабатываний».
Ранее Бранч отмечал, что в цепочке проверки обычно было больше человеческих рецензентов, которые могли выявлять и удалять контент, не заслуживающий внимания.
«Поскольку эти компании убрали человеческих модераторов или рецензентов из цепочки, гораздо больше материалов пропускается, потому что они хотят перестраховаться», — сказал он. «Они используют широкую сеть и захватывают даже то, что не соответствует критериям, полагаясь в основном на инструменты ИИ».
Следователи отмечают, что влияние ошибочных советов, созданных ИИ, уже ощущается внутри групп, их проверяющих.
«Это убивает мораль. Мы тонем в советах и хотим заниматься этим делом», — заявил один из офицеров ICAC. «У нас нет персонала, чтобы справляться с этим потоком. Мы не можем идти в ногу с волной поступающих данных».