Interpult Studio

А Форбс доклад вызывает вопросы о том, как команда модераторов TikTok обрабатывает материалы о сексуальном насилии над детьми, утверждая, что они предоставили широкий и небезопасный доступ к незаконным фотографиям и видео.

Сотрудники стороннего модератора под названием Teleperformance, который работает с TikTok среди других компаний, утверждают, что попросили их просмотреть тревожную электронную таблицу под названием DRR или Daily Required Reading по стандартам модерации TikTok. Электронная таблица якобы содержала контент, нарушающий правила TikTok, в том числе «сотни изображений» детей, которые были обнажены или подвергались насилию. Сотрудники говорят, что сотни людей в TikTok и Teleperformance могли получить доступ к контенту как внутри офиса, так и за его пределами, что открыло дверь для более широкой утечки.

Телеперформансу отказано в Форбс что он показывал сотрудникам контент, сексуально эксплуатируемый, и TikTok заявил, что его учебные материалы имеют «строгий контроль доступа и не включают визуальные примеры CSAM», хотя и не подтвердили, что все сторонние поставщики соответствуют этому стандарту.

Сотрудники рассказывают другую историю, и как Форбс излагает, это юридически рискованно. Модераторы контента обычно вынуждены иметь дело с CSAM, которые публикуются на многих платформах социальных сетей. Но изображения жестокого обращения с детьми являются незаконными в США, и с ними нужно обращаться осторожно. Компании должны сообщать о контенте в Национальный центр пропавших и эксплуатируемых детей (NCMEC), а затем хранить его в течение 90 дней, но свести к минимуму количество людей, которые его увидят.

Утверждения здесь выходят далеко за рамки этого предела. Они указывают, что Teleperformance показывал сотрудникам графические фотографии и видео в качестве примеров того, что можно пометить в TikTok, при этом играя быстро и свободно с доступом к этому контенту. Одна сотрудница говорит, что она связалась с ФБР, чтобы узнать, является ли эта практика преступным распространением CSAM, хотя неясно, была ли она открыта.

READ  Сообщается, что Microsoft увольняет команду, ориентированную на возвращение потребителей

Полный Форбс отчет стоит прочитать, описывая ситуацию, когда модераторы не смогли угнаться за взрывным ростом TikTok и сказали смотреть преступления против детей по причинам, которые, по их мнению, не складывались. Даже по сложным стандартам дебатов о безопасности детей в Интернете это странная — и если быть точным, ужасающая — ситуация.

https://www.theverge.com/2022/8/5/23294017/tiktok-teleperformance-employees-shown-csam-moderation-report

от admin

EnglishFrançaisDeutschРусский