Согласно отчету, комментарии ко многим видеороликам содержали ссылки на приватные чаты в Telegram, в которых рекламировалась детская порнография.
«Некоторые из пользователей ответили на наши личные сообщения в TikTok ссылками на сторонние веб-сайты, которые продавали созданные с помощью ИИ видеоролики и изображения, содержащие сексуализацию несовершеннолетних, по ценам от 50 до 150 евро», — говорится в отчете.
Исследователи не стали доводить до конца никакие транзакции, и группа сообщила о веб-сайтах и аккаунтах в Telegram в полицию Испании.
«Telegram полностью привержен предотвращению появления материалов, содержащих сексуальную эксплуатацию детей (CSAM), на своей платформе и придерживается строгой политики нулевой терпимости», — заявил представитель Telegram Реми Воган в заявлении для CNN. «Telegram сканирует все медиафайлы, загруженные на его общедоступную платформу, по базе данных CSAM, удаленных модераторами, чтобы предотвратить их распространение. Хотя ни одна зашифрованная платформа не может активно отслеживать контент в закрытых группах, Telegram принимает сообщения от НПО по всему миру для обеспечения соблюдения своих условий обслуживания».
Вон заявил, что к 2025 году Telegram удалит более 909 000 публичных групп и каналов, содержащих материалы о сексуальном насилии над детьми.
Группа утверждает, что во вторник, 2 декабря, через инструменты для отправки жалоб в TikTok она отметила 15 аккаунтов и 60 видеороликов, классифицировав их как «сексуально провокационное поведение молодежи». Согласно отчету, у этих аккаунтов было в общей сложности почти 300 000 подписчиков, а 3900 видеороликов набрали более 2 миллионов лайков.
Как сообщает Maldita.es, к пятнице TikTok ответил, что 14 аккаунтов не нарушали правила, а один аккаунт был «ограничен». Группа обжаловала каждое решение, но «ровно через 30 минут после подачи апелляции по каждому отдельному случаю» TikTok подтвердил свое первоначальное решение.
Из 60 видеороликов, на которые пожаловалась группа, TikTok в пятницу ответил, что 46 из них не нарушают его правила, а 14 были удалены или ограничены. После апелляции исследователей TikTok удалил еще три видеоролика и ограничил доступ к еще одному. Пока неясно, чем ограничения на видео отличаются от их удаления.
По данным группы, среди видеороликов, которые не были удалены, был один с изображением созданной искусственным интеллектом молодой девушки в откровенной одежде в душе, а также другие изображения, созданные искусственным интеллектом, на которых, как представляется, молодые девушки позируют в откровенных позах в нижнем белье или бикини.
«Абсолютно невозможно, чтобы человек, увидев это, не понял, что происходит», — сказала Эрнандес-Эчеваррия. «Комментарии крайне грубые, полны самых отвратительных людей на земле».
К среде как минимум один аккаунт и одно видео, которые, согласно результатам проверки контента TikTok, не нарушали его правил, были удалены. Эрнандес-Эчеваррия заявила, что неясно, почему их не удалили сразу после первого сообщения о нарушении.
Отчет, опубликованный в четверг, последовал за отдельным исследованием, опубликованным в октябре британской некоммерческой организацией Global Witness, которое показало, что TikTok направлял молодых пользователей к контенту сексуального характера с помощью предлагаемых поисковых запросов. В этом отчете было установлено, что поиск TikTok предлагал «крайне сексуализированные» термины пользователям, которые сообщили, что им 13 лет и которые просматривали контент в «ограниченном режиме». В ответ TikTok заявил, что удалил контент, нарушающий его правила, и запустил улучшения в функции подсказок поиска.
TikTok AI Посмотреть все темы Facebook Твитнуть Email Ссылка Ссылка скопирована! Подписаться












