Антидиффамационная лига обнаружила доказательства антисемитской и антиизраильской предвзятости в Википедии, говорится в ее отчете, опубликованном во вторник. Это стало очередным разногласием между правозащитной группой и крупнейшей в мире онлайн-энциклопедией по поводу того, как следует изображать на сайте израильско-палестинский конфликт.
ADL утверждает, что она выявила сеть редакторов Wikipedia — добровольных модераторов популярных информационных сайтов — которые, по-видимому, координировали свои действия, чтобы «обойти политику Wikipedia, внедряя антисемитские нарративы, антиизраильскую предвзятость и вводящую в заблуждение информацию» в израильские и палестинские записи. В отчете также обвиняется Wikipedia в неспособности обеспечить соблюдение своей политики нейтралитета.
Однако Wikipedia заявила, что отчет ADL содержит «неподтвержденные и сомнительные утверждения», согласно заявлению представителя Фонда Wikimedia, который управляет сайтом.
«Фонд серьезно относится к обвинениям в предвзятости Википедии», — заявил представитель. «Мы категорически осуждаем антисемитизм и все формы ненависти. Жаль, что авторы отчета не попросили нас предоставить информацию и контекст, которые могли бы помочь развеять некоторые из поднятых проблем».
Отчет еврейской правозащитной группы появился на фоне более широкой напряженности среди пользователей и наблюдателей онлайн-энциклопедии по поводу того, как война Израиля и ХАМАС должна освещаться на сайте, а редакторы спорят о том, как описывать события, связанные с конфликтом. Википедия заявляет, что уже работает над тем, чтобы отразить действия недобросовестных лиц, обвиняемых в манипулировании платформой.
Спор
В прошлом году редакторы Википедии назвали ADL «в целом ненадежной в отношении израильско-палестинского конфликта» из-за ее двойной роли как правозащитной и исследовательской организации, но «в целом надежной» по другим темам. В то время ADL заявила, что это решение стало «печальным событием для исследований и образования» и что оно не позволит информации об антисемитизме достичь общественности.
После принятия этого решения «ADL продолжила искажать устоявшиеся принципы, политику и механизмы обеспечения соблюдения Википедии, которые эффективно решают проблемы, изложенные в отчете и его рекомендациях», — говорится в заявлении Фонда Викимедиа.
Отдельно Wikipedia также подтвердила, что в январе она заблокировала восемь редакторов от участия в создании контента, связанного с израильско-палестинским конфликтом, из-за опасений по поводу недобросовестных правок, шаг, который ADL приветствовала. Арбитражный комитет Wikipedia, группа добровольцев, избранных другими редакторами для управления поведением на сайте, также поместил статьи строго о конфликте в «расширенную подтвержденную защиту», что означает, что их могут редактировать только опытные добровольцы.
Это не первый раз, когда возникают разногласия по поводу того, как спорные вопросы должны отображаться в интернет-энциклопедии. Похожие разногласия вспыхнули из-за описаний отношений Гонконга с Китаем и атаки на Капитолий США 6 января 2021 года. Илон Маск также обрушился с критикой на сайт в начале этого года, назвав его «Wokepedia» за его бюджет DEI и обвинив его в политической предвзятости. Соучредитель Wikipedia Джимми Уэйлс ответил, что Маск, должно быть, «недоволен тем, что Wikipedia не продается».
Споры соответствуют опасениям, которые возникли в последние годы по поводу типов контента и языка, которые платформы социальных сетей допускают, а которые нет. Но в отличие от многих из этих сайтов, Википедия гораздо более децентрализована, полагаясь на редакторов-волонтеров для создания и редактирования статей, одновременно формируя и поддерживая свои правила и нормы, хотя платформа заявляет, что использует некоторую автоматизированную модерацию для контроля определенных видов злоупотреблений.
«Википедия пишется и управляется людьми, которые приходят», — сказал Лорен Тервин, профессор компьютерных наук в Университете Миннесоты, изучавший Википедию и другие онлайн-сообщества. «(Споры) происходят постоянно… по разным темам», — сказал он.
Однако АДЛ опасается, что антисемитские настроения на платформе могут быть опасны.
«Мы призываем Википедию и политиков действовать быстро, прежде чем безудержная дезинформация в одном из самых посещаемых источников информации приведет к трагическим последствиям», — заявил генеральный директор ADL Джонатан Гринблатт в своем заявлении относительно отчета, опубликованного во вторник.
Отчет
Согласно отчету, ADL выявила группу из 30 редакторов Wikipedia, которые, по ее утверждению, координировали изменение страниц, связанных с «Израилем, Палестиной и израильско-палестинским конфликтом». Редакторов обвиняют в «преуменьшении палестинского антисемитизма, насилия и призывов уничтожить Израиль, выдвигая на первый план критику Израиля». Редакторы также удалили ссылки на авторитетные источники по этим темам, такие как академические исследования и освещение в основных СМИ, говорится в отчете.
Анализ ADL сравнил три группы из 30 редакторов с 30 редакторами, которые, по их словам, действовали «недобросовестно». Одна группа состояла из активных редакторов всех страниц Википедии. Другая сосредоточилась на теме отношений США и Китая, а третья занималась страницей войны Израиля и ХАМАС, но не нарушала правил Википедии. В отчете было обнаружено, что «недобросовестные» редакторы были гораздо более активны, чем три другие группы. Википедия утверждает, что у нее сотни тысяч редакторов-добровольцев.
Согласно отчету, 30 редакторов совместно внесли изменения в 10 000 статей, связанных с Израилем и палестинцами, причем количество правок возросло после того, как ХАМАС напал на Израиль 7 октября 2023 года.
Например, в отчете говорится, что «подозрителен редактор» удалил ссылки на сообщения в основных СМИ о призывах к уничтожению Израиля со страницы под названием «Палестинское политическое насилие». В нем также говорится, что сообщение в СМИ, в котором упоминается сексуальное насилие, совершенное ХАМАС во время его атак 7 октября, было удалено с главной страницы о группе.
ADL написала, что эти и другие правки свидетельствуют о «систематической попытке исказить многочисленные статьи Википедии с целью продвижения набора историй, критикующих Израиль», и «перевести статьи со сбалансированных исторических отчетов» на предвзятое повествование.
В отчете также утверждается, что страницы Википедии на арабском языке, связанные с ХАМАС, «прославляют» эту группировку, которую США считают иностранной террористической организацией, и «продолжают пропаганду в пользу ХАМАС». Например, страница Википедии на арабском языке, посвященная ХАМАС, ссылается на «цели группировки как на „освобождение“ „Палестины“», а террористов-смертников называет «мучениками», согласно отчету, в котором говорится, что сайт не обеспечивает последовательного соблюдения своих правил в отношении контента на языках, отличных от английского.
Политика Википедии гласит, что ее редакторы должны придерживаться «нейтральной точки зрения», то есть они должны публиковать контент, с которым «почти все согласны», но также четко указывать на спорные моменты. Редакторы, которые вносят существенные изменения в статьи, должны обсуждать их с другими на форуме и сначала предоставлять обоснование, говорится на сайте.
«Вам нужно понять, что люди интерпретируют «нейтральную точку зрения», — сказал Тервин. — И люди будут спорить об этом».
В своем заявлении некоммерческая организация Wikimedia Foundation заявила, что на сайте действуют «множественные процессы управления», призванные «отдавать приоритет справедливому и сбалансированному подходу к спорным темам».
«Хорошо документированные стандарты Wikipedia специально разработаны для предотвращения ненадлежащего влияния и сохранения ее независимой, некоммерческой модели», — говорится в нем. «Волонтеры Wikipedia имеют большой послужной список успешного управления нейтралитетом по спорным вопросам».
В рамках серии рекомендаций, представленных в отчете, ADL призывает Фонд Викимедиа разработать программу, которая проверяет экспертов по Израилю и израильско-палестинскому конфликту для проверки спорных страниц на точность и предвзятость. Он также хочет, чтобы Википедия оценила эффективность своей человеческой проверки с помощью автоматизированных инструментов для предотвращения злоупотреблений и манипуляций. Фонд Викимедиа заявил, что многие из предложений ADL уже реализованы на сайте.
Тервин отметил, что сайту, который полагается на краудсорсинговые записи, может быть сложно прийти к единому мнению по спорным темам.
«Большая проблема — это масштаб. Достаточно ли человеческих усилий, чтобы убедиться, что все сделано хорошо? И это просто постоянная проблема», — сказал Тервин. «Википедия делает хорошую работу, но она не делает ее идеальной. И, я думаю, в каком-то смысле она не может делать ее идеальной».