Социальные сети плохо справляются с модерированием политического контента: сеять ненависть к Украине, дискредитировать европейский выбор Молдовы, агитировать россиян идти на украинский фронт с помощью маленьких платных сервисов накрутки дешево и легко, а соцсети таких кампаний "не видят".
К такому выводу пришли авторы исследования, основанного на результатах эксперимента по изучению уязвимости социальных сетей к мелким коммерческим манипуляциям, в том числе и в политических целях. Работа проводилась сотрудниками Центра передового опыта стратегических коммуникаций НАТО при участии украинских специалистов. Эксперименты авторы проводили в 2018, 2019, 2021 и 2022 годах, так что могли наблюдать динамику процессов.
Вначале соцсети демонстрировали прогресс в модерации контента, но с началом полномасштабного вторжения России в Украину их способность справляться с дезинформацией заметно снизилась и до сих пор не достигла уровня 2021 года.
Смотри также
В Австралии принимают закон о запрете соцсетей для лиц младше 16
Закон о цифровых услугах (DSA)1, обязывающий онлайн-гиганты бороться с контентом, сеющим ненависть и дезинформацию, и Закон о цифровом рынке (DMA)2, обязывающий интернет-платформы и социальные сети принимать меры для защиты пользователей от нелегального контента, товаров и услуг, были приняты в начале 2024 года. Авторы пришли к выводу, что новое европейское регулирование оказало минимальное влияние на обнаружение "неаутентичных действий".
Нынешний эксперимент проводился в августе-сентябре 2024 года. В его рамках авторы зарегистрировали фейковые аккаунты в Facebook, Instagram, YouTube, TikTok, ВКонтакте и, потратив 58 евро, приобрели 1 150 недостоверных комментариев, 11 725 лайков, 3 150 репостов и 8 233 просмотра 44-х фейковых постов нейтральной, неполитической направленности. Примерно такой же объем вовлеченности три года назад обошелся втрое дороже. Если раньше тестировались только российские поставщики услуги, то в этот раз испытывались шесть сервисов, включая два из США, один из Великобритании, один итальянский и два российских. В октябре авторы познакомили платформы с результатами. Отчет "Манипуляции в социальных сетях на продажу" был опубликован в ноябре 2024 года.
Что выяснилось? За четыре недели было удалено в среднем 15% выявленных аккаунтов, что является самым низким показателем за последние два эксперимента (25% в 2021 году и 16% в 2022 году). Из всех платформ с удалением фейковых аккаунтов лучше всего справлялась соцсеть Х: 50% при 26% в 2022 году. TikTok и ВКонтакте показали худшие результаты: 3% и 2% соответственно. Причем статистика ВКонтакте просела катастрофически: в 2021 году было 71% удаленных фейковых аккаунтов, в 2022-м – 50%. TikTok за три года снизил эффективность с 12% до 3%, а Facebook повысил с 1% до 25%, Youtube – с нуля до 2%.
Тот же прогресс Х показала и в удалении фейковых репостов, лайков и комментариев. Если в 2022 году в этой соцсети в ходе эксперимента оставалось 82,27% неаутентичного контента, то в 2024 году – только 61,91%. Преуспел в модерации также Youtube (90% – 78.71%). На остальных платформах остался почти весь неаутентичный контент. Он не был удален соцсетями даже после того, как о нем было сообщено.
Те же боты, которые продвигали фишинговые сайты и порнографию, использовались в политических кампаниях. Например, в предвыборный период в США они продвигали или дискредитировали Джо Байдена, Камалу Харрис и Дональда Трампа. Причем авторы заметили, что мелкие кампании практически остаются ниже уровня радаров соцсетей.
Корреспондент Радио Свобода побеседовала с одним из авторов исследования, главным научным сотрудником Центра передового опыта стратегических коммуникаций НАТО Гундарсом Бергманисом-Коратсом.