- Дата публикации
ИИ-воскрешение лидеров ИГ и Roblox-халифат: как террористы возвращаются в соцсети
Что произошло
Исследователи из Institute for Strategic Dialogue (ISD) зафиксировали новый виток цифровой активности «Исламского государства» (ИГ). Группа давно лишилась контроля над территорией в офлайне после битвы за Ракку, но её медиакоманда по‑прежнему чувствует себя уверенно в онлайне.
ISD несколько месяцев отслеживал аккаунты сторонников ИГ на Facebook, TikTok, Instagram, WhatsApp, Telegram, Element, SimpleX и в Discord‑каналах, посвящённых видеоиграм. Исследование показывает: террористы не только не исчезли, но и нарастили охваты.
Ключевые факты из отчёта:
- Исследователи нашли 350 аккаунтов, связанных с ИГ, на Facebook.
- Эти страницы собрали десятки тысяч просмотров.
- Один ролик с боевиком ИГ набрал более 77 000 просмотров и 101 репост.
- Логотипы и брендинг ИГ в видео размывают, чтобы обходить автомодерацию.
Новый инструмент пропаганды — генеративный ИИ. Сторонники ИГ создают видео, где «воскрешают» погибших лидеров, включая Абу Бакра аль‑Багдади. Алгоритмы синтезируют голос и изображение, а затем помещают «лидера» в новые контексты — от речей до постановочных роликов «в цветочном лугу».
Параллельно сеть ИГ уходит в игровые миры. В Minecraft и Roblox они строят виртуальный «халифат», называют серверы вроде Wilayat Roblox («провинция Roblox») и полностью копируют стилистику официальных роликов ИГ, включая псевдоказни и закадровый голос на арабском и английском.
Ещё один тренд — паразитирование на хайпе вокруг так называемых Epstein Files. Сторонники ИГ распространяют фейковое ИИ‑изображение Дональда Трампа и Билла Клинтона в одной постели, якобы «из архивов Эпштейна», и используют его как повод говорить о «западной развращённости».
Контекст
ISD фиксирует: вовлечённость в контент ИГ растёт на всех крупных платформах. Исследователь Мустафа Айяд объясняет это не только изобретательностью террористов, но и деградацией модерации у гигантов вроде Meta.
За последние годы Meta и другие сократили команды trust & safety, а значительную часть модерации отдали на аутсорс. Люди в подрядных компаниях часто не понимают контекст и не распознают, что ролик пришёл из инфраструктуры ИГ. Формально политики по терроризму не менялись, но качество исполнения просело.
После выборов Дональда Трампа Meta публично сдвинула акцент: меньше ручной модерации, больше «простора для высказываний» и меньше «ошибок блокировки». На практике это превратило Facebook в гораздо более комфортную площадку для радикальных сетей. Айяд утверждает: ещё три года назад многие из нынешних «инфлюенсеров» ИГ на Facebook продержались бы считанные часы.
Отчёт ISD подчёркивает: речь не идёт о «серой зоне» контента. Видео открыто используют символику ИГ, прославляют насилие, убийства меньшинств, теракты и грабежи в странах Африки к югу от Сахары. Несмотря на это, ролики неделями живут на платформах и собирают десятки тысяч просмотров.
Параллельно ИГ экспериментирует с форматами быстрее, чем крупные корпорации успевают на них реагировать. Игровые миры Roblox и Minecraft, Discord‑каналы, ИИ‑видео «воскрешённых» лидеров, мемы про Эпштейна — всё это даёт ощущение «игры» и дистанции от реального насилия. Авторы контента часто отшучиваются: «это фейк», «это просто LARP». Но по форме это прямая реконструкция культовых пропагандистских фильмов ИГ, вроде Flames of War: The Fighting Has Just Begun, только с персонажами Roblox.
Что это значит для вас
Если вы пользователь соцсетей или родитель геймера, риск уже рядом. Пропаганда ИГ больше не выглядит как зернистое видео из 2014‑го. Это может быть короткий клип в Reels, мем с Трампом и Клинтоном, либо «ролевой сервер» в Roblox с псевдоисторией и постановочными казнями.
На что смотреть:
- Явная или завуалированная символика ИГ, даже если логотипы размыты.
- Ролики, которые романтизируют насилие и «героизм мучеников».
- Игровые сервера с названиями вроде «Wilayat…», «Caliphate…» и копированием стилистики реальных военных хроник.
- Видео, где «воскресшие» лидеры читают новые речи или появляются в странно идиллических сценах — это часто результат работы ИИ.
Если вы работаете в ИТ, продукте или модерации, эта история очень прикладная:
- Алгоритмы рекомендаций легко разгоняют подобный контент, если его маскируют под мемы, геймплей или «документы Эпштейна».
- Аутсорс модерации без экспертизы по экстремизму даёт прямые дыры в безопасности.
- Простая размывка логотипа уже ломает многие существующие фильтры.
Что можно сделать уже сейчас:
- В компаниях — пересмотреть метрики модерации. Ориентироваться не только на количество удалённых постов, но и на скорость реакции на отчёты вроде исследования ISD.
- В продуктах — закладывать проверки для кросс‑форматных кампаний: когда одни и те же нарративы всплывают в Reels, играх и мессенджерах одновременно.
- Дома — разговаривать с детьми и подростками о пропаганде в играх и на Discord‑серверах. Объяснять, что «это же просто игра» не отменяет реального происхождения контента.
ИГ показало, что умеет пользоваться ИИ, мемами и играми не хуже маркетинговых агентств. Наивная вера в то, что «алгоритмы сами всё отловят», уже не работает — и для соцсетей, и для обычных пользователей.