- Дата публикации
Злоумышленники посадили фишинговый сайт на Squarespace в топ Google-поиска по плагинам Claude
Что появилось / что изменилось
Появился новый метод атаки на пользователей генеративного ИИ. В топе результатов Google по запросу "github plugin claude code" размещалась платная реклама, ведущая на фишинговый сайт. Сайт, хостившийся на Squarespace, полностью копировал дизайн и брендинг официального ресурса Anthropic для Claude. Изменённые инструкции по установке содержали команду для Mac, которая загружала вредоносное ПО. Платформа ThreatFox идентифицировала связанный домен как распространителя "стилера" — программы для кражи учётных данных. Рекламодатель был указан как "Enhancv R&D" из Болгарии и имел статус верифицированного аккаунта в Google. После жалобы реклама была удалена, а аккаунт рекламодателя заблокирован.
Как это работает
Злоумышленники использовали систему платной рекламы Google Ads. Они создали сайт-клон, визуально неотличимый от официальной документации Claude. В технические инструкции была внедрена вредоносная команда для терминала. Эта команда содержала зашифрованный URL, который маскировал конечный пункт загрузки. При расшифровке выяснилось, что команда скачивает программу с другого, опасного домена. Google заявил, что для борьбы с подобными объявлениями использует инструменты на основе Gemini и ручную модерацию, утверждая, что большинство таких рекламных кампаний блокируется до запуска.
Что это значит для вас
Это прямое предупреждение о необходимости повышенной осторожности при поиске инструкций или плагинов для популярных AI-инструментов. Атака нацелена на пользователей, которые торопятся и не проверяют источники. Конкретный совет: всегда проверяйте URL-адрес в адресной строке, прежде чем вводить учётные данные или запускать команды из интернета. Не доверяйте сайтам только из-за знакомого дизайна. Если вы ищете документацию для Claude, GPT-5 или других моделей, переходите только на официальные домены — anthropic.com или openai.com. Не копируйте и не запускайте в терминале команды с подозрительных страниц. Данный фишинговый сайт уже неактивен, но подобные схемы будут повторяться.
Место на рынке
Данный инцидент не связан с конкуренцией между самими AI-моделями, но демонстрирует общую уязвимость экосистемы. Проблема мошеннической рекламы в поисковых системах не нова и не уникальна для ИИ. Ранее хакеры использовали аналогичные методы, продвигая ссылки на пиратский контент или фейковые скандальные видео. Рост популярности инструментов вроде Claude и OpenClaw делает их пользователей новой привлекательной мишенью для атак с целью кражи данных. Это сигнал для всех компаний, развивающих AI-агентов: безопасность пользовательских инструкций и официальных каналов распространения информации становится критически важной.