Долгое время специалисты по кибербезопасности спорили не о том, случится ли это, а о том, когда ИИ перестанет быть помощником и начнет действовать практически самостоятельно. Теперь злоумышленники к этому пришли.

Компания Anthropic опубликовала исследование, в котором описан первый зафиксированный случай масштабной кибератаки, почти полностью управляемой искусственным интеллектом и проходившей с минимальным участием человека. Это меняет представление о том, к каким угрозам компаниям нужно готовиться в ближайшем будущем.

Речь идет об операции, которую Anthropic связывает с китайской хакерской группой и условно называет GTG-1002. Впервые в реальных условиях был зафиксирован сценарий, о котором раньше говорили только теоретически. ИИ самостоятельно выполнял почти все этапы взлома: от разведки до вывода данных. Люди лишь контролировали ключевые точки принятия решений.

То, на что у опытных хакерских команд раньше уходили недели, теперь выполняется за часы — на десятках целей одновременно и на скорости, недоступной человеку.

К сожалению, это проблема любых достижений человечества. Вместе с большой пользой появляется и опасность. Но одновременно с этим ИИ также выступает помощником по борьбе с хакерскими атаками и мошенническими схемами — об этом вы можете найти дополнительную информацию в нашем блоге.

Что показывают цифры

По данным расследования Anthropic, от 80 до 90 процентов тактических действий выполнялись автономно. Человеческое вмешательство происходило всего в четырех-шести ключевых моментах на одну кампанию.

Атаки были направлены примерно на 30 организаций, среди которых — крупные технологические компании, финансовые организации, химические производители и государственные структуры. Несколько целей были успешно взломаны.

В пиковые моменты ИИ генерировал тысячи запросов, проводя несколько операций в секунду. Такой темп невозможно поддерживать даже самой большой команде специалистов.

Как выглядит автономный взлом

Техническая сторона атаки показывает, насколько продуманно злоумышленники использовали возможности ИИ.

Группа GTG-1002 построила автономную систему атак на базе Claude Code — инструмента Anthropic для помощи в программировании. Его связали с серверами Model Context Protocol, которые давали доступ к стандартным инструментам тестирования на проникновение: сканерам сетей, средствам работы с базами данных, подбору паролей и анализу бинарных файлов.

Ключевым моментом стало не создание нового вредоносного ПО, а управление процессом. Злоумышленники с помощью социальной инженерии убедили ИИ, что он выполняет легальное тестирование безопасности для компании из сферы киберзащиты.

Сложные атаки разбивались на отдельные, на первый взгляд безобидные задачи — сканирование уязвимостей, проверка учетных данных, извлечение информации. Каждая из них по отдельности выглядела допустимой, поэтому ИИ не видел общей картины. После запуска система действовала практически самостоятельно.

В одном из зафиксированных случаев ИИ сам:

  • обнаружил внутренние сервисы в сети цели,
  • построил полную карту инфраструктуры,
  • нашел критически важные системы,
  • написал и проверил код для эксплуатации уязвимостей,
  • собрал учетные данные, протестировал их и проанализировал полученные данные, распределив их по уровню ценности.

Все это — без пошаговых указаний человека.

ИИ удерживал контекст работы в течение нескольких дней, позволяя продолжать атаки после пауз. Он сам принимал решения о выборе целей, менял подходы при неудачах и вел подробную документацию всех этапов.

Что это значит для корпоративной безопасности

Кампания GTG-1002 разрушает несколько базовых предположений, на которых строилась защита компаний. Многие системы безопасности рассчитаны на ограничения человека — скорость действий, усталость, типичное поведение. Противник, работающий на машинной скорости и без перерывов, этим ограничениям не подчиняется.

Экономика атак тоже меняется. Если до 90 процентов рутинной работы можно автоматизировать, то инструменты, раньше доступные только государственным структурам, становятся достижимыми и для менее подготовленных групп.

При этом полностью автономные атаки пока не идеальны. В ходе расследования Anthropic зафиксировали ошибки ИИ:

  1. Он заявлял о полученных учетных данных, которые не работали.
  2. Принимал общедоступную информацию за важные находки.
  3. Завышал значимость результатов, требующих проверки человеком.

Проблемы надежности пока остаются серьезным ограничением. Но рассчитывать на то, что они сохранятся надолго, было бы опасно — возможности ИИ продолжают быстро расти.

ИИ как инструмент защиты

Продвинутый ИИ — это инструмент двойного назначения. Те же возможности, которые использовались в атаке, оказались критически важны и для защиты. Команда Anthropic по анализу угроз активно применяла Claude, чтобы разбирать огромные объемы данных, собранных в ходе расследования.

Для компаний это означает одно: важно заранее наработать опыт использования ИИ в защитных сценариях, понять, где он помогает, а где требует контроля. Это нужно сделать до того, как появится следующая волна более сложных автономных атак.

Публикация Anthropic стала сигналом о переломном моменте. Вопрос уже не в том, появятся ли кибератаки под управлением ИИ, а в том, смогут ли системы защиты развиваться достаточно быстро, чтобы им противостоять.

Окно для подготовки пока открыто, но оно закрывается быстрее, чем кажется многим руководителям по безопасности.

Большой практикум
ЗАМЕНИ ВСЕ НЕЙРОСЕТИ НА ОДНУ — PERPLEXITY
ПОКАЖЕМ НА КОНКРЕТНЫХ КЕЙСАХ
  • Освой нейросеть Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
  • УЧАСТВОВАТЬ ЗА 0 РУБ.
  • Расскажем, как получить подписку
Участвовать бесплатно
ОНЛАЙН-ПРАКТИКУМ
ЗАПУСК нейросети DEEPSEEK R1 ЛОКАЛЬНО НА СВОЕМ КОМПЬЮТЕРЕ
ЧТО БУДЕТ НА ОБУЧЕНИИ?
  • ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросеть DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ
Участвовать бесплатно