Долгое время специалисты по кибербезопасности спорили не о том, случится ли это, а о том, когда ИИ перестанет быть помощником и начнет действовать практически самостоятельно. Теперь злоумышленники к этому пришли.
Компания Anthropic опубликовала исследование, в котором описан первый зафиксированный случай масштабной кибератаки, почти полностью управляемой искусственным интеллектом и проходившей с минимальным участием человека. Это меняет представление о том, к каким угрозам компаниям нужно готовиться в ближайшем будущем.
Речь идет об операции, которую Anthropic связывает с китайской хакерской группой и условно называет GTG-1002. Впервые в реальных условиях был зафиксирован сценарий, о котором раньше говорили только теоретически. ИИ самостоятельно выполнял почти все этапы взлома: от разведки до вывода данных. Люди лишь контролировали ключевые точки принятия решений.
То, на что у опытных хакерских команд раньше уходили недели, теперь выполняется за часы — на десятках целей одновременно и на скорости, недоступной человеку.
К сожалению, это проблема любых достижений человечества. Вместе с большой пользой появляется и опасность. Но одновременно с этим ИИ также выступает помощником по борьбе с хакерскими атаками и мошенническими схемами — об этом вы можете найти дополнительную информацию в нашем блоге.
Что показывают цифры
По данным расследования Anthropic, от 80 до 90 процентов тактических действий выполнялись автономно. Человеческое вмешательство происходило всего в четырех-шести ключевых моментах на одну кампанию.
Атаки были направлены примерно на 30 организаций, среди которых — крупные технологические компании, финансовые организации, химические производители и государственные структуры. Несколько целей были успешно взломаны.
В пиковые моменты ИИ генерировал тысячи запросов, проводя несколько операций в секунду. Такой темп невозможно поддерживать даже самой большой команде специалистов.
Как выглядит автономный взлом
Техническая сторона атаки показывает, насколько продуманно злоумышленники использовали возможности ИИ.
Группа GTG-1002 построила автономную систему атак на базе Claude Code — инструмента Anthropic для помощи в программировании. Его связали с серверами Model Context Protocol, которые давали доступ к стандартным инструментам тестирования на проникновение: сканерам сетей, средствам работы с базами данных, подбору паролей и анализу бинарных файлов.
Ключевым моментом стало не создание нового вредоносного ПО, а управление процессом. Злоумышленники с помощью социальной инженерии убедили ИИ, что он выполняет легальное тестирование безопасности для компании из сферы киберзащиты.
Сложные атаки разбивались на отдельные, на первый взгляд безобидные задачи — сканирование уязвимостей, проверка учетных данных, извлечение информации. Каждая из них по отдельности выглядела допустимой, поэтому ИИ не видел общей картины. После запуска система действовала практически самостоятельно.
В одном из зафиксированных случаев ИИ сам:
- обнаружил внутренние сервисы в сети цели,
- построил полную карту инфраструктуры,
- нашел критически важные системы,
- написал и проверил код для эксплуатации уязвимостей,
- собрал учетные данные, протестировал их и проанализировал полученные данные, распределив их по уровню ценности.
Все это — без пошаговых указаний человека.
ИИ удерживал контекст работы в течение нескольких дней, позволяя продолжать атаки после пауз. Он сам принимал решения о выборе целей, менял подходы при неудачах и вел подробную документацию всех этапов.
Что это значит для корпоративной безопасности
Кампания GTG-1002 разрушает несколько базовых предположений, на которых строилась защита компаний. Многие системы безопасности рассчитаны на ограничения человека — скорость действий, усталость, типичное поведение. Противник, работающий на машинной скорости и без перерывов, этим ограничениям не подчиняется.
Экономика атак тоже меняется. Если до 90 процентов рутинной работы можно автоматизировать, то инструменты, раньше доступные только государственным структурам, становятся достижимыми и для менее подготовленных групп.
При этом полностью автономные атаки пока не идеальны. В ходе расследования Anthropic зафиксировали ошибки ИИ:
- Он заявлял о полученных учетных данных, которые не работали.
- Принимал общедоступную информацию за важные находки.
- Завышал значимость результатов, требующих проверки человеком.
Проблемы надежности пока остаются серьезным ограничением. Но рассчитывать на то, что они сохранятся надолго, было бы опасно — возможности ИИ продолжают быстро расти.
ИИ как инструмент защиты
Продвинутый ИИ — это инструмент двойного назначения. Те же возможности, которые использовались в атаке, оказались критически важны и для защиты. Команда Anthropic по анализу угроз активно применяла Claude, чтобы разбирать огромные объемы данных, собранных в ходе расследования.
Для компаний это означает одно: важно заранее наработать опыт использования ИИ в защитных сценариях, понять, где он помогает, а где требует контроля. Это нужно сделать до того, как появится следующая волна более сложных автономных атак.
Публикация Anthropic стала сигналом о переломном моменте. Вопрос уже не в том, появятся ли кибератаки под управлением ИИ, а в том, смогут ли системы защиты развиваться достаточно быстро, чтобы им противостоять.
Окно для подготовки пока открыто, но оно закрывается быстрее, чем кажется многим руководителям по безопасности.
- Освой нейросеть Perplexity и узнай, как пользоваться функционалом остальных ИИ в одном
- УЧАСТВОВАТЬ ЗА 0 РУБ.
- Расскажем, как получить подписку
- ПОКАЖЕМ, КАК РАЗВЕРНУТЬ МОДЕЛЬ нейросеть DEEPSEEK R1 ПРЯМО НА СВОЁМ КОМПЬЮТЕРЕ