Эксперты сомневаются, что Claude Code мог использоваться для автоматизированных атак - «Новости» » Интернет технологии
sitename
Удалённая разработка цифровых сервисов: как зарабатывают на нишевых онлайн-проектах
Удалённая разработка цифровых сервисов: как зарабатывают на нишевых онлайн-проектах
Из DNS Роскомнадзора пропали WhatsApp, YouTube и другие ресурсы - «Новости»
Из DNS Роскомнадзора пропали WhatsApp, YouTube и другие ресурсы - «Новости»
Уязвимость в «Блокноте» позволяла удаленно выполнить произвольный код - «Новости»
Уязвимость в «Блокноте» позволяла удаленно выполнить произвольный код - «Новости»
Троян Falcon нацелен на клиентов российских банков - «Новости»
Троян Falcon нацелен на клиентов российских банков - «Новости»
Аккаунты Telegram угоняют через вредоносные веб-приложения - «Новости»
Аккаунты Telegram угоняют через вредоносные веб-приложения - «Новости»
Компрометация аддона для Outlook из официального магазина Microsoft привела к краже 4000 учетных записей - «Новости»
Компрометация аддона для Outlook из официального магазина Microsoft привела к краже 4000 учетных записей - «Новости»
Helion Energy первой среди частников добилась D-T термоядерного синтеза  — она уже строит электростанцию для Microsoft - «Новости сети»
Helion Energy первой среди частников добилась D-T термоядерного синтеза  — она уже строит электростанцию для Microsoft - «Новости сети»
Даже взлетевшие цены на DDR5 не вывели Corsair в плюс — а впереди спад выручки - «Новости сети»
Даже взлетевшие цены на DDR5 не вывели Corsair в плюс — а впереди спад выручки - «Новости сети»
«Карманный» стартап Amazon получил лицензию на производство ядерного супертоплива в США для реакторов нового поколения - «Новости сети»
«Карманный» стартап Amazon получил лицензию на производство ядерного супертоплива в США для реакторов нового поколения - «Новости сети»
У NASA снова испортилась лунная ракета SLS — при попытке её заправить, топливо перестало поступать в баки - «Новости сети»
У NASA снова испортилась лунная ракета SLS — при попытке её заправить, топливо перестало поступать в баки - «Новости сети»
Как заработать денег, не выходя из дома, мы вам поможем с этим разобраться » Новости » Эксперты сомневаются, что Claude Code мог использоваться для автоматизированных атак - «Новости»

На прошлой неделе компания Anthropic опубликовала отчет, в котором заявила, что китайская хак-группа GTG-1002 провела масштабную кибершпионскую операцию, автоматизировав до 90% своих атак с помощью ИИ-модели Claude Code. Эти заявления компании вызвали волну скептицизма со стороны ИБ-экспертов.


Согласно отчету Anthropic, в сентябре 2025 года компания обнаружила и остановила первую в истории масштабную киберкампанию, где ИИ работал практически автономно. Хакеры атаковали 30 организаций (технологические компании, финансовые институты, химические производители и госучреждения), причем некоторые из этих взломов были успешными.


В отчете представители Anthropic подчеркивали беспрецедентный уровень автоматизации атак:


«ИИ автономно обнаруживал уязвимости, эксплуатировал их в реальных операциях и проводил широкий спектр постэксплуатационных действий».


По оценкам компании, люди вмешивались в происходящее только в 10-20% случаев — для принятия критических решений и проверки данных перед их хищением. Так, разработанный атакующими фреймворк якобы использовал Claude для оркестрации многоэтапных атак, которые затем выполнялись силами нескольких субагентов Claude, каждый из которых имел свои задачи: маппинг атаки, сканирование целевой инфраструктуры, поиск уязвимостей и исследование техник эксплуатации.


После того как субагенты разрабатывали цепочки эксплоитов и создавали кастомные пейлоады, человек-оператор тратил от двух до десяти минут на проверку результатов работы ИИ и одобрение последующих действий.


Однако ИБ-сообщество встретило отчет Anthropic с большим скепсисом. Главные претензии экспертов заключались в следующем.


Отсутствие технических подробностей. В отчете Anthropic не предоставила ни единого индикатора компрометации (IOC), технических деталей атак или каких-либо доказательств содеянного GTG-1002.


«Полное отсутствие IOC явно свидетельствует о том, что они не хотят, чтобы их в чем-то уличили», — считает известный ИБ-специалист Кевин Бомонт (Kevin Beaumont).


Двойные стандарты для ИИ. Исследователи задаются вопросом, почему злоумышленники якобы получают от моделей невероятные результаты, тогда как обычные пользователи сталкиваются с ограничениями и «галлюцинациями»?


«Я отказываюсь верить, что атакующие заставляют модели делать то, чего не удается другим, — заявляет Дэн Тентлер (Dan Tentler) из Phobos Group. — Почему модели дают им результат в 90% случаев, а нам приходится иметь дело с заискиванием, саботажем и галлюцинациями?»


Низкая эффективность. Из 30 атакованных организаций успешно скомпрометировать удалось лишь «несколько». Исследователи не видят смысла в столь сложной автоматизации, если процент успешности атак настолько низок.


Ничего нового среди использованных методов. Согласно отчету, хакеры использовали обычные опенсорсные инструменты, которые существуют много лет и легко детектируются. К тому же сама Anthropic признала, что Claude часто «галлюцинировал» — преувеличивал и подделывал результаты во время автономной работы. К примеру, Claude заявлял, что нашел учетные данные (которые не работали), или докладывал об обнаружении критически важных сведений, которые оказывались общедоступной информацией.


Кроме того, многие восприняли отчет компании Anthropic как обычный маркетинговый ход.


«Эта штука от Anthropic — маркетинговая чушь. ИИ — это суперускоритель, но это не Skynet, он не способен думать. На самом деле это даже не искусственный интеллект (это маркетинговый трюк, придуманный людьми)», — пишет исследователь Дэниел Кард (Daniel Card).


В своих комментариях эксперты сравнивают использование ИИ в кибератаках с инструментами вроде Metasploit и SEToolkit, которые существуют десятилетиями. Они бесспорно полезны и удобны, однако их появление не привело к качественному росту возможностей хакеров.


Большинство экспертов сходятся в том, что ИИ действительно помогает ускорить и упростить выполнение некоторых задач (например, сортировку и анализ логов или реверс-инжиниринг). Однако автономное выполнение сложных цепочкек действий с минимальным участием человека остается для ИИ недостижимым.


На прошлой неделе компания Anthropic опубликовала отчет, в котором заявила, что китайская хак-группа GTG-1002 провела масштабную кибершпионскую операцию, автоматизировав до 90% своих атак с помощью ИИ-модели Claude Code. Эти заявления компании вызвали волну скептицизма со стороны ИБ-экспертов. Согласно отчету Anthropic, в сентябре 2025 года компания обнаружила и остановила первую в истории масштабную киберкампанию, где ИИ работал практически автономно. Хакеры атаковали 30 организаций (технологические компании, финансовые институты, химические производители и госучреждения), причем некоторые из этих взломов были успешными. В отчете представители Anthropic подчеркивали беспрецедентный уровень автоматизации атак: «ИИ автономно обнаруживал уязвимости, эксплуатировал их в реальных операциях и проводил широкий спектр постэксплуатационных действий». По оценкам компании, люди вмешивались в происходящее только в 10-20% случаев — для принятия критических решений и проверки данных перед их хищением. Так, разработанный атакующими фреймворк якобы использовал Claude для оркестрации многоэтапных атак, которые затем выполнялись силами нескольких субагентов Claude, каждый из которых имел свои задачи: маппинг атаки, сканирование целевой инфраструктуры, поиск уязвимостей и исследование техник эксплуатации. После того как субагенты разрабатывали цепочки эксплоитов и создавали кастомные пейлоады, человек-оператор тратил от двух до десяти минут на проверку результатов работы ИИ и одобрение последующих действий. Однако ИБ-сообщество встретило отчет Anthropic с большим скепсисом. Главные претензии экспертов заключались в следующем. Отсутствие технических подробностей. В отчете Anthropic не предоставила ни единого индикатора компрометации (IOC), технических деталей атак или каких-либо доказательств содеянного GTG-1002. «Полное отсутствие IOC явно свидетельствует о том, что они не хотят, чтобы их в чем-то уличили», — считает известный ИБ-специалист Кевин Бомонт (Kevin Beaumont). Двойные стандарты для ИИ. Исследователи задаются вопросом, почему злоумышленники якобы получают от моделей невероятные результаты, тогда как обычные пользователи сталкиваются с ограничениями и «галлюцинациями»? «Я отказываюсь верить, что атакующие заставляют модели делать то, чего не удается другим, — заявляет Дэн Тентлер (Dan Tentler) из Phobos Group. — Почему модели дают им результат в 90% случаев, а нам приходится иметь дело с заискиванием, саботажем и галлюцинациями?» Низкая эффективность. Из 30 атакованных организаций успешно скомпрометировать удалось лишь «несколько». Исследователи не видят смысла в столь сложной автоматизации, если процент успешности атак настолько низок. Ничего нового среди использованных методов. Согласно отчету, хакеры использовали обычные опенсорсные инструменты, которые существуют много лет и легко детектируются. К тому же сама Anthropic признала, что Claude часто «галлюцинировал» — преувеличивал и подделывал результаты во время автономной работы. К примеру, Claude заявлял, что нашел учетные данные (которые не работали), или докладывал об обнаружении критически важных сведений, которые оказывались общедоступной информацией. Кроме того, многие восприняли отчет компании Anthropic как обычный маркетинговый ход. «Эта штука от Anthropic — маркетинговая чушь. ИИ — это суперускоритель, но это не Skynet, он не способен думать. На самом деле это даже не искусственный интеллект (это маркетинговый трюк, придуманный людьми)», — пишет исследователь Дэниел Кард (Daniel Card). В своих комментариях эксперты сравнивают использование ИИ в кибератаках с инструментами вроде Metasploit и SEToolkit, которые существуют десятилетиями. Они бесспорно полезны и удобны, однако их появление не привело к качественному росту возможностей хакеров. Большинство экспертов сходятся в том, что ИИ действительно помогает ускорить и упростить выполнение некоторых задач (например, сортировку и анализ логов или реверс-инжиниринг). Однако автономное выполнение сложных цепочкек действий с минимальным участием человека остается для ИИ недостижимым.
Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.
CSS

Смотрите также

А что там на главной? )))



Комментарии )))



Войти через: