Австралийский регулятор бьёт тревогу из-за ИИ-модели Mythos - финансовый сектор не готов

Новости
Опубликовано: 8 мая 2026 г.

ASIC впервые публично предупредил финансовую индустрию об угрозе со стороны новейших ИИ-систем. В центре внимания - Claude Mythos от Anthropic, модель с беспрецедентными возможностями в области кодирования.

Австралийская комиссия по ценным бумагам и инвестициям (ASIC - главный корпоративный регулятор страны) опубликовала открытое письмо финансовому сектору с требованием срочно усилить меры кибербезопасности. Поводом стало появление новых frontier AI-моделей (передовых ИИ-систем на переднем крае технологического развития), в частности Claude Mythos от Anthropic.

Комиссар ASIC Симона Констант сформулировала позицию регулятора жёстко: «Киберриск вступил в новую эру. Появление frontier AI-моделей создаёт возможности, но и существенно повышает риски - с возможностью обнаруживать уязвимости быстрее, чем многие осознают». И добавила: «Часы показывают без минуты полночь. Если вы ещё не занимаетесь киберустойчивостью - время действовать прямо сейчас».

Что такое Mythos и почему он опасен

Anthropic запустила Claude Mythos Preview в рамках проекта Project Glasswing - программы с жёстко ограниченным доступом, в которую включены крупнейшие технологические компании: Amazon, Microsoft, Nvidia и Apple.

Главная причина тревоги регуляторов - беспрецедентные возможности Mythos в области программирования и кодирования. По оценке экспертов, именно эти способности дают модели потенциально невиданную ранее возможность автоматически выявлять уязвимости в корпоративных системах. Иными словами: если раньше поиск дыр в защите требовал команды специалистов и недель работы, то продвинутая ИИ-модель теоретически способна делать это в разы быстрее и масштабнее.

Anthropic на запрос о комментарии не ответила.

Предупреждение ASIC появилось не в вакууме. Месяцем ранее банковский регулятор Австралии уже заявлял, что практики информационной безопасности в финансовом секторе страны не успевают за темпами развития ИИ.

Эту проблему подтверждает и более широкое исследование: согласно данным Кембридского центра по альтернативным финансам, опубликованным в апреле, финансовые институты внедряют ИИ более чем вдвое быстрее, чем их регуляторы. При этом лишь два из десяти регуляторов по всему миру сообщают о «продвинутом внедрении ИИ». Проще говоря: те, кто должен следить за рисками, сами технологически отстают от тех, за кем следят.

Для финансового сектора это не абстрактное предупреждение. Банки, страховые компании и инвестиционные фонды работают с колоссальными массивами чувствительных данных - персональными, транзакционными, рыночными. Успешная кибератака с использованием ИИ-инструментов способна нанести ущерб, несопоставимый с традиционными взломами.

Для регуляторов по всему миру австралийский прецедент важен как первый публичный сигнал тревоги именно в адрес конкретной frontier AI-модели. Это меняет тональность дискуссии об ИИ-регулировании: от абстрактных разговоров о будущих рисках - к конкретным требованиям здесь и сейчас.

Для самой Anthropic - репутационный вопрос. Компания позиционирует себя как лидера в области безопасного ИИ. Публичное предупреждение регулятора крупной развитой страны о рисках её продукта - неудобный сигнал, особенно накануне потенциального расширения коммерческого доступа к Mythos.

ASIC не стал ждать инцидента - предупреждение носит превентивный характер. Регулятор призывает финансовые компании не ждать «идеальной ясности» и действовать уже сейчас, укрепляя базовые основы киберустойчивости. Насколько быстро индустрия отреагирует - и появятся ли аналогичные предупреждения от регуляторов других стран - покажут ближайшие месяцы.

Информация не является финансовой рекомендацией