Как копирование через API стало общей проблемой для OpenAI, Anthropic и Google

НовостиОпубликовано: 4/7/2026

Совместные действия OpenAI, Anthropic и Google показывают, что копирование возможностей ИИ-моделей через API стало и коммерческой, и политической проблемой.

Новость о том, что OpenAI, Anthropic и Google начали обмениваться данными о попытках adversarial distillation через Frontier Model Forum, важна как признак новой фазы рынка. Крупные разработчики больше не считают массовый сбор ответов модели обычным нарушением правил доступа. Теперь это рассматривается как способ воспроизвести сильные стороны чужой системы и ускорить создание конкурирующего продукта. Причины такого шага понятны, если смотреть шире. За последние два года ИИ резко подешевел: Stanford HAI пишет, что стоимость инференса для уровня GPT-3.5 с ноября 2022 по октябрь 2024 упала более чем в 280 раз. Одновременно open-weight модели почти догнали закрытые на части тестов: разрыв сократился с 8% до 1,7%. В таких условиях соблазн сократить путь и учиться на чужих ответах стал намного сильнее. Отдельный импульс дал китайский рынок, где сильные модели быстрее распространяются в открытом виде и давят на цену. Anthropic в феврале 2026 года заявила, что выявила промышленные кампании со стороны DeepSeek, Moonshot и MiniMax: более 16 млн диалогов с Claude через примерно 24 тыс. мошеннических аккаунтов. Это уже не спорная теория и не единичный инцидент, а масштаб, который показывает: извлечение возможностей модели стало поставленным процессом. Google описывает ту же тенденцию со своей стороны: компания фиксирует рост model extraction attempts и связывает их с более широким набором атак, где ИИ используют как инструмент ускорения чужих разработок. На этом фоне distillation перестает быть сугубо инженерной техникой, когда одна модель помогает обучить другую. В спорном варианте она превращается в способ снять поведенческую логику сильной модели без расходов на полный цикл исследований и обучения. Поэтому смысл новости шире, чем координация трех компаний против отдельных китайских игроков. Закрытые американские лаборатории защищают модель как платную инфраструктуру и как актив, в который вложены годы работы и гигантские ресурсы. Чем дешевле становится ИИ и чем ближе открытые модели подходят к закрытым, тем жестче будет борьба за контроль над доступом к качеству, безопасности и самой “начинке” модели.

Как копирование через API стало общей проблемой для OpenAI, Anthropic и Google