Anthropic бьет тревогу: китайские ИИ-лаборатории создали армию из 24 000 ботов, чтобы «слизать» возможности Клода
Тут назревает настоящий шпионский триллер в мире технологий. Компания Anthropic выкатила жесткое разоблачение: три топовых китайских игрока — DeepSeek, Moonshot AI и MiniMax — устроили целую охоту на их модель Клод. Если верить заявлению, ребята не мелочились и создали десятки тысяч фейковых аккаунтов, чтобы просто-напросто перекачать себе мозги западной нейронки.
В Сан-Франциско подсчитали масштаб бедствия: около 16 миллионов диалогов через 24 тысячи липовых учеток. И дело тут не только в нарушении правил сервиса. Похоже, китайские конкуренты решили срезать путь длиной в годы исследований и миллиарды долларов, используя так называемую «дистилляцию».
Что это за дистилляция и почему о ней все спорят?
Если по-простому, дистилляция — это когда вы берете очень умную и тяжелую модель (учителя) и заставляете модель попроще (ученика) за ней повторять. Ученик смотрит не на сухие данные из интернета, а на то, как рассуждает «учитель». В итоге получается компактная система, которая работает почти так же круто, но стоит в разы дешевле.
Метод сам по себе нормальный, но Anthropic уверены, что соседи превратили его в инструмент промышленного шпионажа:
Прикидываются обычными юзерами.
Закидывают Клода хитровыдуманными вопросами.
Пылесосят ответы, чтобы скормить их своим нейросетям.
Кто и как «подсматривал» за Клодом
В Anthropic говорят, что вычислили нарушителей по метаданным и IP-адресам. Цифры впечатляют:
Кто попался
Сколько раз спросили
Что именно крали
MiniMax
13+ миллионов запросов
Логика агентов, программирование и управление инструментами.
Moonshot AI
3,4 миллиона
Аналитика, зрение и сложные рассуждения.
DeepSeek
150 000
Глубокая логика и (сюрприз!) фильтрация политики.
Хитрости DeepSeek
Хотя запросов у DeepSeek было меньше всего, действовали они изящнее всех. Они буквально заставляли Клода «думать вслух», расписывая каждый шаг решения задачи. Это позволило им пачками генерировать данные для обучения своих моделей сложным размышлениям. А еще, что интересно, они пытались научить свои ИИ тактично обходить острые политические темы, вроде критики власти или диссидентов.
Маневры Moonshot AI
Эти ребята прятались за сотнями разных профилей. Но вот незадача: в Anthropic умудрились сопоставить данные этих «анонимов» с реальными аккаунтами топ-менеджеров Moonshot. Цель была всё та же — вытянуть из Клода его умение логически связывать факты.
Натиск MiniMax
Тут взяли массой и скоростью. Стоило Anthropic выпустить обновление, как MiniMax уже через сутки перебрасывали половину своих мощностей на новую версию, чтобы успеть урвать самые свежие фишки, пока лавочку не прикрыли.
«Гидра»-кластеры: как обходят блокировки
Официально Клод в Китае не работает — санкции и безопасность, все дела. Но для лабораторий это не преграда. Они используют так называемую архитектуру «Гидра»:
Развертывается сеть из тысяч фальшивых аккаунтов.
Трафик размазывается тонким слоем через облака и прокси.
Если одну «голову» (аккаунт) блокируют, на её месте тут же вырастает новая.
Почему это не просто спор за авторские права
Для Anthropic это уже вопрос выживания и безопасности целой страны. Основные опасения звучат тревожно:
Безопасность по боку: Модели-«клоны» не перенимают встроенные предохранители оригинального Клода. То есть они могут спокойно помогать в создании вирусов или биооружия.
Военные нужды: Есть риск, что эти технологии уйдут прямиком спецслужбам для слежки или создания дипфейков.
Обход санкций: Пока США ограничивает поставки мощных чипов, китайские лаборатории просто копируют результаты работы этих чипов через дистилляцию.
Можно ли с этим бороться?
Честно говоря, юридически тут всё сложно. Законы об авторском праве пока не очень понимают, как защищать мысли нейросетей, ведь их написал не человек. Поэтому Anthropic бьет в колокола на политическом уровне.
Сейчас они пытаются защищаться своими силами:
Внедряют цифровые «отпечатки пальцев», чтобы узнавать ботов по поведению.
Ужесточают проверку новых аккаунтов.
Пытаются научить модель отвечать так, чтобы пользы для обучения других ИИ было поменьше.
«В одиночку мы не справимся», — говорят в компании. Похоже, скоро нас ждут новые правила игры, где техгиганты и правительство будут вместе защищать свои цифровые секреты.