Этика против системы: как Anthropic впала в немилость у Пентагона
На прошлой неделе вокруг компании Anthropic разыгралась настоящая драма. Дональд Трамп буквально одним росчерком пера велел всем ведомствам завязывать с технологиями этого стартапа, назвав ребят из Сан-Франциско чуть ли не угрозой национальной безопасности. Министр обороны Пит Хегсет решил подлить масла в огонь и добавил: любому подрядчику, который хочет работать с военными, лучше держаться от Anthropic подальше. Серьезный поворот, не так ли?
Из-за чего весь сыр-бор?
Всё уперлось в принципиальность руководства Anthropic. Они отказались вычеркнуть из контракта с Пентагоном два условия, которые посчитали делом чести. Компания настаивает, что их нейронка Claude ни при каких раскладах не должна использоваться для:
тотальной слежки за американцами;
создания полностью автономного оружия, которое само решает, в кого стрелять, без команды человека.
Для компании с оценкой в 380 миллиардов долларов, чье благополучие завязано на крупных контрактах, это решение может обернуться катастрофой. В ответ на шестимесячный ультиматум Трампа в Anthropic не стали молчать и пригрозили судом. По их мнению, это опасный прецедент: получается, любая компания, которая посмеет спорить с правительством об этике, тут же окажется за бортом.
Как всё начиналось
Корни этого конфликта уходят в лето 2025 года, когда стороны подписали контракт на 200 миллионов долларов. Тогда Anthropic прописала те самые «красные линии», которые так взбесили военных. В Пентагоне хотели видеть обтекаемую фразу про «любое законное использование», что фактически давало бы им карт-бланш. Но Дарио Амодеи, глава компании, упёрся. Его логика понятна: слежка убивает свободу, а нынешний ИИ еще слишком часто «галлюцинирует», чтобы доверять ему вопросы жизни и смерти. И ведь самое интересное, что за это время ни одна реальная миссия не пострадала — спор шел не о деле, а о том, кто здесь главный.
Две «красные линии», которые нельзя переступать
Вопросы, которые подняли в Anthropic, на самом деле касаются каждого из нас:
Массовая слежка: Одно дело — ловить преступников, и совсем другое — когда ИИ в реальном времени анализирует судьбы миллионов, находя неугодных. Это уже не безопасность, а какой-то цифровой тоталитаризм.
Роботы-убийцы: Дрон не умеет сомневаться или сопереживать. Если алгоритм ошибется (а он ошибется), отозвать команду будет невозможно. Давать машине право на убийство — это авантюра, итоги которой нам вряд ли понравятся.
Конкуренты не дремлют
Пока Anthropic конфликтует, ребята из OpenAI времени не теряют. Как только конкурентов «отменили», Сэм Альтман тут же договорился о поставках своих технологий для секретных сетей Пентагона. В OpenAI на словах вроде бы за всё хорошее, но будут ли их этические фильтры работать в реальных боевых условиях или останутся просто красивым текстом в буклете — большой вопрос.
Вспомните Google: в прошлом году они по-тихому переписали свои кодексы, убрав обещания не делать оружие. Просто отредактировали документ, и всё. Есть стойкое ощущение, что OpenAI может пойти тем же путем, если деньги перевесят принципы.
К чему мы пришли?
В Anthropic попытались продвинуть важную мысль: создатели ИИ должны отвечать за свое детище даже после продажи. Но Пентагону такая философия не по вкусу — там привыкли, что исполнитель просто делает, что велят, и не задает лишних вопросов. В итоге мы имеем классический треугольник: военные требуют контроля, Anthropic держится за принципы, а OpenAI пытается усидеть на двух стульях, забирая выгодные заказы. Похоже, сейчас решается, станет ли ИИ инструментом прогресса или просто эффективным способом подавления.