Антропология как человеческое состояние: конфликт этики искусственного интеллекта испытывает пределы власти - Study AI
Назад

Источник: https://m.economictimes.com/opinion/et-commentary/anthropicology-a-human-condition-ai-ethics-clash-tests-limits-of-power/articleshow/128987561.cms

Этика против системы: как Anthropic впала в немилость у Пентагона

На прошлой неделе вокруг компании Anthropic разыгралась настоящая драма. Дональд Трамп буквально одним росчерком пера велел всем ведомствам завязывать с технологиями этого стартапа, назвав ребят из Сан-Франциско чуть ли не угрозой национальной безопасности. Министр обороны Пит Хегсет решил подлить масла в огонь и добавил: любому подрядчику, который хочет работать с военными, лучше держаться от Anthropic подальше. Серьезный поворот, не так ли?

Из-за чего весь сыр-бор?

Всё уперлось в принципиальность руководства Anthropic. Они отказались вычеркнуть из контракта с Пентагоном два условия, которые посчитали делом чести. Компания настаивает, что их нейронка Claude ни при каких раскладах не должна использоваться для:

  • тотальной слежки за американцами;
  • создания полностью автономного оружия, которое само решает, в кого стрелять, без команды человека.

Для компании с оценкой в 380 миллиардов долларов, чье благополучие завязано на крупных контрактах, это решение может обернуться катастрофой. В ответ на шестимесячный ультиматум Трампа в Anthropic не стали молчать и пригрозили судом. По их мнению, это опасный прецедент: получается, любая компания, которая посмеет спорить с правительством об этике, тут же окажется за бортом.

Как всё начиналось

Корни этого конфликта уходят в лето 2025 года, когда стороны подписали контракт на 200 миллионов долларов. Тогда Anthropic прописала те самые «красные линии», которые так взбесили военных. В Пентагоне хотели видеть обтекаемую фразу про «любое законное использование», что фактически давало бы им карт-бланш. Но Дарио Амодеи, глава компании, упёрся. Его логика понятна: слежка убивает свободу, а нынешний ИИ еще слишком часто «галлюцинирует», чтобы доверять ему вопросы жизни и смерти. И ведь самое интересное, что за это время ни одна реальная миссия не пострадала — спор шел не о деле, а о том, кто здесь главный.

Две «красные линии», которые нельзя переступать

Вопросы, которые подняли в Anthropic, на самом деле касаются каждого из нас:

  1. Массовая слежка: Одно дело — ловить преступников, и совсем другое — когда ИИ в реальном времени анализирует судьбы миллионов, находя неугодных. Это уже не безопасность, а какой-то цифровой тоталитаризм.
  2. Роботы-убийцы: Дрон не умеет сомневаться или сопереживать. Если алгоритм ошибется (а он ошибется), отозвать команду будет невозможно. Давать машине право на убийство — это авантюра, итоги которой нам вряд ли понравятся.

Конкуренты не дремлют

Пока Anthropic конфликтует, ребята из OpenAI времени не теряют. Как только конкурентов «отменили», Сэм Альтман тут же договорился о поставках своих технологий для секретных сетей Пентагона. В OpenAI на словах вроде бы за всё хорошее, но будут ли их этические фильтры работать в реальных боевых условиях или останутся просто красивым текстом в буклете — большой вопрос.

Вспомните Google: в прошлом году они по-тихому переписали свои кодексы, убрав обещания не делать оружие. Просто отредактировали документ, и всё. Есть стойкое ощущение, что OpenAI может пойти тем же путем, если деньги перевесят принципы.

К чему мы пришли?

В Anthropic попытались продвинуть важную мысль: создатели ИИ должны отвечать за свое детище даже после продажи. Но Пентагону такая философия не по вкусу — там привыкли, что исполнитель просто делает, что велят, и не задает лишних вопросов. В итоге мы имеем классический треугольник: военные требуют контроля, Anthropic держится за принципы, а OpenAI пытается усидеть на двух стульях, забирая выгодные заказы. Похоже, сейчас решается, станет ли ИИ инструментом прогресса или просто эффективным способом подавления.

ВКонтакте Telegram

Открой максимум возможностей

Lite

Пробный тариф

199 /нед
Активировать
400 токенов
  • 1 генерация презентации
  • 15+ генераций изображений в Nano Banana, Генераторе изображений и Midjourney
  • Доступ к нейросетям для генерации видео: Kling 2.5 Turbo, Google Veo 3.1, Sora 2 и др.
  • Доступ к популярным нейросетям: ChatGPT, Gemini, Claude, Suno и др.
  • Безлимитный доступ к DeepSeek V3.1, Gemini 2.5 Pro, ChatGPT 5-mini
Start+

Идеально для старта

549 /мес
Активировать
1250 токенов каждый месяц
  • 41+ генераций изображений в Nano Banana, Генераторе изображений и Midjourney
  • 8 генераций видео: Kling 2.5 Turbo, Google Veo 3.1, Sora 2 и др.
  • Доступ к популярным нейросетям: ChatGPT, Gemini, Claude, Suno и др.
  • 4 генераций презентаций
  • Безлимитный доступ к DeepSeek V3.1, Gemini 2.5 Pro, ChatGPT 5-mini
Pro

Оптимальный выбор

999 /мес
Активировать
2250 токенов каждый месяц
  • 75+ генераций изображений в Nano Banana, Генераторе изображений и Midjourney
  • 15 генераций видео: Kling 2.5 Turbo, Google Veo 3.1, Sora 2 и др.
  • Доступ к популярным нейросетям: ChatGPT, Gemini, Claude, Suno и др.
  • 7 генераций презентаций
  • Безлимитный доступ к DeepSeek V3.2, Gemini 3 Flash, ChatGPT 5-mini, Grok 4.1 Fast и др.
Elite

Максимум пользы

4999 /мес
Активировать
12550 токенов каждый месяц
  • 408+ генераций изображений в нейросети: Nano Banana Pro, Midjourney, «Генератор изображений» и др.
  • 62+ генераций видео: Kling, Google Veo 3.1, Sora 2, «Оживление фото», «Генератор видео» и др.
  • Доступ к популярным нейросетям: ChatGPT, Gemini, Claude, Suno и др.
  • 41 генерация презентаций в «Генераторе Презентаций PRO»
  • Безлимитный доступ к DeepSeek V3.2, Gemini 3 Flash, ChatGPT 5-mini, Grok 4.1 Fast и др.
  • Приоритетная поддержка в решении вопросов
  • Ускоренная обработка запросов в нейросетях на 50%

Покупая подписку, вы соглашаетесь с Пользовательским соглашением и рекуррентными платежами