В конце прошлой недели компания Anthropic, разработчик ИИ-моделей Claude, после долгих закулисных переговоров отказалась от прямого сотрудничества с министерством обороны США, сославшись на свои «внутренние этические принципы».
Anthropic пыталась выстроить «максимально аккуратную» модель работы с Пентагоном, привлекая в качестве полезных партнеров Palantir и AWS (Amazon Web Services). Причем именно Anthropic стала первой передовой компанией в области ИИ, чьи инструменты с 2024 года внедрялись в американских госучреждениях, занимающихся секретной работой.
Однако камнем преткновения стала так называемая политика допустимого использования (Acceptable Use Policy, AUP) Anthropic. Компания, основанная выходцами из OpenAI (официальная причина их ухода оттуда — следование базовому принципу «безопасного ИИ»), категорически запретила использовать свои модели для наведения военных целей, осуществления летальных операций и любых прямых боевых действий, а также для массовой слежки за гражданами США.
Отказ предоставлять военным полноценный доступ к «продвинутому» ИИ был воспринят Белым домом чуть ли не как прямой саботаж национальных интересов и проявление woke-культуры
И в пятницу 27 февраля президент США Дональд Трамп опубликовал в соцсети Truth Social лаконичное сообщение, в котором приказал всем федеральным агентствам «немедленно прекратить любое использование технологий Anthropic», сделав заодно эмоциональное уточнение: «Нам это не нужно, мы этого не хотим и больше не будем с ними сотрудничать!»
Согласно дальнейшим комментариям Трампа, все инструменты Anthropic будут постепенно выведены из использования во всех государственных учреждениях в течение следующих шести месяцев.
Этот отказ от дальнейшей кооперации также побудил главу Пентагона Пита Хегсета заявить, что он теперь считает Anthropic «риском для цепочки поставок» — впервые американская компания публично получила столь специфическую оценку.
И в целом отказ предоставлять военным полноценный доступ к «продвинутому» ИИ был воспринят Белым домом чуть ли не как прямой саботаж национальных интересов и проявление в Кремниевой долине леволиберальной woke-культуры, которая «ставит абстрактный гуманизм выше интересов безопасности страны».
Глава Anthropic Дарио Амодеи, в свою очередь, в своем личном блоге объяснил отказ от работы с Пентагоном прежде всего тем, что его компания не хочет, чтобы «какое-либо агентство использовало Claude для создания подробной и точной картины частной жизни граждан… что представляет собой беспрецедентную угрозу конфиденциальности».
На фоне этого жесткого конфликта OpenAI продемонстрировала чудеса корпоративной гибкости. Еще в начале 2024 года компания под шумок удалила из своих внутренних правил прямой запрет на использование ИИ в «военных и боевых» целях. Теперь же, когда Пентагону срочно потребовалась сговорчивая альтернатива, OpenAI оперативно предложила свои услуги, фактически заняв место «главного ИИ-подрядчика», готового работать с оборонным сектором без излишнего морализаторства.
Уже на следующий день после бурной реакции Трампа и Ко на срыв предварительных договоренностей с Anthropic, 28 февраля, OpenAI опубликовала пресс-релиз, в котором заявила: «Мы достигли соглашения с Пентагоном о развертывании передовых систем искусственного интеллекта в секретных средах и закрытых облачных сетях».
Когда Пентагону срочно потребовалась сговорчивая альтернатива, OpenAI оперативно предложила свои услуги, фактически заняв место «главного ИИ-подрядчика», готового работать с оборонным сектором без излишнего морализаторства
Этот внезапный фортель главы OpenAI Сэма Альтмана, который накануне вроде бы выступил в защиту своего заклятого конкурента, направив сотрудникам «внутреннее мемо», в котором заявил, что у него те же «красные линии» в отношении применения продуктов компаний, что и у Anthropic, тут же вызвал шквал критики со стороны «обеспокоенной общественности».
И г-н Альтман, всегда держащий нос по ветру, в очередной раз попытался переобуться в воздухе. В понедельник 2 марта он дал пространный покаянный комментарий в соцсети X, в котором уточнил, что компания внесет изменения в свой контракт с Пентагоном, включив в него новые формулировки, предусматривающие, что ее искусственный интеллект «не должен намеренно использоваться для внутренней слежки за лицами и гражданами США». Более того, он также признался, что «совершил одну ошибку: мы не должны были торопиться с публикацией этой информации в пятницу. Эти вопросы очень сложные и требуют четкой коммуникации… по-моему, это выглядело просто как оппортунизм и небрежность».
Во всей этой мутной истории с прямым задействованием ИИ в секретной работе есть один очень важный нюанс: американские спецслужбы и Пентагон фактически уже давно обходят пресловутую Четвертую поправку к Конституции США, которая защищает граждан от «необоснованных обысков и слежки» (так, для организации прямой слежки нужен предварительный ордер суда).
Они нашли простой и элегантный выход: вместо «прямого шпионажа» за гражданами они напрямую покупают «сырую» информацию на открытом рынке у так называемых брокеров данных.
И различные частные компании — сборщики подобной информации (о геолокации мобильников, сетевом трафике, контактах в соцсетях и проч.) вроде LexisNexis или Babel Street выступают в роли легальных «контрагентов», предоставляющих эти сведения всем желающим, в том числе тому же Пентагону и его аналитическим подразделениям (например, LexisNexis продала американскому военному ведомству свои умные инструменты Smartlinx для «онлайн-верификации личности и выявления всесторонних личных связей» и Accurint для «прямого доступа более чем к 34 млрд текущих публичных записей».
Показательный кейс с Anthropic и OpenAI фактически окончательно похоронил наивную иллюзию, что создатели ИИ смогут и дальше оставаться над схваткой. Большая геополитика сломала сопротивление Кремниевой долины
При этом сами эти сырые данные (условные миллиарды публичных записей или массивы геолокаций) изначально вроде бы бесполезны — это просто цифровой шум. Однако именно здесь в игру вступает искусственный интеллект: ИИ-агенты сводят воедино разрозненные профили пользователей, строят графы связей (кто с кем общается, где пересекается и т. д.) и анализирует их паттерны поведения. Иными словами, ИИ работает как гигантский умный фильтр, превращающий терабайты исходного информационного мусора в структурированные персональные досье.
И большие языковые модели (LLM) сегодня идеально подходят для анализа таких огромных массивов неструктурированного текста и вычленения полезной информации. Если тот же Пентагон (или Агентство национальной безопасности, National Security Agency, автономное подразделение в его составе) покупает прямой доступ к мощностям OpenAI, то логично предположить, что эти ИИ-модели будут использованы в том числе для обработки баз данных, которые закупаются американскими военными у пресловутых брокеров данных.
И хотя OpenAI может и далее заявлять, что, мол, «мы не собираем персональные данные об американцах», реальность такова, что, если они предоставляют Пентагону специализированный интеллектуальный инструмент для анализа данных, собранных третьими лицами, они, по сути, становятся ключевым звеном в механизме тотальной государственной слежки.
Показательный кейс с Anthropic и OpenAI фактически окончательно похоронил наивную иллюзию, что создатели ИИ смогут и дальше оставаться над схваткой. Большая геополитика (независимо от того, какие конечные цели при этом декларируются тем же Пентагоном и пр.) сломала сопротивление Кремниевой долины. Anthropic попыталась сохранить лицо и поплатилась многомиллиардными контрактными перспективами и потерей политического веса. OpenAI, в свою очередь, несмотря на все свои запоздалые оговорки и комментарии, выбрала путь прагматичного партнерства с государством, окончательно трансформировавшись из исследовательской лаборатории в ключевого игрока американского ВПК.
Иными словами, новая гонка ИИ-вооружений официально перешла из стадии деклараций о намерениях (или их отсутствии) в стадию прямых госзакупок.
Темы: Среда