Отряд 201: как топ-менеджеры Meta, OpenAI и Palantir возглавили цифровую трансформацию армии США

Министерство обороны США заключило с OpenAI контракт на 200 миллионов долларов на внедрение генеративного искусственного интеллекта в военные системы, включая управление войсками и элементы ядерной триады. Компания будет «разрабатывать прототипы новейших возможностей искусственного интеллекта для решения важнейших задач национальной безопасности, как в сфере боевых действий, так и в корпоративной сфере».
По данным OpenAI , программа с министерством обороны США является первым партнерством в рамках инициативы по внедрению ИИ в работу правительства. Компания планирует показать, как передовой ИИ может значительно улучшить административные функции, например, такие как оказание военнослужащим медицинской помощи, а также киберзащиту, согласно сообщению на своем сайте.
Компания утверждает, что любое использование ИИ в военных целях будет соответствовать рекомендациям OpenAI.
Крупные технологические компании все чаще предлагают свои ИИ-модели американским военным, среди них Meta и Palantir.
Новая сделка последовала за сообщениями о том, что топ-менеджеры Palantir (Шьям Санкар), Meta (Эндрю Босворт), OpenAI (Кевин Вейл, Боб МакГрю) получили звания подполковников в армии США. Это сделано, чтобы топ‑менеджеры возглавили новое подразделение под названием Detachment 201 («Отряд 201»). Об этом сообщил полковник Дэйв Батлер, главный пресс‑секретарь начальника штаба армии США. По словам Батлера, необходимо срочно изменить и технологически преобразовать армию.
Участники «Отряда 201» будут работать над конкретными проектами для армии США, помогая внедрять масштабируемые технологические решения, которые позволят ускорить трансформацию вооруженных сил.
Хотя OpenAI и сотрудничала с оборонными подрядчиками ранее, это ее первое прямое партнерство с правительством. OpenAI утверждает, что все военные приложения будут соответствовать ее собственным правилам использования — стандартам, которые устанавливает сама компания.
Американские военные активно изучают применение ИИ в системах командования и контроля, включая ядерные силы. Хотя официально утверждается, что «окончательное решение останется за человеком», сама постановка вопроса вызывает опасения:
1. ИИ, обученный на исторических данных, может давать сбои в нестандартных ситуациях, что в ядерной сфере чревато фатальными последствиями.
2. Хотя по заявлению самой OpenAI внедрением ИИ в управление войсками они собираются повысить киберзащиту – верится в это слабо. Внедрение ИИ в критическую инфраструктуру делает её мишенью для хакерских атак, что может привезти к различным плачевным последствиям, ограниченным лишь строчками кода.
3. Помимо прочего можно указать и автоматизацию анализа угроз, которая может подтолкнуть к более быстрому принятию решений, увеличивая риск эскалации.
Информация