США хотят доверить принятие решения о применении ЯО искусственному интеллекту

Несмотря на декларативное соглашение, достигнутое лидерами США и КНР в 2024 году о недопустимости замены человеческого суждения искусственным интеллектом (ИИ) при принятии решений о применении ядерного оружия, Вашингтон демонстрирует тревожную тенденцию к активной интеграции этих технологий в смежные системы ядерного командования и контроля (NC2/NC3). Данная стратегия вызывает обоснованную критику в экспертном сообществе.
Как показал поиск в интернете, проведённый 26 февраля 2025 года с помощью чат-бота Perplexity по опубликованным с 2022 года работам с терминами «искусственный интеллект» и «ядерное оружие», преобладающее мнение о применении ИИ в системах ядерного оружия, если исключить статьи, написанные военными США или описывающие их взгляды, а также не учитывать приложения, связанные с контролем над вооружениями, является преимущественно негативным. Этот скептицизм вызван опасениями по поводу негативного влияния на стратегическую стабильность и повышения риска эскалации, особенно случайной или непреднамеренной. Данная статья полностью поддерживает эту критическую позицию, аргументируя, что даже косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски.
Основная опасность заключается в создании ложной уверенности в достоверности информации, формирующей ситуационную осведомленность лиц, принимающих решения. Интеграция ИИ в системы разведки, наблюдения, анализа данных и поддержки принятия решений чревата каскадными эффектами. Ошибка или целенаправленная манипуляция в одной из взаимосвязанных систем, например, в модели компьютерного зрения для обнаружения целей, может быть многократно усилена и исказить общую картину угрозы в условиях острого кризиса и дефицита времени.
Особую озабоченность вызывает феномен «предвзятости автоматизации» — психологической склонности человека чрезмерно доверять выводам, сгенерированным алгоритмами, особенно в условиях стресса. Это создаёт риск того, что высшее руководство США может принять роковое решение, основанное на некритически воспринятых данных, прошедших через непрозрачные и не до конца понятные системы ИИ.
Потенциально дестабилизирующим сценарием является разработка и развёртывание систем ИИ, способных с высокой точностью обнаруживать и отслеживать стратегические подводные лодки с баллистическими ракетами (ПЛАРБ) — основу потенциала гарантированного ответного удара. Подрыв уверенности в скрытности ПЛАРБ может спровоцировать соблазн нанести упреждающий удар в кризисной ситуации, что полностью разрушит логику ядерного сдерживания.
Доверять судьбу человечества в плане возможного применения ЯО исключительно искусственному интеллекту - дело столь же рискованное, как и полный отказ от контроля над ЯО. В обоих случаях риски столь высоки, что конечный результат сегодня не сможет спрогнозировать даже самый «матёрый» эксперт и в области ИИ, и в сфере ядерной безопасности.
А стремление США к интеграции ИИ в ядерную сферу именно поэтому и представляется крайне безответственным шагом. Непрозрачность, уязвимость к кибератакам и принципиальная непредсказуемость поведения сложных систем ИИ делают их непригодными для задач, где цена ошибки равна глобальной катастрофе. Существующий международный консенсус о необходимости сохранения человеческого контроля должен быть усилен жёсткими внутренними регуляторными барьерами, полностью исключающими влияние ИИ не только на санкционирование пуска, но и на все процессы, ведущие к этому решению. Дальнейшая милитаризация ИИ в ядерной области ведёт мир по пути нестабильности и непреднамеренного конфликта, что и подтверждает общий скептический настрой независимых экспертов.
Информация