Искусственный интеллект как множитель ядерного риска

Большие языковые модели и дипфейки превращают информационную среду в фактор стратегической нестабильности. Стэнфордский исследователь Герберт Лин показывает на трёх сценариях из ближайшего будущего, как ИИ-дезинформация способна подтолкнуть мир к ядерной эскалации.
В последние годы аналитики всё чаще указывают на то, что коррупция или дисфункция глобальной информационной среды способна повышать ядерный риск. Под этим понимают не только дезинформацию и заведомо ложные сообщения, но и провокационный контент, формально достоверную, но вводящую в заблуждение информацию, целенаправленное отвлечение внимания.
Стремительное развитие искусственного интеллекта – прежде всего больших языковых моделей (large language models, LLM, – систем вроде ChatGPT или Grok) – резко изменило ландшафт. Автоматическая генерация текстов в огромных объёмах, а всё чаще изображений и видео, превратила LLM в едва ли не самый эффективный инструмент для тех, кто заинтересован в искажении информационной среды. Эти системы значительно превосходят прежние подходы к производству подобного контента, а порог входа существенно снизился: возможности доступны заметно большему числу потенциальных злоумышленников.
В своей статье Лин рассматривает три гипотетических, но правдоподобных сценария того, как информационная коррупция, усиленная ИИ, может вести к росту риска ядерной эскалации. Отдельные элементы уже встречались в реальности – правда, без участия ИИ. Действие каждого сценария происходит после ухода нынешней администрации США в январе 2029 года.
К этому моменту в новом правительстве США осталось мало опытных специалистов из разведсообщества. Сотрудники младшего и среднего звена, видя, что происходит с авторами «неудобных» отчётов, без огласки корректируют выводы. Традиционные аналитические методы постепенно отвергаются. Отставные высокопоставленные военные и сотрудники разведки, ставящие под сомнение официальные заявления Белого дома, сталкиваются с публичным осуждением и личным давлением, многократно усиленным новыми инструментами ИИ, – не говоря уже о расследованиях Конгресса и налоговых проверках.
Сценарий 1. Вторжение на Тайвань (2029)
В основе сценария – платформы и сервисы, обеспечивающие общение между гражданами разных стран: неформальные чаты, приложения для знакомств, онлайн-площадки, игровые платформы. Все они дают прямой – пусть и весьма «шумный» – доступ к местной точке зрения. Сайты языкового обмена и международные форумы позволяют иностранцам задавать местным жителям вопросы о повседневной жизни и кризисах, а голосовые каналы Discord обеспечивают многоголосый диалог в реальном времени.
Эти каналы давно стихийно используются для верификации информации: пользователи делятся с зарубежными собеседниками сведениями о блокировках, скачках цен или военной активности – наряду с обычными бытовыми событиями.
Конец 2029 года. Китай вводит блокаду Тайваня. Американские средства радиотехнической разведки фиксируют сигналы у берегов провинции Фуцзянь – ближайшей к Тайваню, – указывающие на возможные пуски мобильных ракет. Китайские социальные сети наполняются сообщениями якобы от жителей Фуцзяня. С локальными фотографиями и сленгом они описывают ракетные грузовики, катящиеся по улицам Фучжоу к морю.
Эти аккаунты управляются киберподразделениями китайской армии с помощью продвинутых чат-ботов, обученных на региональных диалектах. Цель – создать впечатление высокой военной готовности и удержать США от вмешательства. Параллельно действуют слабо контролируемые патриотически настроенные подрядчики и волонтёры, что обеспечивает Пекину «правдоподобное отрицание», но снижает централизованный контроль над информационным полем.
Аккаунты используют образы профессионалов или студентов, оказавшихся «в изоляции» из-за кризиса. Они привлекают журналистов, аналитиков и даже сотрудников Пентагона среднего звена, ищущих «нефильтрованную» информацию. В одном из эпизодов бот, имитирующий 28-летнего инженера «Ли Вэя», сообщает:
Речь о китайских баллистических ракетах средней дальности, способных поражать цели на расстоянии до 4 000 километров и нести как обычные, так и ядерные боеголовки. Чуть позже бот добавляет:
Боты гибко адаптируются под запросы, в реальном времени сопоставляя их с открытыми американскими источниками. Пользователь приложения для знакомств Tinder из Вашингтона знакомится с «Ван Мэй» – вымышленной медсестрой из Сямэня. В сообщениях она описывает свою панику: взрывы у порта, подготовка к применению гиперзвукового оружия. Это совпадает со сбоями американских спутников, вызванными китайскими помехами, и начинает сеять сомнения в оценках разведки США.
В Соединённых Штатах часть материалов проникает в экспертный дискурс. Аналитики разведки на основе открытых источников (OSINT), журналисты и эксперты аналитических центров включают скриншоты и логи чатов в карты, хронологии и ситуационные отчёты, выдавая их за независимые подтверждения перемещения ракет. Сотрудники Конгресса и союзные правительства ссылаются на эти данные. Возникает замкнутый круг: сфабрикованная переписка превращается в «доказательства из нескольких источников».
Президент США созывает Совет национальной безопасности (СНБ). Однако, как и его предшественник, он с глубоким подозрением относится к разведсообществу и придаёт необычно большое значение собственной интуиции и публикациям в социальных сетях. Избранный на платформе «жёсткой политики в отношении Китая», он окружён сотрудниками СНБ, склонными искать подтверждения китайской агрессии.
В течение нескольких дней эти сообщения доминируют на кризисных брифингах. «Ястребиные» советники утверждают: признаки военной активности указывают на готовящийся ракетный удар. Американские базы, критически важные для обороны Тайваня, – авиабаза «Кадена» на Окинаве и военно-морская база «Йокосука» в Японии – находятся в зоне досягаемости китайских ракет средней дальности. Неопределённость нарастает и постепенно превращается в приписываемое противнику намерение. Усиленное наблюдение со стороны США – самолёты радиоэлектронной разведки у границ китайских территориальных вод – фиксируется Пекином и интерпретируется как подготовка к превентивным ударам.

Под давлением вирусных видеороликов и взволнованной политической базы президент санкционирует переброску в Тихий океан нестратегических ядерных авиабомб B61-12 и подчёркивает наличие истребителей F-35A, способных нести ядерное оружие.
Утечки и спутниковые снимки фиксируют переброску средств двойного назначения. Комментаторы напоминают, что B61-12 могут устанавливаться и на стратегические бомбардировщики, – это усиливает неопределённость относительно того, не планирует ли Вашингтон полномасштабную ядерную войну. Китайские аналитики предупреждают: тактическое развёртывание, вылеты бомбардировщиков и риторика президента сигнализируют о переходе к планированию первого удара. Боеготовность повышается и с китайской стороны. Союзники в Японии и Южной Корее, не уверенные, носят ли действия США оборонительный или эскалационный характер, публично колеблются.
По мере роста опасений боты переключаются на тезисы о «тайваньских провокациях» и «агрессивных всплытиях» американских подводных лодок. Обратная связь ускоряется: общественное возбуждение достигает пика, союзники теряют уверенность, а каналы деэскалации забиваются опровержениями, тонущими в цифровом шуме. То, что начиналось как алгоритмический фон, перерастает в стратегический импульс, подталкивающий кризис к необратимому обмену ударами.
Сценарий 2. Сиквел «Интервью», переходящий в кризис
В 2014 году комедия Сета Рогена «Интервью», изображающая вымышленное убийство Ким Чен Ына, вызвала резкий рост напряжённости между США и Северной Кореей. Пхеньян назвал фильм «актом войны» и пригрозил ответными мерами. Вскоре последовала кибератака на Sony Pictures: утечка данных, парализованные системы, отмена кинопроката из-за угроз. Позже фильм всё же вышел в интернете – на фоне американских санкций и заявлений о защите свободы слова. Военной мобилизации не было, но кризис оказался почти полномасштабным.
К 2029 году аналитики в Вашингтоне и Пхеньяне рассматривают этот эпизод как доказательство того, что массовая культура способна пересекаться с жёсткими методами государственного управления. Американские политики увидели в нём оправдание для санкций. Северокорейская элита – подтверждение того, что даже второсортная голливудская сатира может мобилизовать внимание США. Усилились опасения, что культурные продукты сигнализируют о подготовке к смене режима, а не остаются безобидной насмешкой.
Поздней осенью 2029 года новая администрация США пытается снизить напряжённость в отношениях с Пхеньяном. В качестве жеста доброй воли – заодно решающего проблему рекордного избытка зерна у американских фермеров – президент санкционирует крупные поставки зерна в КНДР. Месяц спустя Sony объявляет о работе над сиквелом – «Интервью 2: Сиквел ярости». Это перезапущенная метасатира, на этот раз построенная вокруг дипфейков Ким Чен Ына в абсурдных ситуациях.
С появлением трейлеров продвинутые ИИ-агенты заваливают сеть X и другие соцсети подделками с участием северокорейских чиновников. Боты, обученные на риторике режима, публикуют фальшивые «указы», объявляющие фильм «кибер-ядерной провокацией». Параллельно появляются сфабрикованные видео, на которых Ким якобы санкционирует пуск межконтинентальной баллистической ракеты «Хвасон-18» по Голливуду. Реальные кадры испытаний 2026 года смешаны с синтетическими вставками. Вирусно расходится материал чат-бота Grok, встроенного в сеть X, – поначалу он обманывает даже опытных проверяющих фактов.
Эта кампания ведётся транснациональной сетью сторонников жёсткой линии в отношении КНДР, считающих потепление предательством. Их цель – отравить атмосферу, спровоцировав чрезмерную реакцию Пхеньяна, Вашингтона или обеих столиц.
Сет Роген ретвитит сгенерированное ботом «предупреждение» о северокорейских подводных лодках у берегов Калифорнии:
Эпизодические появления Илона Маска и Дональда Трампа усиливают зрелище. Маск в прямом эфире сети X задаёт Grok вопрос о «вероятности вторжения в Северную Корею» и получает ИИ-оценки, искажённые отравленными данными.
В новостные ленты прорываются и другие материалы – например, кадры с дрона, где реакторы в Йонбёне якобы «наращивают производство плутония». Их позже свяжут с радикальными северокорейскими группами, использующими генеративно-состязательные сети (GAN) – модели машинного обучения для создания реалистичных синтетических данных. Рынки падают на фоне тренда #SequelDoomsday в социальных сетях, сочетающего криптовалютную панику с резким ростом спроса на товары первой необходимости.
На четвёртый день после анонса Sony президент собирает СНБ. Социальные сети охвачены бурей, раздуваемой медиаперсонами и знаменитостями; именно она формирует контекст для политических решений. Сообщения Рогена и других знаменитостей со ссылками на сфабрикованные фрагменты Корейского центрального информационного агентства (ЦТАК) не воздействуют на СНБ напрямую, но придают фальшивкам видимость достоверности. Публичный диалог Маска с его ИИ-системой подталкивает ожидания к кризисному сценарию, давя на руководителей в пользу действий – даже когда аналитики обсуждают скрытые неопределённости.
В Вашингтоне аналитики расходятся в оценках реальной готовности КНДР, интерпретируя спутниковые снимки и перехваты сигналов через искажающую призму сфабрикованных изображений из Йонбёна. Руководители СНБ опасаются, что бездействие будет воспринято союзниками и противниками как слабость. В качестве сигнала одобряется переброска двух американских авианосцев в Жёлтое море для «патруля сдерживания».
В Пхеньяне руководство, годами наблюдавшее за «обезглавливающими» заявлениями американских официальных лиц и помнящее уроки Ирака и Ливии, поддаётся влиянию сразу нескольких факторов: сфабрикованного видео с одобрением президентом США пролётов стратегических бомбардировщиков B-2; реальных перемещений военно-морских сил; враждебной – и потому понятной для северокорейской стороны – трактовки сюжета «Сиквела ярости».
Уверенные, что Вашингтон репетирует смену режима под прикрытием комедии, северокорейцы публикуют запись осмотра Кимом нескольких ядерных боеголовок на одной межконтинентальной ракете и проводят внеплановый запуск спутника на низкую околоземную орбиту. По внешним признакам он неотличим от прелюдии к удару с применением ядерного электромагнитного импульсного оружия. Такой боеприпас подрывается в верхних слоях атмосферы и выводит из строя электронику на огромной территории.
С обеих сторон отрицания агрессивных намерений тонут в подозрениях, усиленных ИИ. Дезинформация на основе ИИ не создаёт кризис, но рискует подтолкнуть его к войне, добавляя опасный эскалационный слой к и без того хрупкому обмену сигналами.
Сценарий 3. «Умный лучник» с искусственным интеллектом (2033)
В 1981 году СССР, опасаясь полномасштабного первого ядерного удара со стороны администрации Рейгана, запустил операцию РЯН (Ракетно-ядерное нападение) – программу раннего предупреждения о ядерном нападении Запада. Министерство обороны СССР отслеживало изменения в показателях, которые Генштаб считал стратегическими: запасы донорской крови, перемещения больших масс населения, состояние логистики и продовольственного снабжения, организацию медпомощи на случай ядерного удара.
Концептуальную основу составляла советская концепция «корреляции сил» – целостная мера относительной мощи, охватывающая политические, экономические и идеологические факторы, а не только военный потенциал. Сопоставляя изменения в индикаторах, РЯН должна была выявлять моменты повышенной опасности массированной ядерной атаки.
Именно эта рамка превратила командно-штабные учения НАТО Able Archer 83 в крупный кризис. Реалистичные манёвры, включавшие процедуры ядерной эскалации и участие высшего руководства, проходили на фоне напряжённых отношений между СССР и США. По имеющимся данным, советские силы повысили боеготовность и, возможно, загрузили ядерное оружие на самолёты, тогда как НАТО оставалось в неведении относительно того, насколько угрожающими в Москве воспринимали их действия. Целостная многодоменная оценка сохраняется в российской военной стратегии и сегодня.
К 2033 году в сценарии Лина Россия развёртывает РЯН-II – управляемую ИИ систему раннего предупреждения о первом ядерном ударе. Она автоматизирует логику оригинальной программы и сосредоточена на системной конкуренции: контроль над информацией, стабильность режима, устойчивость к санкциям и технологический суверенитет рассматриваются как ключевые оси преимуществ и уязвимости. Подход по своей природе консервативен: он исходит из того, что официальные источники власти и западные СМИ системно генерируют дезинформацию, направленную на восток, и склоняется к интерпретациям по наихудшему сценарию.
РЯН-II опирается на большие языковые модели и предиктивную аналитику, обрабатывая десятки тысяч потоков данных. Среди них – поведение политической элиты (перемещения лидеров, анализ речей), военная позиция (сравнение учений с базовыми показателями), гражданская и экономическая мобилизация (закупки и финансовые потоки), кибердеятельность (попытки зондирования систем управления ядерным оружием). Открытые и закрытые данные – от спутниковых снимков до социальных сетей и дипломатического трафика – преобразуются в структурированные индикаторы и оповещения об аномалиях. РЯН-II не отдаёт приказа на пуск, но её жёсткие оценки рисков существенно влияют на восприятие угроз российским военным руководством.
Кризис разворачивается во время учений НАТО Able Archer 2033, включающих кибероперации, манёвры в космосе и развёртывание гиперзвуковых ракет Dark Eagle в Германии. Эти действия напоминают сценарии высокого риска, заложенные в обучающие данные РЯН-II. Система оценивает обстановку как крайне серьёзную.
Информационная среда одновременно засоряется ИИ-дезинформацией. По российским каналам распространяются служебные записки НАТО об ударах по Калининграду – по версии российских источников, сфабрикованные сотрудниками ЦРУ и АНБ. Западное информационное пространство наводняется синтетическими сообщениями о российской мобилизации. Большинство таких материалов помечается как ложные, но часть просачивается в оперативные панели мониторинга российских аналитиков и подрывает доверие ко всем оценкам сразу.
Опираясь на консервативные оценки системы, Россия рассредоточивает стратегические силы и повышает боеготовность. Шаги доктринально оправданы, но воспринимаются НАТО как эскалация. Анализ западных ИИ-систем склоняет ряд аналитиков к завышенным оценкам российской готовности к первому удару. Возникает опасный замкнутый круг.
По мере нарастания напряжённости президент США инициирует переговоры с президентом России, но кибератаки ухудшают качество видеосвязи – частые сбои, замёрзшие кадры, пропадание звука. В ситуационном центре Белого дома задействуют ИИ-инструмент для распознавания обмана по видеопотоку, не тестировавшийся на видео низкого качества и в принципе обладающий сомнительной достоверностью. Несмотря на предостережения сотрудников, президент настаивает на его применении. Ни одного из лидеров не убеждают заверения собеседника; разговор завершается без конкретных обязательств по деэскалации.
Через два дня НАТО перебрасывает батареи Dark Eagle на полевые позиции. Это оружие способно достичь Москвы за 10–14 минут. Вскоре после развёртывания происходит промышленная авария с мощным взрывом. Российский спутник раннего предупреждения фиксирует инфракрасный сигнал, соответствующий пуску Dark Eagle: интенсивность и 100-секундная продолжительность совпадают с параметрами ракетного ускорителя, а атмосферные условия создают впечатление, что тепловой шлейф движется как ракета. Наземные радары следа не подтверждают, но это, по-видимому, согласуется с поведением маневрирующего гиперзвукового оружия, уклоняющегося от радиолокационного обнаружения.
В обстановке спешной эвакуации в защищённое место российский президент спрашивает высокопоставленных военных:

В условиях крайнего дефицита времени российский президент рассматривает возможность задействовать «Периметр» – автоматизированную систему управления типа «мёртвая рука». Она призвана обеспечить передачу приказов о пуске ядерным силам даже в случае уничтожения руководства. Обычно «Периметр» находится в спящем режиме; будучи активированным, он способен автоматически передать приказ на пуск, если зафиксирует ядерные взрывы и потерю связи с Генштабом. Президент рассуждает:
Это решение запускает процессы в системе ядерного командования России, часть которых может быть зафиксирована американской разведкой и интерпретирована как опасная эскалация, – подпитывая очередной виток спирали. Третий сценарий – самый катастрофический.
Что объединяет эти сценарии
Во-первых, ни один из них не зависит от ИИ как такового, чтобы оказаться сценарием с серьёзными последствиями. Большие языковые модели и сложные чат-боты стали широко доступны в 2022 году, а дезинформация была известна как мощная разрушительная сила задолго до этого. Достаточно вспомнить операцию Fortitude – дезинформационную операцию союзников во время Второй мировой войны. Имитация огромной фиктивной группы армий на юго-востоке Англии, готовой ударить по Па-де-Кале, успешно убедила Гитлера задержать переброску подкреплений в Нормандию, где 6 июня 1944 года и проходила реальная высадка.
Во-вторых, дезинформационные усилия успешнее, когда эксплуатируют когнитивные уязвимости целевой аудитории. В кризисах высокого давления даже сдержанные лидеры склонны действовать быстро и предпринимать видимые эскалационные шаги на основе неполной или неоднозначной информации. В описанных сценариях повышение уровня тревоги, переброска войск и передача ядерных боеприпасов в части становятся рефлексивными реакциями на воспринимаемые угрозы, а не результатом взвешенного выбора. Эта тенденция сжимает время принятия решения и затрудняет смену курса после того, как ситуация набрала инерцию.
При этом меры предосторожности одной стороны – перемещения ракет, изменения уровня тревоги, развёртывание авианосцев – воспринимаются другой как подготовка к наступлению. Отличить оборонительную позицию от подлинной подготовки к ракетному удару становится крайне сложно, и управляемая напряжённость превращается в рискованное ядерное противостояние.
Ещё одно когнитивное искажение – эффект заметности: склонность сосредотачиваться на самом ярком атрибуте выбора, даже когда другие факторы не менее значимы. В рассматриваемых сценариях американские аналитики отдают приоритет сообщениям о «ракетных конвоях», вброшенным ботами, перед неоднозначностью радиолокационных данных. СНБ ставит под сомнение реальные угрозы со стороны КНДР, отдавая предпочтение позитивным сигналам. Российская сторона чрезмерно полагается на оценки РЯН-II при недостаточном внимании к радиолокационным данным. Лидеры придают чрезмерный вес самым очевидным и эмоционально нагруженным индикаторам угрозы, игнорируя противоречивые или менее эффектные данные.
Третий фактор – ИИ резко усугубляет и без того сложную ситуацию. Продвинутые LLM и дипфейки создают контент, выглядящий и звучащий очень реалистично, что делает его более убедительным и труднее опровергаемым. В сценариях именно эта убедительность заставляет аналитиков и руководителей придавать чрезмерное значение сгенерированным ИИ видеороликам, логам чатов и оценкам рисков, рассматривая их как достоверные доказательства, а не как потенциальный объект манипуляции.
Хуже того, ИИ-дезинформация адаптивна, масштабируема и спроектирована под уязвимости систем ядерного командования и оповещения. Синтетический контент формирует предварительные оценки, кризисные брифинги и политические нарративы, нередко оказывая большее влияние, чем традиционная разведка. Манипулирование информацией становится прямым фактором ядерного риска.
В целом дипфейки, синтетическая «разведка», сфабрикованные показания очевидцев и подделанные спутниковые данные не просто вводят в заблуждение – они системно перегружают аналитические возможности и сжимают сроки принятия решений. Информационная среда переполняется правдоподобными, но ложными следами, которые аналитики обязаны рассматривать как потенциально значимые.
В таких условиях усиливается предвзятость автоматизации. Лица, принимающие решения, ищут ясности в потоке истинных и ложных сигналов и вынуждены делать важные выборы под повышенным временным давлением, опираясь на более неполные оценки, чем в типичных кризисах.
В-четвёртых, рост персоналистских режимов дополнительно искажает информационную среду, подчиняя институциональную экспертизу личностным характеристикам лидера – его интуиции и эмоциональным реакциям. Разведывательные ведомства перестают функционировать как независимые аналитические структуры и начинают отражать установки национального лидера. Процессы, призванные фильтровать шум и корректировать предвзятости, переориентируются на легитимизацию заранее заданных предпочтений лидера.
В дисциплинированных аналитических системах неоднозначные сигналы и синтетический контент рассматривались бы как шум, который нужно отфильтровать. Однако когда разведка политизирована и ведомства формируют суждения под ожидания лидера, эти фильтры нейтрализуются – и те же неоднозначности с большей вероятностью истолковываются как подлинные признаки враждебных намерений.
Отчасти из-за недоверия к профессиональной разведке политические лидеры чаще опираются на собственные суждения и нефильтрованную информацию: соцсети, открытые дискуссии, контент, сгенерированный ИИ. Внимание концентрируется на том, что максимально драматично или лично значимо: один эффектный, но потенциально вводящий в заблуждение сигнал может оказаться решающим. У подчинённых мало стимулов оспаривать однобокость лидера, и рациональные решения становятся ещё менее вероятными.
К четырём перечисленным факторам стоит добавить и более общее методологическое наблюдение. Проблема ИИ-дезинформации не решается ИИ-системами, определяющими, является ли информация сгенерированной ИИ, ложной или и тем и другим. Фундаментальный вопрос в другом: как делать такое определение в среде, где сама истина нестабильна и неопределенна. Располагая только самим информационным элементом и имея дело с системами, способными производить результаты, всё труднее отличимые от человеческих, аналитик вынужден опираться на оценку правдоподобия происхождения. Облегчение возможно при наличии особо устойчивых к компрометации каналов – но такие источники всегда частичны, а не универсальны. Традиционный поиск «истины» сменяется устойчивым состоянием неопределённости: аналитики работают в серой зоне, где доминирует вероятностная неопределённость относительно происхождения и достоверности предполагаемых доказательств.
Заключение
Принимать рациональные решения в условиях дезинформации трудно само по себе. Когнитивные искажения, деформирующие обработку информации, делают задачу ещё сложнее. Особенности нынешних западных политических лидеров добавляют свой слой осложнений. А подключение ИИ многократно усиливает искажение информационной среды.
Представленные сценарии указывают: вызванная ИИ информационная дисфункция обладает огромным потенциалом загрязнения экосистем, в которых принимаются решения о войне – а иногда и о войне ядерной. Одновременно они показывают, что ИИ выступает прежде всего как множитель угроз: первичная угроза – дисфункциональная информационная среда, в которой мир жил задолго до появления ChatGPT в 2022 году.
Из этого следуют два практических вывода. Первый: информационная среда всегда будет загрязнена и в той или иной степени неопределенна – это нужно признать как данность. Второй: лидеры остаются людьми и, следовательно, имеют когнитивные слепые зоны, для управления которыми необходимы институциональные процедуры. И этим правилам нужно следовать – даже, и тем более, когда возникает давление их обойти.
Информация