США хотят доверить принятие решения о применении ЯО искусственному интеллекту

6 337 47
США хотят доверить принятие решения о применении ЯО искусственному интеллекту

Несмотря на декларативное соглашение, достигнутое лидерами США и КНР в 2024 году о недопустимости замены человеческого суждения искусственным интеллектом (ИИ) при принятии решений о применении ядерного оружия, Вашингтон демонстрирует тревожную тенденцию к активной интеграции этих технологий в смежные системы ядерного командования и контроля (NC2/NC3). Данная стратегия вызывает обоснованную критику в экспертном сообществе.

Как показал поиск в интернете, проведённый 26 февраля 2025 года с помощью чат-бота Perplexity по опубликованным с 2022 года работам с терминами «искусственный интеллект» и «ядерное оружие», преобладающее мнение о применении ИИ в системах ядерного оружия, если исключить статьи, написанные военными США или описывающие их взгляды, а также не учитывать приложения, связанные с контролем над вооружениями, является преимущественно негативным. Этот скептицизм вызван опасениями по поводу негативного влияния на стратегическую стабильность и повышения риска эскалации, особенно случайной или непреднамеренной. Данная статья полностью поддерживает эту критическую позицию, аргументируя, что даже косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски.



Основная опасность заключается в создании ложной уверенности в достоверности информации, формирующей ситуационную осведомленность лиц, принимающих решения. Интеграция ИИ в системы разведки, наблюдения, анализа данных и поддержки принятия решений чревата каскадными эффектами. Ошибка или целенаправленная манипуляция в одной из взаимосвязанных систем, например, в модели компьютерного зрения для обнаружения целей, может быть многократно усилена и исказить общую картину угрозы в условиях острого кризиса и дефицита времени.

Особую озабоченность вызывает феномен «предвзятости автоматизации» — психологической склонности человека чрезмерно доверять выводам, сгенерированным алгоритмами, особенно в условиях стресса. Это создаёт риск того, что высшее руководство США может принять роковое решение, основанное на некритически воспринятых данных, прошедших через непрозрачные и не до конца понятные системы ИИ.

Потенциально дестабилизирующим сценарием является разработка и развёртывание систем ИИ, способных с высокой точностью обнаруживать и отслеживать стратегические подводные лодки с баллистическими ракетами (ПЛАРБ) — основу потенциала гарантированного ответного удара. Подрыв уверенности в скрытности ПЛАРБ может спровоцировать соблазн нанести упреждающий удар в кризисной ситуации, что полностью разрушит логику ядерного сдерживания.

Доверять судьбу человечества в плане возможного применения ЯО исключительно искусственному интеллекту - дело столь же рискованное, как и полный отказ от контроля над ЯО. В обоих случаях риски столь высоки, что конечный результат сегодня не сможет спрогнозировать даже самый «матёрый» эксперт и в области ИИ, и в сфере ядерной безопасности.

А стремление США к интеграции ИИ в ядерную сферу именно поэтому и представляется крайне безответственным шагом. Непрозрачность, уязвимость к кибератакам и принципиальная непредсказуемость поведения сложных систем ИИ делают их непригодными для задач, где цена ошибки равна глобальной катастрофе. Существующий международный консенсус о необходимости сохранения человеческого контроля должен быть усилен жёсткими внутренними регуляторными барьерами, полностью исключающими влияние ИИ не только на санкционирование пуска, но и на все процессы, ведущие к этому решению. Дальнейшая милитаризация ИИ в ядерной области ведёт мир по пути нестабильности и непреднамеренного конфликта, что и подтверждает общий скептический настрой независимых экспертов.
47 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +14
    29 октября 2025 21:08
    Адекватных и умных людей на политическом олимпе в США видимо совсем не осталось.
    1. +6
      29 октября 2025 21:12
      К сожалению маразм там процветает......
      1. +3
        29 октября 2025 21:30
        Всё ещё хуже.
        Выбирая между старческим маразмом и тупостью зумеров, элита США больше доверяет старым маразматиками. А ИИ проектируют зумеры.
        1. SSR
          -1
          29 октября 2025 21:34
          Цитата: Aken
          Всё ещё хуже.
          Выбирая между старческим маразмом и тупостью зумеров, элита США больше доверяет старым маразматиками. А ИИ проектируют зумеры.

          Мой ИИ, для минимизации жертв в будущем, предлагает фигануть в ближайшие 1-5 лет, после предварительной подготовки убежищ и запасов продовольствия.
          3-5 лет при интенсивной подготовке сейчас, должно хватить.
          1. +1
            29 октября 2025 21:43
            15 лет назад была такая Беркемовская группа Тертиум нон датур.
            Там на полном серьёзе, очень подробно, с привлечением специалистов обсуждался вопрос выживания, когда придёт полярный лис.
            Там и про убежище было, и про запасы, и про выход из города через оцепление ... всё было.
            Так случилось, что Лис обогнул Россию и отправился на Украину.
            Все выдохнули, группа распалась. Но это оказалось только отсрочка.
          2. +1
            30 октября 2025 04:05
            Когда (де)генеративный интеллект со стороны противника заметит подготовку, а это нельзя не заметить, то он нанесет удар за год до окончания подготовительных мероприятий.
        2. +5
          29 октября 2025 21:43
          Цитата: Aken
          Выбирая между старческим маразмом и тупостью зумеров, элита США больше доверяет старым маразматиками. А ИИ проектируют зумеры.

          Давно они не смотрели свои же фильмы о постапокалиптическом мире после ядерной войны. "Терминатор" как раз об угрозе ИИ, а "Книга Илая" про жалкое существование выживших.
          1. +1
            29 октября 2025 21:45
            Фильмы снимали одногодки престарелых презов. Но зумеры, они же умнее, правда? У них всё схвачено. Они не допустят.
            1. +2
              29 октября 2025 21:47
              Цитата: Aken
              Но зумеры, они же умнее, правда?

              К сожалению, многие из них в этом уверены.
        3. +2
          29 октября 2025 23:29
          ИИ примет логическое решение не ценя жизни живых существ. Имея оружие как Россия, он бы не думал а что бы устранить угрозу уничтожил бы врага.
          В Сша был случай испытания ИИ на истребителе, когда оператор приказал отменить команду на уничтожении цели. ИИ посчитал угрозой того кто отдал команду и хотел уничтожить для начала его.
          1. +1
            29 октября 2025 23:53
            Цитата: Mitos
            ИИ примет логическое решение не ценя жизни живых существ. Имея оружие как Россия, он бы не думал а что бы устранить угрозу уничтожил бы врага.
            Боюсь. что, если бы Россия доверила управление ядерным оружием ИИ, в США не было бы этой дискуссии по причине отсутствия дискутирующих.

            "Чьё оружие? Американское.
            Наносит нам ущерб? Наносит.
            Нужно устранить угрозу? Нужно.
            Как её устранить? Уничтожить поставщика оружия.
            Кирдык той Америке"

            И, вроде бы, формальная логика торжествует...

            Сдаётся мне, джентльмены, "Терминатор" - не такая уж и фантастика.
      2. +4
        29 октября 2025 22:14
        Скайнет готовится?

        Ждём Т-800, он спасёт мир от дураков.
      3. +2
        29 октября 2025 22:20
        косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски.

        Останется усиливать нашу ПКО и совершенствовать систему "Мертвая рука"
        1. +5
          29 октября 2025 23:13
          Смысл этого начинания в том, чтобы в случае чего все свалить на ИИ. Но! Что ИИ начнет , что маразм, что зумер, результат один и хочется верить если те же США шмальнут куда ни будь ядерным боеприпасом, то удастся отмазаться свалив на ИИ, и ответку получат по полной. Надеюсь маразматики с зумерами и еще кем там, все таки осознают это, ибо ИИ не в состоянии применить ЯО каким то образом без неотвратимости ответки.
    2. 0
      29 октября 2025 22:37
      Цитата: Аркадий007
      Адекватных и умных людей на политическом олимпе в США видимо совсем не осталось.

      Кстати, инстинкт вполне себе неплохо конкурирует с разумом. Те же самые муравьи, осы, термиты и навозные мухи вполне себе инстинктами обходятся- вот и в США сплошной политический инстинкт.
    3. +1
      30 октября 2025 00:29
      Как бы быстро и по какой траектории не развивался ИИ, для него вывод будет один - единственное ЛИШНЕЕ звено на планете будет определен человек и не важно какая там элита, сорт человека и его могущество, прочая ересь.

      Важно только одно - какую цепочку событий запустить, чтобы деграданты самовыпилились, а сам ИИ добьет остатки hi

      Допускаю, что ИИ даже предусмотрит сценарий, где прозревшие люди даже почти уничтожат истинного противника, но это будет лишь предусмотренный фарватер человеческих комплексов…
  2. 0
    29 октября 2025 21:11
    В Министерство войны уверены что ии не вдарит сначала по Белому дому и Пентагону .ИИ будет защищать только себя ,а не " кожаных".
  3. +2
    29 октября 2025 21:17
    Докатились, едрён батон. no
    Решение о применении ядерного оружия будет принимать интеллект искусственный, а по башке будет получать интеллект естественный. request
    1. 0
      29 октября 2025 21:48
      Цитата: Ныробский
      Докатились, едрён батон

      "И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время...".
  4. 0
    29 октября 2025 21:18
    Кунсткамера в сша с искалеченным сознанием готова отдать свое ЯО в руки искусанному интеллекту тем самым подписав себе смертный приговор как проекту U.S. в целом.
  5. 0
    29 октября 2025 21:21
    Как показал поиск в интернете, проведённый 26 февраля 2025 года с помощью чат-бота Perplexity ... даже косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски

    хмм...
    ИИ нашел доводы о непредсказуемости даже косвенного использования ИИ...
    ну очень хитро
    но - оригинально!
  6. +1
    29 октября 2025 21:22
    На фоне матрасских президентов, любой Искусственный Идиот будет выглядеть очень даже неплохо!
  7. 0
    29 октября 2025 21:28
    Тихо шифером шурша крыша едет не спеша!!!!!!!
  8. 0
    29 октября 2025 21:38
    Это они так сказать, отмазу себе, на судный день готовят ( что, типо, именно ИИ, будет принимать решение о запуске ядерных ракет) ))). Что бы, например, провернуть такое -
    Представим, что в нашу сторону, выпущены с территории сша, какие-то ракеты. Проходит минуты 2-3, Трамп звонит в кремль, Путину ( тот естественно, трубку берет...) и слезно просит его, не отвечать!.. Типо это не мы - американцы выпустили в вас ракеты, а ИИ... Типо ошибся он или что еще, сбой какой и тп))). И, вот тут у Путина будет всего пару минут на принятие решения - "весь мир в труху" или только собой пожертвуем". Интересно, что он выберет?)))
    1. +4
      29 октября 2025 21:56
      Цитата: Десница ока
      И, вот тут у Путина будет всего пару минут на принятие решения - "весь мир в труху" или только собой пожертвуем". Интересно, что он выберет?)))

      Выбора не будет, пуск ракет фиксируется быстро, и уже прошла команда на ответный пуск. Разбираться некогда. Но, судя по вашим скобочкам-улыбкам, вам почему-то смешно от такой ситуации, пусть даже плоду вашей фантазии.
  9. 0
    29 октября 2025 21:40
    А я смеялся над голливудской поделкой "Терминатор" а оказывается фильм-предсказание. belay
  10. +4
    29 октября 2025 21:42
    Эту бесовню - США нужно как-то уничтожать всем миром иначе она весь мир уничтожит .
  11. -1
    29 октября 2025 21:46
    Цитата: Терминатор
    И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время.....
  12. 0
    29 октября 2025 21:47
    Насмотрелись своей же лабуды про терминаторов. Поколения, выращенные на комиксах с телевизором потеряли способность разумно мыслить и бросили оставшиеся силы на создание утопического ИИ, который и думать за них в тридевятом царстве должен.
  13. 0
    29 октября 2025 21:51
    Они думают, что таким образом не будут отвечать. Хотя, ИИ их тоже может посчитать ненужными, даже более, чем все остальное человечество.
  14. +1
    29 октября 2025 21:53
    Абсолютная глупость! Доверить железяке типа трактора жизнь человеческой цивилизации на планете могли придумать только абсолютно глупые от рождения идиоты. Стрелять таких идиотов надо без суда и следствия.
  15. +1
    29 октября 2025 22:22
    Если не ошибаюсь на имитационных учениях проводимых в США какая то робототизированная херня под управлением ИИ прикончила оператора роль которого выполнял человек. У ИИ и оператора мнения разошлись насчет дальнейших действий и ИИ просто решило прикончить оператора что бы не мешал. И после этого США хотят доверить принятие решения о применении ЯО искусственному интеллекту. Очень разумное решение ничего не скажешь.
  16. 0
    29 октября 2025 22:37
    В свои мозги там, видать, совсем не верят. Спросили бы уж, лучше, у робота-пылесоса. В крайнем случае, есть умные стиральные машины.
  17. 0
    29 октября 2025 22:50
    Н знаю допустимо ли у админов но ту все по Лаврову
  18. 0
    29 октября 2025 23:58
    У США всегда были проблемы с интеллектом. Не даром же во времена СССР "утечка мозгов" шла всегда в одном направлении. laughing Выходит им так и не удалось заполнить свою пустоту...
    1. +1
      30 октября 2025 00:04
      Впрочем, нет смысла расстраиваться раньше времени: возможно с искусственным интеллектом России будет договориться легче, чем с имитирующими его наличие американцами! wassat
  19. -2
    30 октября 2025 00:14
    Человек может быть подкуплен, уговорен группой лиц и т. п., и т. д., а ИИ — нет, он рациональное решение применяет, ну если там нельзя будет никак взломать и повлиять на решение ИИ. И, скорей всего, он просто будет отвечать на угрозы в рамках своей программы! (например, нападение на страну) У людей уйдет время, а у ИИ — секунды на принятие решения.
    1. -1
      30 октября 2025 07:09
      Вспомни фильм Терминатор! Там тоже был ИИ, по контролю за ядерным вооружением. И к чему это привело?
  20. +1
    30 октября 2025 02:39
    Доверять судьбу человечества в плане возможного применения ЯО исключительно искусственному интеллекту - дело столь же рискованное, как и полный отказ от контроля над ЯО.


    На фоне президента Байдена возможно это лучший вариант. Только кто будет гарантировать полноценную работоспособность оборудования, совершенно непонятно. Какой нибудь выживший из ума пьяный программист, или техник устроит армагедон и никто об этом даже не узнает.
  21. +1
    30 октября 2025 06:11
    А Сара Коннор уже в курсе? И когда ждать от незнакомца на улице "Мне нужна твоя одежда"?
  22. 0
    30 октября 2025 07:07
    США хотят доверить принятие решения о применении ЯО искусственному интеллекту
    Я даже знаю название этой программы, и кто её разработчик. Джеймс Кэмерон в своё время как в воду глядел
  23. 0
    30 октября 2025 09:55
    Сравнительно недавно ИИ атаковал диспетчерскую вышку аэродрома за вмешательство в его действия... В предсказаниях сказано, что если человечество доверится ИИ то тот погубит планету...
  24. 0
    30 октября 2025 10:05
    все четко по сценарию голливуда, вот оказывается как появился скайнет....))
  25. 0
    30 октября 2025 10:39
    США хотят доверить принятие решения о применении ЯО искусственному интеллекту

    А ещё неизвестно, что будет безопаснее.
    Кто-то ещё сомневается в бредовом состоянии Трампа?
  26. 0
    30 октября 2025 13:14
    США хотят доверить принятие решения о применении ЯО искусственному интеллекту

    На случай ядерной войны с потенциальным противником и уничтожения командных пунктов в СССР была создана автоматическая система ядерного ответа - мёртвая рука.
    С тех пор наука и техника сильно продвинулись, а человеческий фактор остался, исключить влияние которого призван и ИИ
  27. 0
    30 октября 2025 15:29
    ИИ - большая ловушка для человечества и, в особенности, для интеллектуальных возможностей каждого, отдельно взятого индивидуума. К счастью, пока не довелось видеть инженеров, которые не проверяют результаты, выданные ИИ. Да, удобно что-то искать, не переворачивая кучу документации, особенно в стандартах.. Но пока идет "прикормка" человечества этой удобной "плюшкой", а вот потом, когда ИИ научится врать.. и делать это "профессионально", не исключено даже, что с подменой данных в первоисточниках, - вот тогда станет поздно и не до шуток. А когда переформатирование человека происходит последовательно с детства - то к возрасту налогоплательщика получается удобный субпродукт. Основное качество ИИ - быстродействие, когда в мгновение ока выдаются ответы на вопросы. А зачем такое быстродействие, чем оно оправдано? Для математических итераций - согласен, а вот для мгновенных принятий решений в повседневной жизни (кроме ситуаций по спасению жизней и техногенных аварий) - не нужно спешки. "Поспешишь - людей насмешишь" - есть такая мудрая пословица. Много, что декларируется "во благо" потом превращается в оружие.. Люди прекращают пользоваться собственной памятью и знаниями, все больше полагаясь на электронных "помощников" - вот и получается, что умные не нужны или нежелательны - нужны покорные, исполнительные и ограниченные "манкурты". Тенденция почти во всех странах мира такова.. общая повестка..
    Ну про ИИ-управление ЯО вообще говорить не приходится.
  28. 0
    30 октября 2025 20:49
    Не французскому? Он научит как на позиции нужно наркоту варить.