США хотят доверить принятие решения о применении ЯО искусственному интеллекту

2 855 34
США хотят доверить принятие решения о применении ЯО искусственному интеллекту

Несмотря на декларативное соглашение, достигнутое лидерами США и КНР в 2024 году о недопустимости замены человеческого суждения искусственным интеллектом (ИИ) при принятии решений о применении ядерного оружия, Вашингтон демонстрирует тревожную тенденцию к активной интеграции этих технологий в смежные системы ядерного командования и контроля (NC2/NC3). Данная стратегия вызывает обоснованную критику в экспертном сообществе.

Как показал поиск в интернете, проведённый 26 февраля 2025 года с помощью чат-бота Perplexity по опубликованным с 2022 года работам с терминами «искусственный интеллект» и «ядерное оружие», преобладающее мнение о применении ИИ в системах ядерного оружия, если исключить статьи, написанные военными США или описывающие их взгляды, а также не учитывать приложения, связанные с контролем над вооружениями, является преимущественно негативным. Этот скептицизм вызван опасениями по поводу негативного влияния на стратегическую стабильность и повышения риска эскалации, особенно случайной или непреднамеренной. Данная статья полностью поддерживает эту критическую позицию, аргументируя, что даже косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски.



Основная опасность заключается в создании ложной уверенности в достоверности информации, формирующей ситуационную осведомленность лиц, принимающих решения. Интеграция ИИ в системы разведки, наблюдения, анализа данных и поддержки принятия решений чревата каскадными эффектами. Ошибка или целенаправленная манипуляция в одной из взаимосвязанных систем, например, в модели компьютерного зрения для обнаружения целей, может быть многократно усилена и исказить общую картину угрозы в условиях острого кризиса и дефицита времени.

Особую озабоченность вызывает феномен «предвзятости автоматизации» — психологической склонности человека чрезмерно доверять выводам, сгенерированным алгоритмами, особенно в условиях стресса. Это создаёт риск того, что высшее руководство США может принять роковое решение, основанное на некритически воспринятых данных, прошедших через непрозрачные и не до конца понятные системы ИИ.

Потенциально дестабилизирующим сценарием является разработка и развёртывание систем ИИ, способных с высокой точностью обнаруживать и отслеживать стратегические подводные лодки с баллистическими ракетами (ПЛАРБ) — основу потенциала гарантированного ответного удара. Подрыв уверенности в скрытности ПЛАРБ может спровоцировать соблазн нанести упреждающий удар в кризисной ситуации, что полностью разрушит логику ядерного сдерживания.

Доверять судьбу человечества в плане возможного применения ЯО исключительно искусственному интеллекту - дело столь же рискованное, как и полный отказ от контроля над ЯО. В обоих случаях риски столь высоки, что конечный результат сегодня не сможет спрогнозировать даже самый «матёрый» эксперт и в области ИИ, и в сфере ядерной безопасности.

А стремление США к интеграции ИИ в ядерную сферу именно поэтому и представляется крайне безответственным шагом. Непрозрачность, уязвимость к кибератакам и принципиальная непредсказуемость поведения сложных систем ИИ делают их непригодными для задач, где цена ошибки равна глобальной катастрофе. Существующий международный консенсус о необходимости сохранения человеческого контроля должен быть усилен жёсткими внутренними регуляторными барьерами, полностью исключающими влияние ИИ не только на санкционирование пуска, но и на все процессы, ведущие к этому решению. Дальнейшая милитаризация ИИ в ядерной области ведёт мир по пути нестабильности и непреднамеренного конфликта, что и подтверждает общий скептический настрой независимых экспертов.
34 комментария
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +4
    Вчера, 21:08
    Адекватных и умных людей на политическом олимпе в США видимо совсем не осталось.
    1. +3
      Вчера, 21:12
      К сожалению маразм там процветает......
      1. 0
        Вчера, 21:30
        Всё ещё хуже.
        Выбирая между старческим маразмом и тупостью зумеров, элита США больше доверяет старым маразматиками. А ИИ проектируют зумеры.
        1. SSR
          -1
          Вчера, 21:34
          Цитата: Aken
          Всё ещё хуже.
          Выбирая между старческим маразмом и тупостью зумеров, элита США больше доверяет старым маразматиками. А ИИ проектируют зумеры.

          Мой ИИ, для минимизации жертв в будущем, предлагает фигануть в ближайшие 1-5 лет, после предварительной подготовки убежищ и запасов продовольствия.
          3-5 лет при интенсивной подготовке сейчас, должно хватить.
          1. -1
            Вчера, 21:43
            15 лет назад была такая Беркемовская группа Тертиум нон датур.
            Там на полном серьёзе, очень подробно, с привлечением специалистов обсуждался вопрос выживания, когда придёт полярный лис.
            Там и про убежище было, и про запасы, и про выход из города через оцепление ... всё было.
            Так случилось, что Лис обогнул Россию и отправился на Украину.
            Все выдохнули, группа распалась. Но это оказалось только отсрочка.
        2. 0
          Вчера, 21:43
          Цитата: Aken
          Выбирая между старческим маразмом и тупостью зумеров, элита США больше доверяет старым маразматиками. А ИИ проектируют зумеры.

          Давно они не смотрели свои же фильмы о постапокалиптическом мире после ядерной войны. "Терминатор" как раз об угрозе ИИ, а "Книга Илая" про жалкое существование выживших.
          1. 0
            Вчера, 21:45
            Фильмы снимали одногодки престарелых презов. Но зумеры, они же умнее, правда? У них всё схвачено. Они не допустят.
            1. 0
              Вчера, 21:47
              Цитата: Aken
              Но зумеры, они же умнее, правда?

              К сожалению, многие из них в этом уверены.
        3. 0
          Вчера, 23:29
          ИИ примет логическое решение не ценя жизни живых существ. Имея оружие как Россия, он бы не думал а что бы устранить угрозу уничтожил бы врага.
          В Сша был случай испытания ИИ на истребителе, когда оператор приказал отменить команду на уничтожении цели. ИИ посчитал угрозой того кто отдал команду и хотел уничтожить для начала его.
          1. 0
            Вчера, 23:53
            Цитата: Mitos
            ИИ примет логическое решение не ценя жизни живых существ. Имея оружие как Россия, он бы не думал а что бы устранить угрозу уничтожил бы врага.
            Боюсь. что, если бы Россия доверила управление ядерным оружием ИИ, в США не было бы этой дискуссии по причине отсутствия дискутирующих.

            "Чьё оружие? Американское.
            Наносит нам ущерб? Наносит.
            Нужно устранить угрозу? Нужно.
            Как её устранить? Уничтожить поставщика оружия.
            Кирдык той Америке"

            И, вроде бы, формальная логика торжествует...

            Сдаётся мне, джентльмены, "Терминатор" - не такая уж и фантастика.
      2. +1
        Вчера, 22:14
        Скайнет готовится?

        Ждём Т-800, он спасёт мир от дураков.
      3. +1
        Вчера, 22:20
        косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски.

        Останется усиливать нашу ПКО и совершенствовать систему "Мертвая рука"
        1. 0
          Вчера, 23:13
          Смысл этого начинания в том, чтобы в случае чего все свалить на ИИ. Но! Что ИИ начнет , что маразм, что зумер, результат один и хочется верить если те же США шмальнут куда ни будь ядерным боеприпасом, то удастся отмазаться свалив на ИИ, и ответку получат по полной. Надеюсь маразматики с зумерами и еще кем там, все таки осознают это, ибо ИИ не в состоянии применить ЯО каким то образом без неотвратимости ответки.
    2. 0
      Вчера, 22:37
      Цитата: Аркадий007
      Адекватных и умных людей на политическом олимпе в США видимо совсем не осталось.

      Кстати, инстинкт вполне себе неплохо конкурирует с разумом. Те же самые муравьи, осы, термиты и навозные мухи вполне себе инстинктами обходятся- вот и в США сплошной политический инстинкт.
  2. 0
    Вчера, 21:11
    В Министерство войны уверены что ии не вдарит сначала по Белому дому и Пентагону .ИИ будет защищать только себя ,а не " кожаных".
  3. +1
    Вчера, 21:17
    Докатились, едрён батон. no
    Решение о применении ядерного оружия будет принимать интеллект искусственный, а по башке будет получать интеллект естественный. request
    1. 0
      Вчера, 21:48
      Цитата: Ныробский
      Докатились, едрён батон

      "И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время...".
  4. 0
    Вчера, 21:18
    Кунсткамера в сша с искалеченным сознанием готова отдать свое ЯО в руки искусанному интеллекту тем самым подписав себе смертный приговор как проекту U.S. в целом.
  5. -1
    Вчера, 21:21
    Как показал поиск в интернете, проведённый 26 февраля 2025 года с помощью чат-бота Perplexity ... даже косвенное внедрение ИИ создаёт непредсказуемые и катастрофические риски

    хмм...
    ИИ нашел доводы о непредсказуемости даже косвенного использования ИИ...
    ну очень хитро
    но - оригинально!
  6. +1
    Вчера, 21:22
    На фоне матрасских президентов, любой Искусственный Идиот будет выглядеть очень даже неплохо!
  7. 0
    Вчера, 21:28
    Тихо шифером шурша крыша едет не спеша!!!!!!!
  8. 0
    Вчера, 21:38
    Это они так сказать, отмазу себе, на судный день готовят ( что, типо, именно ИИ, будет принимать решение о запуске ядерных ракет) ))). Что бы, например, провернуть такое -
    Представим, что в нашу сторону, выпущены с территории сша, какие-то ракеты. Проходит минуты 2-3, Трамп звонит в кремль, Путину ( тот естественно, трубку берет...) и слезно просит его, не отвечать!.. Типо это не мы - американцы выпустили в вас ракеты, а ИИ... Типо ошибся он или что еще, сбой какой и тп))). И, вот тут у Путина будет всего пару минут на принятие решения - "весь мир в труху" или только собой пожертвуем". Интересно, что он выберет?)))
    1. +2
      Вчера, 21:56
      Цитата: Десница ока
      И, вот тут у Путина будет всего пару минут на принятие решения - "весь мир в труху" или только собой пожертвуем". Интересно, что он выберет?)))

      Выбора не будет, пуск ракет фиксируется быстро, и уже прошла команда на ответный пуск. Разбираться некогда. Но, судя по вашим скобочкам-улыбкам, вам почему-то смешно от такой ситуации, пусть даже плоду вашей фантазии.
  9. 0
    Вчера, 21:40
    А я смеялся над голливудской поделкой "Терминатор" а оказывается фильм-предсказание. belay
  10. +2
    Вчера, 21:42
    Эту бесовню - США нужно как-то уничтожать всем миром иначе она весь мир уничтожит .
  11. 0
    Вчера, 21:46
    Цитата: Терминатор
    И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время.....
  12. 0
    Вчера, 21:47
    Насмотрелись своей же лабуды про терминаторов. Поколения, выращенные на комиксах с телевизором потеряли способность разумно мыслить и бросили оставшиеся силы на создание утопического ИИ, который и думать за них в тридевятом царстве должен.
  13. -1
    Вчера, 21:51
    Они думают, что таким образом не будут отвечать. Хотя, ИИ их тоже может посчитать ненужными, даже более, чем все остальное человечество.
  14. 0
    Вчера, 21:53
    Абсолютная глупость! Доверить железяке типа трактора жизнь человеческой цивилизации на планете могли придумать только абсолютно глупые от рождения идиоты. Стрелять таких идиотов надо без суда и следствия.
  15. 0
    Вчера, 22:22
    Если не ошибаюсь на имитационных учениях проводимых в США какая то робототизированная херня под управлением ИИ прикончила оператора роль которого выполнял человек. У ИИ и оператора мнения разошлись насчет дальнейших действий и ИИ просто решило прикончить оператора что бы не мешал. И после этого США хотят доверить принятие решения о применении ЯО искусственному интеллекту. Очень разумное решение ничего не скажешь.
  16. 0
    Вчера, 22:37
    В свои мозги там, видать, совсем не верят. Спросили бы уж, лучше, у робота-пылесоса. В крайнем случае, есть умные стиральные машины.
  17. 0
    Вчера, 22:50
    Н знаю допустимо ли у админов но ту все по Лаврову
  18. 0
    Вчера, 23:58
    У США всегда были проблемы с интеллектом. Не даром же во времена СССР "утечка мозгов" шла всегда в одном направлении. laughing Выходит им так и не удалось заполнить свою пустоту...
    1. 0
      Сегодня, 00:04
      Впрочем, нет смысла расстраиваться раньше времени: возможно с искусственным интеллектом России будет договориться легче, чем с имитирующими его наличие американцами! wassat