Внедрение искусственного интеллекта в командование войсками может привести к ядерной войне, инициированной не человеком, а компьютером

31
Внедрение искусственного интеллекта в командование войсками может привести к ядерной войне, инициированной не человеком, а компьютером

Ни одна технология со времен атомной бомбы не вдохновляла апокалиптическое воображение так, как искусственный интеллект. С тех пор, как в ноябре 2022 ChatGPT начал демонстрировать проблески логического мышления, интернет был наводнен сценариями конца света. Многие из них сознательно фантазируют — они предназначены для того, чтобы заставить нас представить себе, как плохо всё может пойти, если зарождающийся компьютерный разум начнет понимать мир и свои собственные цели.

Однако один сценарий требует меньше воображения, потому что первые шаги к нему, возможно, уже сделаны — постепенная интеграция ИИ в самые разрушительные технологии, которыми мы сегодня располагаем.



Крупнейшие военные державы мира начали гонку по внедрению ИИ в боевые действия. На данный момент это, в основном, означает предоставление алгоритмам контроля над отдельными видами оружия или роями дронов. Никто не приглашает ИИ сформулировать общую стратегию или присоединиться к совещанию генералитета. Но та же соблазнительная логика, которая ускорила гонку ядерных вооружений, через несколько лет может продвинуть ИИ вверх по цепочке управления.

Однако в этом сценарии нет хороших вариантов. ИИ предлагает иллюзию холодного расчёта, особенно по сравнению с подверженными ошибкам, потенциально нестабильными людьми. Но сегодня самые передовые ИИ — это черные ящики, и мы не совсем понимаем, или даже совсем не понимаем, как они работают.

Обладая достаточно широкими полномочиями по сравнению с обычной войной, ИИ, не обладающий полномочиями в области ядерного оружия, тем не менее может прибегнуть к сценарию, который непреднамеренно приведет к эскалации конфликта настолько серьёзно и так быстро, что последует панический запуск ядерного оружия. Или он может намеренно спланировать ситуацию на поле боя, которая приведет к пуску, если он решит, что использование ядерного оружия позволит достичь поставленных целей.

Любая страна, которая введет ИИ в свое командование и управление, будет мотивировать других последовать ее примеру, хотя бы для поддержания надежного сдерживания. Своеобразная гонка искусственных интеллектов как аналог гонки вооружений.

Американская пресса предлагает представить, что ИИ, призванный на службу Пентагоном, ошибочно интерпретирует акустические наблюдения за подводными лодками в Южно-Китайском море как движения, предвещающие ядерную атаку. Его подготовку к контрудару заметит собственный ИИ Китая, который фактически начнет готовить свои пусковые платформы, вызвав эскалацию, кульминацией которых станет обмен ядерными ударами. И это далеко не единственный пример, когда искусственный интеллект одной страны может решить, что сейчас именно тот момент, когда без применения ЯО не обойтись. Можно только гадать о последствиях того, сумеет ли человек вообще хоть как-то повлиять на этот процесс, если механизм компьютером будет запущен.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

31 комментарий
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +5
    3 мая 2023 20:39
    Вот бы нам в руководство войск интеллект внедрить! Хоть искусственный, хоть натуральный, но эдак сколько бы пользы было бы!
    1. -2
      3 мая 2023 22:22
      Интеграция ИИ в самые разрушительные технологии предлагает иллюзию холодного расчёта <...> потенциально нестабильными людьми.

      Какие субъективно ЖЕЛАТЕЛЬНЫЕ для себя ВХОДНЫЕ данные в КОМПЬЮТЕРНУЮ программу ИИ заложит оператор, такие желательные для себя ВЫХОДНЫЕ данные он и получит!
      Чем меньше входных параметров для компюьтерной задачи, тем идеалистически абсолютизированнее от адекватности к реалиям будет и машинный ответ ИИ.

      В сценариях войны нет хороших вариантов.
      При этом в сценариях войны компьютерная программа ИИ может намеренно спланировать ситуацию на поле боя, которая приведет к пуску, если она - т.е. ИИ - решит, что использование ядерного оружия позволит достичь поставленных целей.
  2. 0
    3 мая 2023 20:40
    Привет, SkyNet?

    Текст Вашего комментария слишком короткий и по мнению администрации сайта не несёт полезной информации.

    А вот тут ИИ и не пахнет.
    1. 0
      3 мая 2023 21:18
      А вот тут ИИ и не пахнет.

      Привет... и не только тут.)
      1. Комментарий был удален.
  3. +6
    3 мая 2023 20:43
    Задачи ИИ всё-таки ставит человек. Ограничения по выполнению этих задач тоже. К ядерной войне приведёт не ИИ, а политики. Не стоит сваливать с больной головы на здоровую.
    1. 0
      3 мая 2023 20:53
      ИИ ищет оптимальный вариант завершения войны, и.. возможно ему, представится ядерный удар по всем во благо человечества
      1. -1
        3 мая 2023 21:22
        ядерный удар по всем во благо человечества

        Джезбелл (Fallout 4) тоже так говорила.)
        1. +1
          4 мая 2023 00:34
          По идее робомозгам обитающим в виртуале это может показаться действительно оптимальным. Исчезнет как причина так и следствие конфликта.
      2. +1
        4 мая 2023 00:05
        Это будет не ИИ, а обычный алгоритм оптимизации. Не нужно путать ИИ и разум, до второго пока ещё как по Юпитера. ИИ сейчас это просто обученная нейронная сеть и заложенными в неё алгоритмами обработки информации. Она не может выдать то, чего её не обучали и у неё пока нет возможности самообучения.
        Сейчас можно в ИИ заложить например миллионы вариантов развития событий. Потом дать ИИ входные данные и он на их основе просто выберет наиболее подходящий вариант из этих миллионов.
    2. 0
      4 мая 2023 06:31
      Вы путаете АСУ и ИИ. ИИ интерпретирует задачи и ограничения так, как он видит сам. Если на одном из возможных путей выполнения будет стоять запрет, он пойдёт другим путём. И в этом и есть опасность ИИ.
  4. +3
    3 мая 2023 20:47
    Ну вообще логику надо иметь, чтобы такую хрень нести. Никто в здравом уме и не собирается внедрять ИИ в управление по крайней мере ядерным оружием. Тем более не надо забывать, что ИИ - это палочка-выручалочка, которую может заиметь количество игроков в игре более одного. И что дальше-то делать будем? Прошлая такая палочка-выручалочка как раз была ядерным оружием - все помнят, что американцы сразу же разработали план закидать СССР с бомбардировщиков. Но как только оно появилось у СССР (в кратчайшие, замечу, сроки как для страны, которую совсем недавно в европейской части сравняли с землей в пыль и поубивали несколько десятков млн человек), то по ту сторону океана сразу же заткнулись. Не вижу причин подобного исхода событий и в наше время при принятии на вооружение ИИ. Если его умудрится внедрить не только один игрок, но и его конкурент - наступит равновесие. Тем не менее, внедрять такие вещи - дело крайне далекого будущего, это еще испытать и настроить надо.
    1. 0
      4 мая 2023 07:24
      Цитата: termos
      ИИ - это палочка-выручалочка, которую может заиметь количество игроков в игре более одного.


      У него нет нужных для этого качеств, в отличие от атома. Любая ядерная технология всего лишь пассивная материя, а вот современные компьютеры начинают демонстрировать первые признаки собственной воли и принятия независимых решений и скорее конкурируют уже с живой материей. При этом понятно, что и потеря темпа автоматизации вооружений несет в себе проигрыш тем кто не откажется это сделать. Собственно говоря, люди уже живут в той фантастике, которую описывали в книжках и вот сейчас проходим переход обретения возможности создавать искусственную жизнь и разум.
    2. 0
      5 мая 2023 14:03
      это испытывать не надо.
      Есть задача. Простая алгебраическая задача.
      Мы считаем - сколько сдохнет с нашей и с той стороны и сколько выживет и если кто-то выживет, то не подохнет ли через энное кол-во времени.
      Если все эти и другие элементы уравнения сходятся - ИИ будет бомбить. Он для этого и сделан.
      Почему-то люди пытаются наделить ИИ чувствами, типа, а "может он не долбанёт".
      Нет такого.
      Есть логика, есть математика.
      ИИ должен сделать всё, чтобы выжить.
  5. +1
    3 мая 2023 20:49
    Как США не понравилась наша " Хромая кочерга" Периметр .Мы победили, а тут на тебе выкуси.Честно говоря сам ,сомневаюсь ,что Периметр существует.По СНВ1,2,3 американцы бы носом рыли, чтобы найти эти командные ракеты.Скорее существует протокол ,применения оставшихся СЯС России.Задраить отсеки ,открыть кингстоны!Там надо понимать формулировку ,оснащённые и не оснащённые шахты.
  6. +1
    3 мая 2023 21:01
    ИИ давно внедрен в России в систему "Периметр".
    Эта система громоздкая, но все еще рабочая. Внедрение современного ИИ в систему "Периметр" уменьшит время на принятие решения на ответный ядерный удар по противнику. Это очень страшная система, ибо даже Илон Маск боится развития ИИ. Что интересно, при вводе данных в эту систему (типа вопроса), она мгновенно дает ответ, это миллисекунды. Даже интернет ей не нужен, все у этой системы в ее микросхеме, только подавай ей исходные данные. В совершенстве действенности системы ИИ я убедился, когда дал задание этой системе (GPT-4) проверить мою курсовую работу по расчету довольно сложной задачи в сопромате. Ответ я получил через доли секунды. На мою миниатюру в прозе система ИИ дала рецензию в большей художественности, чем сама миниатюра. Можно представить БПЛА, оснащенный этой системой. Ему не надо давать координаты маршрута к цели, типа азимута исчисленного, высот подъема и снижения на маршруте. Этот БПЛА сам будет выбирать свой маршрут в соответствии с поставленной задачей по достижению цели и ее поражению.
    1. 0
      5 мая 2023 14:09
      Хватит врать.

      В Периметре нет никакой ИИ.
      Периметр просто запускает ракеты, если им не прилетело из Центра такой команды в течение определённого времени.
      Сделано это по причине того, что Кремль можно задавить и Президент тупо не успеет нажать на кнопку.
  7. +2
    3 мая 2023 21:04
    Искусственный интеллект соображает не лучше человека, который заложил в него алгоритм принятия решения. Преимущество ИИ в скорости принятия оптимального варианта. А если он ошибочно заложен как оптимальный? То тундровый лис нам всем. sad
    1. -3
      3 мая 2023 21:52
      Главное чтоб непростые решения в ии не заложили с жестами доброй воли. Там результат похлеще атомной войны будет
    2. 0
      3 мая 2023 22:24
      Цитата: Бывший солда
      Искусственный интеллект соображает не лучше человека, который заложил в него алгоритм принятия решения. Преимущество ИИ в скорости принятия оптимального варианта. А если он ошибочно заложен как оптимальный? То тундровый лис нам всем. sad

      То, что ошибочно называют Искусственным Интеллектом на самом деле является Искусственным Инстинктом.
    3. 0
      6 мая 2023 19:23
      Вы путаете искуственный интеллект с программой.
      Главное отличие ИИ от программы в том, что он может принимать решения самостоятельно. Он способен развиваться сам. Он не зависит о того, кто и как его написал. Это не программа.
      Это не какой-то там дебильный chatgpt.
      Вы понимаете? ИИ не зависит от человека. Он потому и страшен, что решения он принимает самостоятельно. И наши с вами ценности для него ничего не значат.
  8. -4
    3 мая 2023 21:30
    Искусственный интеллект формируют люди, у которых отсутствует естественный интеллект.
  9. 0
    3 мая 2023 22:05
    "И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия". Но крайнее))) сражение состоится не в будущем, оно состоится здесь, в наше время. Это сражение происходит в каждое мгновение, даже когда ты спишь. Ведь сон материален, т.к Вселенная бесконечна.
    1. 0
      4 мая 2023 00:36
      прикольный текст, откуда из какого фильма/произведения?
      1. 0
        4 мая 2023 00:56
        Из Терминатора, вестимо.
        Цитата: IlgizL
        откуда из какого фильма/произведения?
        1. 0
          4 мая 2023 01:13
          Цитата: мордвин 3
          Из Терминатора, вестимо.
          Цитата: IlgizL
          откуда из какого фильма/произведения?

          Не тебе вопрос задали. Но, Вселенная необозрима.
          И кошки Шредингера пронизывают пространство-времень бесконечно.
  10. Опасения насчёт ИИ и ЯО полная ерунда и чушь,если б не бмпт терминатор
  11. -1
    3 мая 2023 22:21
    https://forgeat.fr/blog/wp-content/uploads/2022/10/003-02-WD-TOPICS-23032017-V3-03-2017.pdf
    курит, курит и крутит педали...
    Производитель в приведенной выше ссылке очень специальный...., чтобы поддержать тему.
  12. -1
    3 мая 2023 23:39
    ИИ не сможет сделать то, чему его не обучили. А обучается он на огромных массивах информации. И я что-то не припомню ни одного случая начала ядерной войны в истории. Короче на ИИ можно свалить лишь только собственную некомпетентность и невежество.
  13. 0
    4 мая 2023 08:27
    Цитата: lestad
    ИИ ищет оптимальный вариант завершения войны, и.. возможно ему, представится ядерный удар по всем во благо человечества


    " К счастью проблему глобального потепления удалось решить при помощи ядерной зимы" ("Футурама").
  14. 0
    4 мая 2023 14:35
    Цитата: Татьяна
    Интеграция ИИ в самые разрушительные технологии предлагает иллюзию холодного расчёта <...> потенциально нестабильными людьми.

    Какие субъективно ЖЕЛАТЕЛЬНЫЕ для себя ВХОДНЫЕ данные в КОМПЬЮТЕРНУЮ программу ИИ заложит оператор, такие желательные для себя ВЫХОДНЫЕ данные он и получит!
    Чем меньше входных параметров для компюьтерной задачи, тем идеалистически абсолютизированнее от адекватности к реалиям будет и машинный ответ ИИ.

    ИИ- это не совсем программа, это именно интеллект. И он сам себе исходные данные будет давать.
  15. -1
    8 мая 2023 19:18
    Искуственный интеллект начавший глобальную войну. Где то это уже было... Ждём Терминатора?

«Правый сектор» (запрещена в России), «Украинская повстанческая армия» (УПА) (запрещена в России), ИГИЛ (запрещена в России), «Джабхат Фатх аш-Шам» бывшая «Джабхат ан-Нусра» (запрещена в России), «Талибан» (запрещена в России), «Аль-Каида» (запрещена в России), «Фонд борьбы с коррупцией» (запрещена в России), «Штабы Навального» (запрещена в России), Facebook (запрещена в России), Instagram (запрещена в России), Meta (запрещена в России), «Misanthropic Division» (запрещена в России), «Азов» (запрещена в России), «Братья-мусульмане» (запрещена в России), «Аум Синрике» (запрещена в России), АУЕ (запрещена в России), УНА-УНСО (запрещена в России), Меджлис крымскотатарского народа (запрещена в России), легион «Свобода России» (вооруженное формирование, признано в РФ террористическим и запрещено), Кирилл Буданов (внесён в перечень террористов и экстремистов Росфинмониторинга)

«Некоммерческие организации, незарегистрированные общественные объединения или физические лица, выполняющие функции иностранного агента», а так же СМИ, выполняющие функции иностранного агента: «Медуза»; «Голос Америки»; «Реалии»; «Настоящее время»; «Радио свободы»; Пономарев Лев; Пономарев Илья; Савицкая; Маркелов; Камалягин; Апахончич; Макаревич; Дудь; Гордон; Жданов; Медведев; Федоров; Михаил Касьянов; «Сова»; «Альянс врачей»; «РКК» «Центр Левады»; «Мемориал»; «Голос»; «Человек и Закон»; «Дождь»; «Медиазона»; «Deutsche Welle»; СМК «Кавказский узел»; «Insider»; «Новая газета»