Третья военная революция: машинный интеллект не должен быть с оружием

48

Источник: armflot.ru

Главный тренд XXI века


Несмотря на всю неопределенность самого термина «искусственный интеллект» (далее ИИ), все предпосылки к появлению высокопроизводительных и самообучающихся боевых систем в армиях мира давно созданы.

Если бы ИИ не существовал, его все равно пришлось бы придумать. Сейчас практически во всех сферах человеческой жизни ежесекундно генерируется гигантский объем информации, которую просто нечем перерабатывать.



И военное дело здесь далеко не исключение – достаточно вспомнить конфликт в Нагорном Карабахе, чтобы понять истинные масштабы информационной насыщенности военных действий.

Поток фото-, видео- и радиолокационных данных, а также аудио- и текстовых сообщений становятся главными на поле. Только сейчас можно перефразировать известное выражение

«Кто владеет информацией, владеет миром»

в современное

«Кто умеет быстро анализировать информацию, владеет миром».

А для оперативной обработки «больших данных» (или big data) требуются очень серьезные технологии. Такие как искусственные нейронные сети, способные к самообучению без участия оператора. Важные преимуществом нейронных сетей является способность выявлять закономерности на основании данных, отсутствующих в изначальном обучающем коде.

Для военных особую важность играет потенциальное умение ИИ работать с неполными, «зашумленными» или искаженными данными. Именно поэтому в настоящее время нейронные сети с глубоким обучением ждут в системах видовой разведки для быстрого анализа видео- и фотоматериалов. Как отмечают в военных ведомствах, задачи, на которые уходили месяцы работы десятков дешифраторов, ИИ решает за секунды.


Источник: i.pinimg.com

Однако простой анализ массивов данных уже даже сейчас кажется недостаточным для военных операций – требуется

«прогнозирование возможных действий»

и

«прогнозирование ответных реакций»

потенциальной цели.

На основании данных «умозаключений» оператор будет принимать решение об открытии огня. Это серьезно ускорит ход наступательных операций.

Для примера – несколько лет назад в ходе операции «Несокрушимая свобода» беспилотник MQ-1 Predator вышел на вражескую колонну техники. Но пока оператор оценивал принадлежность и решался на запуск ракеты, техника вышла из зоны поражения. И это далеко не единственный пример.

Применение ИИ в данном случае позволило бы оперативно составить прогноз относительно перспектив и времени нанесение удара. Но и здесь есть подводные камни.

Комитет Красного Креста серьезно обеспокоен внедрением ИИ в беспилотную технику и (самое главное) уровнем доверия ему со стороны человека. Например, может ли человек, копающий землю недалеко от дороги, быть с надежностью определен как лицо, устанавливающее самодельное взрывное устройство, исключительно на основании анализа видеосигнала нейронными сетями?

Сейчас операторы ударных дронов сплошь и рядом не осознают реальности происходящего на поле боя (Playstation mentality). А если им в этом будет помогать ИИ?

И без того заметно упрощенная задача уничтожения, станет еще проще для исполнения.

Автоматизируй это!


Технологические и стратегические вызовы заставляют мировые державы постепенно переводить армии на рельсы робототехники.

К примеру, в США «Третья компенсационная стратегия» обещает превратить вооруженные силы в армию роботов уже через тридцать лет. А через десять лет у Пентагона каждый третий самолет будет беспилотным.

В России также стараются не отставать. И планируют в ближайшие годы принять в армию несколько десятков новых образцов вооружений на удаленном управлении. Однако ни в США, ни в России до сих пор нет полноценных разведывательных и ударных систем, управляемых ИИ. Во многом это связано с кризисом ответственности. Если с ошибками первого рода, то есть неверно отмененные удары по противнику, еще как-то можно смириться, то с ошибками второго рода все гораздо сложнее. В последнем случае машина решается либо на «дружественный огонь» (Friendly fire), либо уничтожает гражданских, то есть совершает военное преступление.


Источник: popmeh.ru

В этой ситуации до конца не понятно, кто несет ответственность за такое деяние – разработчик ПО или командир, отдавший приказ на использование системы.

Схожая ситуация сложилась в автомобильной отрасли, в которой уже несколько десятилетий грезят полностью автономными дронами. Была даже разработана классификация уровней автоматизации, вполне применимая для военной сферы.

На нулевом уровне автомобиль представляет собой условный УАЗ-496, в котором все подконтрольно водителю и отсутствуют мехатронные помощники – ESP, ABS и т.д.

На высшем пятом уровне у колесного дрона даже рулевое колесо отсутствует (либо установлено в качестве платной опции). И во всех ситуациях движение контролируется автопилотом. В настоящее время только японская Honda смогла сертифицировать серийный автопилот третьего уровня.

Эта техника «условной автоматизации» не способна брать на себя управление в опасной ситуации. Да и в обычных условиях работает далеко не всегда. Система Traffic Jam Pilot автопилотирует машину в пробках, удерживает в пределах полосы на автомагистрали и осуществляет обгоны. Руки с руля убрать можно, но вот взгляд с дороги отводить нельзя – за этим следят камеры. Автопилот третьего уровня очень недешев и повышает итоговую стоимость машины в полтора раза.

При этом стоит помнить, автопилоты уже сейчас можно полноценно внедрять в серийное производство. И они действительно серьезно снизят смертность на дорогах. Но вот юридические и этические проблемы от ошибок (в том числе и смертельных) ИИ ставят автокомпании в тупик.

ИИ не должен быть с оружием


В военной сфере ситуация с разработками полностью автономных боевых систем также далека до идеала.

И дело даже не в техническом аспекте вопроса.

С одной стороны, эксперты-скептики указывают на потенциальную способность самообучающихся систем на нейронных сетях наносить упреждающие удары. К примеру, ИИ увидит у противника реальную или мнимую уязвимость – чем это не повод нанести первый обезоруживающий удар? В дополнение к этому все «искусственные мозги» склонны к состязательности и отсутствию элементов критического мышления, что также не добавляет доверия со стороны человека.

Аналитики из RAND Corporation, вообще, призывают ни в коем случае не доверять военно-стратегические решения искусственному разуму – ни в настоящем, ни в будущем. Если с уничтоженными по ошибки ИИ несколькими нонкомбатантами условно еще можно смириться, то в приложении к силам ядерного сдерживания все пройдет гораздо трагичнее.

Не все так просто и с оперативно-тактическим оружием под управлением ИИ.

Вернемся к кадрам из Нагорного Карабаха, наглядно иллюстрировавших техническое превосходство ударных дронов над традиционным вооружением. Здесь все понимали, что в небе всего лишь дистанционно управляемые машины, пусть и очень совершенные.

Какова была бы реакция публики, если бы удары наносили полностью автономные Bayraktar?

Когда ИИ в прямом эфире на весь мир убивал бы людей, пусть и с оружием в руках?

Моральная сторона вопроса здесь до сих пор не решена. И вряд ли будет разрешена в ближайшем будущем.

Третья военная революция: машинный интеллект не должен быть с оружием
Источник: mil.ru

Вообще, роботы в армии – это, конечно, хорошо.

Они позволяют выводить солдат из-под непосредственного огня противника, передавая всю работу боевым единицам на дистанционном управлении. Снижаются потери и затраты. И война вроде как становится гуманнее.

Полностью автономное роботы в военной сфере или Lethal Autonomous Weapon Sysytem – это совсем не про гуманность и снижение потерь. Нейронные сети глубинного обучения делают войну гораздо более скоротечной и с большим количеством жертв. Собственно, именно это и обеспечили две предыдущие военные революции в военном деле – пороховая и ядерная.

Это понимают многие гражданские корпорации, занятые вместе с государством в оборонных проектах.

Так, Google в 2018 году вышел из крайне выгодного проекта Maven стоимостью более 7,5 млрд долларов. Спецы из Силиконовой долины вместе с DARPA работали над программой обработки видео- и фотомассивов информации от многочисленных разведывательных беспилотников. Данные обрабатывала нейронная сеть. И выдавала оператору «библиотеку целей» в порядке приоритета для уничтожения. Google вышел из истории. И сейчас DARPA пытается самостоятельно справиться.

Немаловажным аспектом ИИ в армии является использование его в информационной войне.

Можно с определенной долей уверенности говорить, что в самое ближайшее время из США просто посыплются очередные разоблачения России и (в большей степени) Китая в разработке боевого искусственного разума. Если не получается убедить публику внутри страны в необходимости автономного военного разума, то тогда будем пугать внешними врагами. Такой логикой Пентагон славится издревле. Дескать, у них уже во всю идет работа над ИИ, а мы тут с собственной моралью справиться не можем.

И наконец, вполне перспективным выглядят ассиметричные ответы на угрозы боевого ИИ. Сейчас набирают силу технологии маскировки объектов от всевидящего ока искусственного разума и даже намеренного введения в заблуждение.

Пока ИИ сносно работает в мирных условиях, когда информация подается на блюдечке.

Совсем плохо получается функционировать с неполными и зашумленными данными. Поэтому вполне логичным выглядят попытки ввести в заблуждение машинный интеллект заведомо откорректированными данными. Когда время реагирования вооруженного ИИ исчисляется секундами и не зависит от мнения человека, такая дезинформация может привести к сложно предсказуемым последствиям.

Третью военную революцию, по-хорошему, лучше отменить.

Или выработать совместные ограничительные меры по разработке и использованию ИИ в военной сфере. Удалось ведь что-то подобное провернуть в случае с ядерным оружием?
48 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +3
    18 марта 2021 05:11
    Когда ИИ в прямом эфире на весь мир убивал бы людей, пусть и с оружием в руках?

    Моральная сторона вопроса здесь до сих пор не решена

    Т.е. когда в прямом эфире людей убивают другие люди - это с моральной стороны нормально?!
    1. 0
      18 марта 2021 05:44
      Цитата: Пиджак в запасе
      Т.е. когда в прямом эфире людей убивают другие люди - это с моральной стороны нормально?!

      Конечно же нет, но вот она, моральная проблема налицо! Мы всего лишь современные люди, "отягощенные" современным пониманием морали. И это хорошо. hi
      1. dsk
        0
        18 марта 2021 18:56
        Цитата: А. Привалов
        И это хорошо

        Здравствуйте профессор! Конечно хорошо, но ИИ снимает это "отягощение". Крайними будут роботы, что возьмёшь с бездушной "железяки"...
        1. +4
          18 марта 2021 20:33
          И вам, здравствовать. hi
          Я не профессор, а лишь доцент.

          С железяки спросу нет. Железяки сраму не имут. Отдуваться будут те, кто без серьезных на то причин, примет решение пустить их в ход. Это только сегодня, пока человечество не имея опыта использования оружия такого рода сочиняет для себя сладкую сказку. Со временем всё устаканится. Может быть, кое-что и запретят, как негуманное, как когда-то боевые ОВ. Может быть, что-то ограничат, скажем, роботы проведут подготовку, а решение на открытие огня по людям будет принимать человек. и т.д. Всё равно, будут и ошибки, будут возникать разного рода правовые и философские коллизии. Остаётся лишь надеяться, что человечество с ИИ не загонит себя само в какую-нибудь ловушку, о каких много писали фантасты.
    2. 0
      19 марта 2021 23:05
      Цитата: Пиджак в запасе
      Когда ИИ в прямом эфире на весь мир убивал бы людей, пусть и с оружием в руках?

      Моральная сторона вопроса здесь до сих пор не решена

      Т.е. когда в прямом эфире людей убивают другие люди - это с моральной стороны нормально?!

      Конечно это ненормально, если это не было самообороной или военными действиями, когда убивать допускается с моральной стороны. Но, во-первых, убивающий (если он вменяемый) понимает, что может наступить ответственность, в этом мире (перед обществом или перед сами собой) или в другом мире,возможно, - перед Богом, во-вторых, у убийцы есть риск, что "жертва", тоже может убить убийцу. Это все является сдерживающими факторами. И те кто смотрят в онлайн, тоже понимают, что убийца скорее всего подвергнется каре (даже если он невменяемый). Если же убийца - ИИ, во-первых, нет указанных сдерживающих факторов, во-вторых, зрители в онлайн тоже понимают, что осуществляется безнаказанное, перед человечеством деяние, но при этом оно сознательное, то есть убийство человека осознанное (не метеорит) и безнаказанное. Ценность человеческой жизни, в глазах самих людей, постепенно утрачивается. Следовательно мораль изменяется. Мы все будем понимать, что есть сущность, которая сама решает кому жить, а кому нет, по своему усмотрению и по своим правилам, которые могут измениться по его усмотрению (ИИ же саморазвивающийся). И вообще непонятно, способен ли ИИ, получивший задание убить людей (не имеющего запрограммированного запрета на убийство человека), пощадить человека-жертву, например, капитулирующего. Это далеко не все вопросы к применению ИИ в качестве орудия убийства людей.
      По-моему, пора бы уже ООН как минимум назначать комиссию для разработки правили и норм (робот или ИИ не должен принимать решение на убийство человека без участия другого человека) или установления полных запретов в отношении ИИ как орудия убийства людей, да и иных живых существ.
  2. +4
    18 марта 2021 05:31
    .А для оперативной обработки «больших данных» (или big bata) требуются очень серьезные технологии.
    Прекрасная оговорка. Почти по Фрейду:"big bata" -- на филиппинском "большой ребёнок".
    Безусловно, человечеству придётся решать ещё проблемы связанных с ИИ. Военная сфера лишь одна из многих. Причем какими-то половинчатыми ограничениями ограничиться не удастся. Прогресс уже не остановить. "Железный конь идёт на смену крестьянской лошадке"(с)
    . В 1865 году парламентом Великобритании был принят закон, по которому скорость транспорта была ограничена 6 км/ч, а перед автомобилем должен был идти человек, размахивая красным флагом. Последний пункт был упразднен в 1878 году. По другим данным, правило «красного флага» было отменено только в 1896 году, вместе с повышением ограничения скорости до 23 км/ч и упразднением требования наличия экипажа из трех человек (машинист, помощник и кочегар) для легкомоторных (до 3 т снаряжённой массы) безлошадных транспортных средств, то есть было юридически признано отличие автомобилей от локомотивов, что дало толчок развитию британского автомобилестроения. Еще раз скоростной лимит был повышен в 1903 году, а окончательно законы 1896 и 1903 годов были отменены в Великобритании только в 1930 году.
  3. +1
    18 марта 2021 05:48
    Третью военную революцию, по-хорошему, лучше отменить.
    Хорошо бы, но увы...
    Или выработать совместные ограничительные меры по разработке и использованию ИИ в военной сфере
    Это вряд ли. Слишком явные преимущества даёт разработка и внедрение автоматизированных систем. И контролировать процессы создания ИИ в разы труднее, чем создание и распространение ЯО.
    Думаю, что в ближайшем будущем каких-то соглашений в этом направлении не будет. Если уж США и Россия до сих пор не подписали и не ратифицировали Оттавский договор о противопехотных минах...
  4. 0
    18 марта 2021 06:19
    Виноват во всем Аристотель. Из его силлогистики все началось.
  5. +12
    18 марта 2021 06:24
    Генералы устало улыбнулись.
    Они посмотрели друг на друга и испустили радостный вопль. Армагеддон был выигран и силы Сатаны побеждены.
    Но на их телевизионных экранах что-то происходило.
    — Как! Это же… это… — начал генерал Мак-Фи и умолк.
    Ибо по полю брани между грудами исковерканного, раздроблённого металла шествовала Благодать.
    Генералы молчали.
    Благодать коснулась изуродованного робота.
    И роботы зашевелились по всей дымящейся пустыне. Скрученные, обгорелые, оплавленные куски металла обновлялись.
    И роботы встали на ноги.
    — Мак-Фи, — прошептал верховный главнокомандующий Феттерер. — Нажмите на что-нибудь — пусть они, что ли, на колени опустятся.
    Генерал нажал, но дистанционное управление не работало.
    А роботы уже воспарили к небесам. Их окружали ангелы господни, и роботы-танки, роботопехота, автоматические бомбардировщики возносились всё выше и выше.
    — Он берёт их заживо в рай! — истерически воскликнул Онгин. — Он берёт в рай роботов!
    — Произошла ошибка, — сказал Феттерер. — Быстрее! Пошлите офицера связи… Нет, мы поедем сами.
    Мгновенно был подан самолёт, и они понеслись к полю битвы. Но было уже поздно: Армагеддон кончился, роботы исчезли, и Господь со своим воинством удалился восвояси.(с) Р.Шекли "Битва"
    1. +3
      18 марта 2021 08:21
      Мой любимый рассказ! :)
  6. +2
    18 марта 2021 09:36
    Слава роботам! Убить всех человеков! (с) Орихиме Иноуэ
    1. +2
      18 марта 2021 10:36
      Эээ, а каким боком (с)? Вообще-то это переводчики Футурамы прославились laughing
      1. 0
        18 марта 2021 13:49
        Я знаю, но Орихиме однажды нарисовала эпическую картину про будущее... с роботом laughing
    2. +4
      18 марта 2021 15:32
      Цитата: Kolin

      Слава роботам! Убить всех человеков! (с) Орихиме Иноуэ


      Орихиме всё-таки была миролюбивой и по мере своих способностей
      лечила и даже воскрешала.

      А вот если программисты способны на всякое, то чего ещё ожидать от ИИ?



      В письме, отправленном с Иркутского авиазавода "Иркут" гендиректору петербургского ОКБ "Электроавтоматика", говорилось о странной безымянной кнопке, при нажатии на которую на экране пульта высвечивалась надпись "Слава роботам! Убить всех человеков".


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
    3. +1
      18 марта 2021 23:27
      Цитата: Kolin
      Слава роботам! Убить всех человеков! (с) Орихиме Иноуэ


      Должен быть закон что бы
      Кнопку "Убить всех человеков"
      делать красной.
      Это предотвратит случайное нажатие.
  7. +7
    18 марта 2021 10:55
    В следующей мировой войне понятий военное преступление и преступление против человечности не будет, поэтому не смотря на ряд недостатков, тот кто будет обладать большим числом печатаемых автономных убийц, будет победителем.
    1. 0
      19 марта 2021 23:11
      В следующей мировой войне понятий военное преступление и преступление против человечности не будет, поэтому не смотря на ряд недостатков, тот кто будет обладать большим числом печатаемых автономных убийц, будет победителем.

      А потом автономные убийцы убьют победителей, они же автономные или нет?
  8. +2
    18 марта 2021 11:16
    Человек на войне устает, теряет концентрацию, постоянно испытывает стресс, может быть растерян, жаждать мести, просто хотеть убивать. А еще человеческое восприятие крайне несовершенно и подвержено множеству психофизиологических нарушений. Но он может принимать решения об открытии огня!
    А вот бесстрастный и никогда не устающий робот - о нет, никогда! laughing
    Понятно, что нынешний ИИ просто не потянет задачу, но в недалеком будущем именно роботы будут все решать.
    1. +1
      18 марта 2021 23:42
      Цитата: Sahalinets
      Человек на войне устает, теряет концентрацию, постоянно испытывает стресс, может быть растерян, жаждать мести, просто хотеть убивать. А еще человеческое восприятие крайне несовершенно и подвержено множеству психофизиологических нарушений. Но он может принимать решения об открытии огня!
      А вот бесстрастный и никогда не устающий робот - о нет, никогда! laughing
      Понятно, что нынешний ИИ просто не потянет задачу, но в недалеком будущем именно роботы будут все решать.


      Что бы победить ->
      нужно применить / использовать как можно больше роботов ->
      для этого их производство должно быть максимально простым ->
      самый простой ИИ сможет идентифицировать живого человека, но не сможет определять гражданский или комбатант.

      На выходе получаем оружие массового поражения с ИИ.
  9. +2
    18 марта 2021 13:31
    ИИ развивать имеет смысл. Только в первую очередь ему следует привить абсолютную лояльность своей стране. И, конечно, изначально не закладывать в него возможность открытия огня. Нажатие на кнопку и принятие решения всегда должны быть за человеком.
    1. 0
      18 марта 2021 16:56
      ему следует привить абсолютную лояльность своей стране
      Питание от батарей на квасе сделать wassat Или на кока коле laughing
    2. +1
      18 марта 2021 23:56
      Цитата: Басарев
      ИИ развивать имеет смысл. Только в первую очередь ему следует привить абсолютную лояльность своей стране. И, конечно, изначально не закладывать в него возможность открытия огня. Нажатие на кнопку и принятие решения всегда должны быть за человеком.


      Оператор управляет 1000 роботов,
      У него на экране вываливаются окна запроса
      "обнаружена цель. Уничтожить ? Да / Нет"
      Оператор зажимает кнопку "Д"...

      Сейчас применяют беспилотники,
      решение об ударе принимает оператор.
      Вместо колонны террористов удар наносится по свадебным кортежам.

      Для военных проще выпустить роботов на территорию где гарантированно отсутствуют "свои". Определив что все цели в заданном периметре считать как вражеские.
      Аналог применения кассетного вооружения.

      Кассетные бомбы применяют никого совесть не мучает, а эта новая "игрушка" для военных тоже самое но ещё более эффеутивна. Они такое любят.
  10. +1
    18 марта 2021 13:43
    И пока одни бьются над вопросом морально ли это, другие бьются над вопросом как быстрее выйти с этим на рынок потребления...Я даже знаю кто будет быстрее.
    1. +1
      18 марта 2021 17:41
      Быстрее будет внедрение в массы на рынок, в наше время, когда человек вновь стал волком человеку, горькая мораль пускает тихую слезу.
      1. +1
        18 марта 2021 18:01
        Мораль по сути предельно абсолютна, а вот у индивидуальной аморальности нет предела. Эт да.
        1. +1
          18 марта 2021 18:15
          Правильнее на злобу дня сказать о коллективной аморальности, в отсутствии внятных ценностей и идеи. Предельный абсолют канул в лета, увы.
          1. +2
            18 марта 2021 18:24
            Ну...это...бабло побеждает зло.
  11. +2
    18 марта 2021 17:26
    Вопрос конечно интересный-на том же западе уже много раз выносили предупреждения и прогнозы с разных сторон общества об недопустимости вооружении ИИ. Даже в видеоиграх это наглядно представлено( Horizon zero dawn), в краце-ии без бекдоров тупа ловит глюк и понеслась планета к вымиранию, и вымерла до каменюки(ну там упрощений и дыр много конечно), но главное без надежного бекдора по отключению ии никак не обойтись. И чтото подсказывает что янки конечно же зафейлятся с этим делом и мы еще скайнет увидим.
  12. +1
    18 марта 2021 17:39
    Вот опять ИИ, совершенно непонятно как нейронные сети вяжутся с грозным и могучим ИИ будущего. Нет никакого ИИ, машины и алгоритмы не думают, ИИ годится для масс-медиа, зачем тут засорять головы товарищам?
  13. 0
    18 марта 2021 20:20
    Какой-то адовый треш. Полностью автономные Bayraktar не нанесли бы ни одного удара, потому что не смогли бы соориентироваться в пространстве. Где находимся, куда лететь. В первую очередь не решена задача банального определения своей позиции. Дальше нужно будет решить задачу распознавания. Это выделение деталей геометрии в отдельные объекты, присвоение им своего собственного имени. Дальше нужно будет решить задачу взаимодействия с выделенным объектом. Причем здесь моральная сторона, если не решены базовые технические вопросы?
  14. 0
    20 марта 2021 10:19
    Есть чёткий критерий: как только будет доказано, что ИИ обеспечивает существенно меньшую вероятность ошибочных решений, чем минимально достижимый уровень ошибок человека-оператора, так рационально будет передача решений ИИ.
  15. 0
    21 марта 2021 22:05
    Третью военную революцию, по-хорошему, лучше отменить


    Человечество доиграется. История развивается по спирали. Как бы через несколько сотен тысяч лет очередные исследователи опять не морщили лоб с вопросом: " И кто это построил такие пирамиды?" И будут копаться на наших мусорных свалках, погребённых под многометровым слоем песка вопрошая:" Была великая цивилизация, но куда-то делась... . Что же случилось?"

    А случилось вот что: победила жадность, тщеславие и зависть. А мы проиграли. Все.