Военное обозрение

Третья военная революция: машинный интеллект не должен быть с оружием

72

Источник: armflot.ru


Главный тренд XXI века


Несмотря на всю неопределенность самого термина «искусственный интеллект» (далее ИИ), все предпосылки к появлению высокопроизводительных и самообучающихся боевых систем в армиях мира давно созданы.

Если бы ИИ не существовал, его все равно пришлось бы придумать. Сейчас практически во всех сферах человеческой жизни ежесекундно генерируется гигантский объем информации, которую просто нечем перерабатывать.

И военное дело здесь далеко не исключение – достаточно вспомнить конфликт в Нагорном Карабахе, чтобы понять истинные масштабы информационной насыщенности военных действий.

Поток фото-, видео- и радиолокационных данных, а также аудио- и текстовых сообщений становятся главными на поле. Только сейчас можно перефразировать известное выражение

«Кто владеет информацией, владеет миром»

в современное

«Кто умеет быстро анализировать информацию, владеет миром».

А для оперативной обработки «больших данных» (или big data) требуются очень серьезные технологии. Такие как искусственные нейронные сети, способные к самообучению без участия оператора. Важные преимуществом нейронных сетей является способность выявлять закономерности на основании данных, отсутствующих в изначальном обучающем коде.

Для военных особую важность играет потенциальное умение ИИ работать с неполными, «зашумленными» или искаженными данными. Именно поэтому в настоящее время нейронные сети с глубоким обучением ждут в системах видовой разведки для быстрого анализа видео- и фотоматериалов. Как отмечают в военных ведомствах, задачи, на которые уходили месяцы работы десятков дешифраторов, ИИ решает за секунды.


Источник: i.pinimg.com

Однако простой анализ массивов данных уже даже сейчас кажется недостаточным для военных операций – требуется

«прогнозирование возможных действий»

и

«прогнозирование ответных реакций»

потенциальной цели.

На основании данных «умозаключений» оператор будет принимать решение об открытии огня. Это серьезно ускорит ход наступательных операций.

Для примера – несколько лет назад в ходе операции «Несокрушимая свобода» беспилотник MQ-1 Predator вышел на вражескую колонну техники. Но пока оператор оценивал принадлежность и решался на запуск ракеты, техника вышла из зоны поражения. И это далеко не единственный пример.

Применение ИИ в данном случае позволило бы оперативно составить прогноз относительно перспектив и времени нанесение удара. Но и здесь есть подводные камни.

Комитет Красного Креста серьезно обеспокоен внедрением ИИ в беспилотную технику и (самое главное) уровнем доверия ему со стороны человека. Например, может ли человек, копающий землю недалеко от дороги, быть с надежностью определен как лицо, устанавливающее самодельное взрывное устройство, исключительно на основании анализа видеосигнала нейронными сетями?

Сейчас операторы ударных дронов сплошь и рядом не осознают реальности происходящего на поле боя (Playstation mentality). А если им в этом будет помогать ИИ?

И без того заметно упрощенная задача уничтожения, станет еще проще для исполнения.

Автоматизируй это!


Технологические и стратегические вызовы заставляют мировые державы постепенно переводить армии на рельсы робототехники.

К примеру, в США «Третья компенсационная стратегия» обещает превратить вооруженные силы в армию роботов уже через тридцать лет. А через десять лет у Пентагона каждый третий самолет будет беспилотным.

В России также стараются не отставать. И планируют в ближайшие годы принять в армию несколько десятков новых образцов вооружений на удаленном управлении. Однако ни в США, ни в России до сих пор нет полноценных разведывательных и ударных систем, управляемых ИИ. Во многом это связано с кризисом ответственности. Если с ошибками первого рода, то есть неверно отмененные удары по противнику, еще как-то можно смириться, то с ошибками второго рода все гораздо сложнее. В последнем случае машина решается либо на «дружественный огонь» (Friendly fire), либо уничтожает гражданских, то есть совершает военное преступление.


Источник: popmeh.ru

В этой ситуации до конца не понятно, кто несет ответственность за такое деяние – разработчик ПО или командир, отдавший приказ на использование системы.

Схожая ситуация сложилась в автомобильной отрасли, в которой уже несколько десятилетий грезят полностью автономными дронами. Была даже разработана классификация уровней автоматизации, вполне применимая для военной сферы.

На нулевом уровне автомобиль представляет собой условный УАЗ-496, в котором все подконтрольно водителю и отсутствуют мехатронные помощники – ESP, ABS и т.д.

На высшем пятом уровне у колесного дрона даже рулевое колесо отсутствует (либо установлено в качестве платной опции). И во всех ситуациях движение контролируется автопилотом. В настоящее время только японская Honda смогла сертифицировать серийный автопилот третьего уровня.

Эта техника «условной автоматизации» не способна брать на себя управление в опасной ситуации. Да и в обычных условиях работает далеко не всегда. Система Traffic Jam Pilot автопилотирует машину в пробках, удерживает в пределах полосы на автомагистрали и осуществляет обгоны. Руки с руля убрать можно, но вот взгляд с дороги отводить нельзя – за этим следят камеры. Автопилот третьего уровня очень недешев и повышает итоговую стоимость машины в полтора раза.

При этом стоит помнить, автопилоты уже сейчас можно полноценно внедрять в серийное производство. И они действительно серьезно снизят смертность на дорогах. Но вот юридические и этические проблемы от ошибок (в том числе и смертельных) ИИ ставят автокомпании в тупик.

ИИ не должен быть с оружием


В военной сфере ситуация с разработками полностью автономных боевых систем также далека до идеала.

И дело даже не в техническом аспекте вопроса.

С одной стороны, эксперты-скептики указывают на потенциальную способность самообучающихся систем на нейронных сетях наносить упреждающие удары. К примеру, ИИ увидит у противника реальную или мнимую уязвимость – чем это не повод нанести первый обезоруживающий удар? В дополнение к этому все «искусственные мозги» склонны к состязательности и отсутствию элементов критического мышления, что также не добавляет доверия со стороны человека.

Аналитики из RAND Corporation, вообще, призывают ни в коем случае не доверять военно-стратегические решения искусственному разуму – ни в настоящем, ни в будущем. Если с уничтоженными по ошибки ИИ несколькими нонкомбатантами условно еще можно смириться, то в приложении к силам ядерного сдерживания все пройдет гораздо трагичнее.

Не все так просто и с оперативно-тактическим оружием под управлением ИИ.

Вернемся к кадрам из Нагорного Карабаха, наглядно иллюстрировавших техническое превосходство ударных дронов над традиционным вооружением. Здесь все понимали, что в небе всего лишь дистанционно управляемые машины, пусть и очень совершенные.

Какова была бы реакция публики, если бы удары наносили полностью автономные Bayraktar?

Когда ИИ в прямом эфире на весь мир убивал бы людей, пусть и с оружием в руках?

Моральная сторона вопроса здесь до сих пор не решена. И вряд ли будет разрешена в ближайшем будущем.

Третья военная революция: машинный интеллект не должен быть с оружием
Источник: mil.ru

Вообще, роботы в армии – это, конечно, хорошо.

Они позволяют выводить солдат из-под непосредственного огня противника, передавая всю работу боевым единицам на дистанционном управлении. Снижаются потери и затраты. И война вроде как становится гуманнее.

Полностью автономное роботы в военной сфере или Lethal Autonomous Weapon Sysytem – это совсем не про гуманность и снижение потерь. Нейронные сети глубинного обучения делают войну гораздо более скоротечной и с большим количеством жертв. Собственно, именно это и обеспечили две предыдущие военные революции в военном деле – пороховая и ядерная.

Это понимают многие гражданские корпорации, занятые вместе с государством в оборонных проектах.

Так, Google в 2018 году вышел из крайне выгодного проекта Maven стоимостью более 7,5 млрд долларов. Спецы из Силиконовой долины вместе с DARPA работали над программой обработки видео- и фотомассивов информации от многочисленных разведывательных беспилотников. Данные обрабатывала нейронная сеть. И выдавала оператору «библиотеку целей» в порядке приоритета для уничтожения. Google вышел из истории. И сейчас DARPA пытается самостоятельно справиться.

Немаловажным аспектом ИИ в армии является использование его в информационной войне.

Можно с определенной долей уверенности говорить, что в самое ближайшее время из США просто посыплются очередные разоблачения России и (в большей степени) Китая в разработке боевого искусственного разума. Если не получается убедить публику внутри страны в необходимости автономного военного разума, то тогда будем пугать внешними врагами. Такой логикой Пентагон славится издревле. Дескать, у них уже во всю идет работа над ИИ, а мы тут с собственной моралью справиться не можем.

И наконец, вполне перспективным выглядят ассиметричные ответы на угрозы боевого ИИ. Сейчас набирают силу технологии маскировки объектов от всевидящего ока искусственного разума и даже намеренного введения в заблуждение.

Пока ИИ сносно работает в мирных условиях, когда информация подается на блюдечке.

Совсем плохо получается функционировать с неполными и зашумленными данными. Поэтому вполне логичным выглядят попытки ввести в заблуждение машинный интеллект заведомо откорректированными данными. Когда время реагирования вооруженного ИИ исчисляется секундами и не зависит от мнения человека, такая дезинформация может привести к сложно предсказуемым последствиям.

Третью военную революцию, по-хорошему, лучше отменить.

Или выработать совместные ограничительные меры по разработке и использованию ИИ в военной сфере. Удалось ведь что-то подобное провернуть в случае с ядерным оружием?
Автор:
72 комментария
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. Intruder
    Intruder 18 марта 2021 03:42
    +2
    Хм, интересная подача!!! Автору надо сделать продолжение...(и немного капнуть в сторону, особенно в области нейронных алгоритмов и машинного обучения, для полноты картины с аспектами ИИ)!?
    1. Uncle Lee
      Uncle Lee 18 марта 2021 04:52
      +1
      ИИ не должен быть с оружием
      Иначе придет Скайнет !
      1. Intruder
        Intruder 18 марта 2021 05:06
        +3
        Иначе придет Скайнет !
        таки уже, оптимизация управления swarm(ом) с конфигурируемой селекцией и приоритетами для атаки множественных целей, лучше всего с подобными вещами справляются гибкие нейроморфные алгоритмы, а машинное обучение дополняет их просто, плюс можно и копировать на массовые решения в будущем с продажей именно версий софта и подписок на обновление, для клиентов - оператор вооружений на рынке!? Оптимальная монетизация, с постоянной модернизацией за период жизненного цикла самого продукта и длительным периодом поддержки, как сейчас с прошивками девайсов делают на фабрике, и никто не заморачивается, с потенциальным развитием до Скайнета этого, воспетого в масс-медиа, тем более дешевая промышленная робототехника выигрывает у "органических" сотрудников, которые в прошлом году немного снизили эффективность своего труда, как-то внезапно...!? winked
    2. Винни76
      Винни76 18 марта 2021 12:04
      +1
      Цитата: Intruder
      и немного капнуть в сторону,

      Боюсь даже спросить, из какого изделия будем капать laughing
      Цитата: Intruder
      особенно в области нейронных алгоритмов и машинного обучения, для полноты картины с аспектами ИИ)!?

      Алгоритм простой. Называется проверочное слово. В вашем случае очевидно ''капля''
      1. Intruder
        Intruder 18 марта 2021 13:24
        +1
        В вашем случае очевидно ''капля''
        скорее всего, не в моем случае winked , автозамена с проверкой орфографии порой "парится", на разных русских словах, в одном приложении на: macOS 11 Big Sur (c последним апдейтом: v.11.2.3)! request
      2. dsk
        dsk 18 марта 2021 13:43
        0
        Цитата: Винни76
        Алгоритм простой.
        Удалось ведь что-то подобное провернуть в случае с ядерным оружием? Евгений Федоров.
        Сейсмологи могут отличить испытание ЯО от естественного землетрясения.
        Чем и как контролировать применение ИИ в боевых действиях...
        1. Intruder
          Intruder 18 марта 2021 20:40
          0
          Чем и как контролировать применение ИИ в боевых действиях...
          пока, только другим "ЕИ", с погонами и перед монитором терминала боевого управления!!!
  2. Пиджак в запасе
    Пиджак в запасе 18 марта 2021 05:11
    +3
    Когда ИИ в прямом эфире на весь мир убивал бы людей, пусть и с оружием в руках?

    Моральная сторона вопроса здесь до сих пор не решена

    Т.е. когда в прямом эфире людей убивают другие люди - это с моральной стороны нормально?!
    1. А. Привалов
      А. Привалов 18 марта 2021 05:44
      0
      Цитата: Пиджак в запасе
      Т.е. когда в прямом эфире людей убивают другие люди - это с моральной стороны нормально?!

      Конечно же нет, но вот она, моральная проблема налицо! Мы всего лишь современные люди, "отягощенные" современным пониманием морали. И это хорошо. hi
      1. dsk
        dsk 18 марта 2021 18:56
        0
        Цитата: А. Привалов
        И это хорошо

        Здравствуйте профессор! Конечно хорошо, но ИИ снимает это "отягощение". Крайними будут роботы, что возьмёшь с бездушной "железяки"...
        1. А. Привалов
          А. Привалов 18 марта 2021 20:33
          +4
          И вам, здравствовать. hi
          Я не профессор, а лишь доцент.

          С железяки спросу нет. Железяки сраму не имут. Отдуваться будут те, кто без серьезных на то причин, примет решение пустить их в ход. Это только сегодня, пока человечество не имея опыта использования оружия такого рода сочиняет для себя сладкую сказку. Со временем всё устаканится. Может быть, кое-что и запретят, как негуманное, как когда-то боевые ОВ. Может быть, что-то ограничат, скажем, роботы проведут подготовку, а решение на открытие огня по людям будет принимать человек. и т.д. Всё равно, будут и ошибки, будут возникать разного рода правовые и философские коллизии. Остаётся лишь надеяться, что человечество с ИИ не загонит себя само в какую-нибудь ловушку, о каких много писали фантасты.
    2. Intruder
      Intruder 18 марта 2021 20:43
      0
      Т.е. когда в прямом эфире людей убивают другие люди - это с моральной стороны нормально?!
      это не нормально, в своей сути, но часто приходится "принуждать к миру" и делать грязно-кровавую работу, что-бы: "любимый город мог спать спокойно...", а кто думает по-другому, тех после психологического тестирования не берут в "интересные части и силы"... laughing wink
    3. Икар
      Икар 19 марта 2021 23:05
      0
      Цитата: Пиджак в запасе
      Когда ИИ в прямом эфире на весь мир убивал бы людей, пусть и с оружием в руках?

      Моральная сторона вопроса здесь до сих пор не решена

      Т.е. когда в прямом эфире людей убивают другие люди - это с моральной стороны нормально?!

      Конечно это ненормально, если это не было самообороной или военными действиями, когда убивать допускается с моральной стороны. Но, во-первых, убивающий (если он вменяемый) понимает, что может наступить ответственность, в этом мире (перед обществом или перед сами собой) или в другом мире,возможно, - перед Богом, во-вторых, у убийцы есть риск, что "жертва", тоже может убить убийцу. Это все является сдерживающими факторами. И те кто смотрят в онлайн, тоже понимают, что убийца скорее всего подвергнется каре (даже если он невменяемый). Если же убийца - ИИ, во-первых, нет указанных сдерживающих факторов, во-вторых, зрители в онлайн тоже понимают, что осуществляется безнаказанное, перед человечеством деяние, но при этом оно сознательное, то есть убийство человека осознанное (не метеорит) и безнаказанное. Ценность человеческой жизни, в глазах самих людей, постепенно утрачивается. Следовательно мораль изменяется. Мы все будем понимать, что есть сущность, которая сама решает кому жить, а кому нет, по своему усмотрению и по своим правилам, которые могут измениться по его усмотрению (ИИ же саморазвивающийся). И вообще непонятно, способен ли ИИ, получивший задание убить людей (не имеющего запрограммированного запрета на убийство человека), пощадить человека-жертву, например, капитулирующего. Это далеко не все вопросы к применению ИИ в качестве орудия убийства людей.
      По-моему, пора бы уже ООН как минимум назначать комиссию для разработки правили и норм (робот или ИИ не должен принимать решение на убийство человека без участия другого человека) или установления полных запретов в отношении ИИ как орудия убийства людей, да и иных живых существ.
  3. А. Привалов
    А. Привалов 18 марта 2021 05:31
    +4
    .А для оперативной обработки «больших данных» (или big bata) требуются очень серьезные технологии.
    Прекрасная оговорка. Почти по Фрейду:"big bata" -- на филиппинском "большой ребёнок".
    Безусловно, человечеству придётся решать ещё проблемы связанных с ИИ. Военная сфера лишь одна из многих. Причем какими-то половинчатыми ограничениями ограничиться не удастся. Прогресс уже не остановить. "Железный конь идёт на смену крестьянской лошадке"(с)
    . В 1865 году парламентом Великобритании был принят закон, по которому скорость транспорта была ограничена 6 км/ч, а перед автомобилем должен был идти человек, размахивая красным флагом. Последний пункт был упразднен в 1878 году. По другим данным, правило «красного флага» было отменено только в 1896 году, вместе с повышением ограничения скорости до 23 км/ч и упразднением требования наличия экипажа из трех человек (машинист, помощник и кочегар) для легкомоторных (до 3 т снаряжённой массы) безлошадных транспортных средств, то есть было юридически признано отличие автомобилей от локомотивов, что дало толчок развитию британского автомобилестроения. Еще раз скоростной лимит был повышен в 1903 году, а окончательно законы 1896 и 1903 годов были отменены в Великобритании только в 1930 году.
    1. Intruder
      Intruder 18 марта 2021 13:30
      +1
      Безусловно, человечеству придётся решать ещё проблемы связанных с ИИ
      Конечно, иначе будет иметь даже в локальных (вооруженного конфликта, с ограничениями на применение летального оружия) применениях, много неприятных моментов: "baby butt"! wink
  4. тасха
    тасха 18 марта 2021 05:48
    +1
    Третью военную революцию, по-хорошему, лучше отменить.
    Хорошо бы, но увы...
    Или выработать совместные ограничительные меры по разработке и использованию ИИ в военной сфере
    Это вряд ли. Слишком явные преимущества даёт разработка и внедрение автоматизированных систем. И контролировать процессы создания ИИ в разы труднее, чем создание и распространение ЯО.
    Думаю, что в ближайшем будущем каких-то соглашений в этом направлении не будет. Если уж США и Россия до сих пор не подписали и не ратифицировали Оттавский договор о противопехотных минах...
  5. sergo1914
    sergo1914 18 марта 2021 06:19
    0
    Виноват во всем Аристотель. Из его силлогистики все началось.
  6. parusnik
    parusnik 18 марта 2021 06:24
    +12
    Генералы устало улыбнулись.
    Они посмотрели друг на друга и испустили радостный вопль. Армагеддон был выигран и силы Сатаны побеждены.
    Но на их телевизионных экранах что-то происходило.
    — Как! Это же… это… — начал генерал Мак-Фи и умолк.
    Ибо по полю брани между грудами исковерканного, раздроблённого металла шествовала Благодать.
    Генералы молчали.
    Благодать коснулась изуродованного робота.
    И роботы зашевелились по всей дымящейся пустыне. Скрученные, обгорелые, оплавленные куски металла обновлялись.
    И роботы встали на ноги.
    — Мак-Фи, — прошептал верховный главнокомандующий Феттерер. — Нажмите на что-нибудь — пусть они, что ли, на колени опустятся.
    Генерал нажал, но дистанционное управление не работало.
    А роботы уже воспарили к небесам. Их окружали ангелы господни, и роботы-танки, роботопехота, автоматические бомбардировщики возносились всё выше и выше.
    — Он берёт их заживо в рай! — истерически воскликнул Онгин. — Он берёт в рай роботов!
    — Произошла ошибка, — сказал Феттерер. — Быстрее! Пошлите офицера связи… Нет, мы поедем сами.
    Мгновенно был подан самолёт, и они понеслись к полю битвы. Но было уже поздно: Армагеддон кончился, роботы исчезли, и Господь со своим воинством удалился восвояси.(с) Р.Шекли "Битва"
    1. пехотинец2020
      пехотинец2020 18 марта 2021 08:21
      +3
      Мой любимый рассказ! :)
  7. Kolin
    Kolin 18 марта 2021 09:36
    +2
    Слава роботам! Убить всех человеков! (с) Орихиме Иноуэ
    1. vadimtt
      vadimtt 18 марта 2021 10:36
      +2
      Эээ, а каким боком (с)? Вообще-то это переводчики Футурамы прославились laughing
      1. Kolin
        Kolin 18 марта 2021 13:49
        0
        Я знаю, но Орихиме однажды нарисовала эпическую картину про будущее... с роботом laughing
    2. Minato2020
      Minato2020 18 марта 2021 15:32
      +4
      Цитата: Kolin

      Слава роботам! Убить всех человеков! (с) Орихиме Иноуэ


      Орихиме всё-таки была миролюбивой и по мере своих способностей
      лечила и даже воскрешала.

      А вот если программисты способны на всякое, то чего ещё ожидать от ИИ?



      В письме, отправленном с Иркутского авиазавода "Иркут" гендиректору петербургского ОКБ "Электроавтоматика", говорилось о странной безымянной кнопке, при нажатии на которую на экране пульта высвечивалась надпись "Слава роботам! Убить всех человеков".


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
      1. Intruder
        Intruder 18 марта 2021 20:45
        +2
        говорилось о странной безымянной кнопке, при нажатии на которую на экране пульта высвечивалась надпись "Слава роботам! Убить всех человеков".
        Пасхалка!? fellow , с черным юморком разработчиков!!! winked
    3. Pandiurin
      Pandiurin 18 марта 2021 23:27
      +1
      Цитата: Kolin
      Слава роботам! Убить всех человеков! (с) Орихиме Иноуэ


      Должен быть закон что бы
      Кнопку "Убить всех человеков"
      делать красной.
      Это предотвратит случайное нажатие.
  8. Trapp1st
    Trapp1st 18 марта 2021 10:55
    +7
    В следующей мировой войне понятий военное преступление и преступление против человечности не будет, поэтому не смотря на ряд недостатков, тот кто будет обладать большим числом печатаемых автономных убийц, будет победителем.
    1. Intruder
      Intruder 18 марта 2021 20:46
      +1
      В следующей мировой войне понятий военное преступление и преступление против человечности не будет
      Конечно, ибо уже не будет и самого Человечества... laughing wink
    2. Икар
      Икар 19 марта 2021 23:11
      0
      В следующей мировой войне понятий военное преступление и преступление против человечности не будет, поэтому не смотря на ряд недостатков, тот кто будет обладать большим числом печатаемых автономных убийц, будет победителем.

      А потом автономные убийцы убьют победителей, они же автономные или нет?
  9. Sahalinets
    Sahalinets 18 марта 2021 11:16
    +2
    Человек на войне устает, теряет концентрацию, постоянно испытывает стресс, может быть растерян, жаждать мести, просто хотеть убивать. А еще человеческое восприятие крайне несовершенно и подвержено множеству психофизиологических нарушений. Но он может принимать решения об открытии огня!
    А вот бесстрастный и никогда не устающий робот - о нет, никогда! laughing
    Понятно, что нынешний ИИ просто не потянет задачу, но в недалеком будущем именно роботы будут все решать.
    1. Intruder
      Intruder 18 марта 2021 13:36
      +1
      Понятно, что нынешний ИИ просто не потянет задачу, но в недалеком будущем именно роботы будут все решать.
      он уже многое решает, особенно в жизни обычного человека! Кредитная организация не выдаст вам кредит, без результатов его анализа вашей "кредитной кармы", исследования в областях молекулярной биологии и человеческих белков, там его также много, где применяют, при создании новых поколений лекарственных средств...для борьбы с тяжелыми заболеваниями, особенно с генетическими отклонениями в геноме Человека, после рождения ребенка!!! winked
    2. Pandiurin
      Pandiurin 18 марта 2021 23:42
      +1
      Цитата: Sahalinets
      Человек на войне устает, теряет концентрацию, постоянно испытывает стресс, может быть растерян, жаждать мести, просто хотеть убивать. А еще человеческое восприятие крайне несовершенно и подвержено множеству психофизиологических нарушений. Но он может принимать решения об открытии огня!
      А вот бесстрастный и никогда не устающий робот - о нет, никогда! laughing
      Понятно, что нынешний ИИ просто не потянет задачу, но в недалеком будущем именно роботы будут все решать.


      Что бы победить ->
      нужно применить / использовать как можно больше роботов ->
      для этого их производство должно быть максимально простым ->
      самый простой ИИ сможет идентифицировать живого человека, но не сможет определять гражданский или комбатант.

      На выходе получаем оружие массового поражения с ИИ.
  10. Басарев
    Басарев 18 марта 2021 13:31
    +2
    ИИ развивать имеет смысл. Только в первую очередь ему следует привить абсолютную лояльность своей стране. И, конечно, изначально не закладывать в него возможность открытия огня. Нажатие на кнопку и принятие решения всегда должны быть за человеком.
    1. Болторез
      Болторез 18 марта 2021 16:56
      0
      ему следует привить абсолютную лояльность своей стране
      Питание от батарей на квасе сделать wassat Или на кока коле laughing
    2. Intruder
      Intruder 18 марта 2021 20:50
      +1
      И, конечно, изначально не закладывать в него возможность открытия огня. Нажатие на кнопку и принятие решения всегда должны быть за человеком.
      летальное, с исходом оператора в мир уже Иной!? am И что, бой закончен и все боевые системы пассивно встали!? В этом случае, тогда проще оставить живых и пущай, как и прежде воюют сами, со своими проблемами в мозгах laughing и жмут на гашетки... winked
    3. Pandiurin
      Pandiurin 18 марта 2021 23:56
      +1
      Цитата: Басарев
      ИИ развивать имеет смысл. Только в первую очередь ему следует привить абсолютную лояльность своей стране. И, конечно, изначально не закладывать в него возможность открытия огня. Нажатие на кнопку и принятие решения всегда должны быть за человеком.


      Оператор управляет 1000 роботов,
      У него на экране вываливаются окна запроса
      "обнаружена цель. Уничтожить ? Да / Нет"
      Оператор зажимает кнопку "Д"...

      Сейчас применяют беспилотники,
      решение об ударе принимает оператор.
      Вместо колонны террористов удар наносится по свадебным кортежам.

      Для военных проще выпустить роботов на территорию где гарантированно отсутствуют "свои". Определив что все цели в заданном периметре считать как вражеские.
      Аналог применения кассетного вооружения.

      Кассетные бомбы применяют никого совесть не мучает, а эта новая "игрушка" для военных тоже самое но ещё более эффеутивна. Они такое любят.
  11. ironic
    ironic 18 марта 2021 13:43
    +1
    И пока одни бьются над вопросом морально ли это, другие бьются над вопросом как быстрее выйти с этим на рынок потребления...Я даже знаю кто будет быстрее.
    1. Виктор Ценин
      Виктор Ценин 18 марта 2021 17:41
      +1
      Быстрее будет внедрение в массы на рынок, в наше время, когда человек вновь стал волком человеку, горькая мораль пускает тихую слезу.
      1. ironic
        ironic 18 марта 2021 18:01
        +1
        Мораль по сути предельно абсолютна, а вот у индивидуальной аморальности нет предела. Эт да.
        1. Виктор Ценин
          Виктор Ценин 18 марта 2021 18:15
          +1
          Правильнее на злобу дня сказать о коллективной аморальности, в отсутствии внятных ценностей и идеи. Предельный абсолют канул в лета, увы.
          1. ironic
            ironic 18 марта 2021 18:24
            +2
            Ну...это...бабло побеждает зло.
            1. Intruder
              Intruder 18 марта 2021 20:52
              +1
              Ну...это...бабло побеждает зло.
              и порождает, большее...!? request
              1. ironic
                ironic 18 марта 2021 21:32
                +1
                На самом деле когда как. Бабло это всего лишь средство. Вилкой же можно кушать, а можно глаз выколоть.
                1. Intruder
                  Intruder 18 марта 2021 22:19
                  0
                  Вилкой же можно кушать, а можно глаз выколоть.
                  одним ударом, четыре дырки!? wink
                  На самом деле когда как. Бабло это всего лишь средство
                  согласен, но только в умелых руках, а в неумелых и жадных..., ведет ко злу!!!
                  1. ironic
                    ironic 18 марта 2021 22:38
                    +1
                    Добро и Зло тоже относительные понятия, смотря кому. Я предпочитаю термины конструкция/деструкция.
                    1. Intruder
                      Intruder 18 марта 2021 22:51
                      0
                      Добро и Зло тоже относительные понятия, смотря кому.
                      да Вы, философ!? winked как у великих: "Mundus intelligibĭlis"... hi
                      1. ironic
                        ironic 18 марта 2021 22:56
                        +1
                        Религиозные парадигмы говорят, что мир рассудка присущ чисто духовному существу - Ангелу, но человек состоящий из духовного и материального сложнее Ангела. smile
                      2. Intruder
                        Intruder 19 марта 2021 02:31
                        0
                        но человек состоящий из духовного и материального сложнее Ангела.
                        возможно не сложнее, а гармоничнее сочетает в себе примитивизм материи плоти и бесконечность бытия духа!?
                      3. ironic
                        ironic 21 марта 2021 16:41
                        +1
                        Сложнее, сложнее. Выстроенный трижды по образу духа и по подобию плоти. Хотя нет, вру, первый раз только по образу и дух и плоть, мужчина и женщина. Точно сложней.
  • evgen1221
    evgen1221 18 марта 2021 17:26
    +2
    Вопрос конечно интересный-на том же западе уже много раз выносили предупреждения и прогнозы с разных сторон общества об недопустимости вооружении ИИ. Даже в видеоиграх это наглядно представлено( Horizon zero dawn), в краце-ии без бекдоров тупа ловит глюк и понеслась планета к вымиранию, и вымерла до каменюки(ну там упрощений и дыр много конечно), но главное без надежного бекдора по отключению ии никак не обойтись. И чтото подсказывает что янки конечно же зафейлятся с этим делом и мы еще скайнет увидим.
    1. Intruder
      Intruder 18 марта 2021 20:59
      0
      И чтото подсказывает что янки конечно же зафейлятся с этим делом и мы еще скайнет увидим.
      так ИБы не стоят на месте и с ИИ, эти области кибер-безопасности также получат новое развитие на других рельсах искусственной семантики и т.д., плюс системы контроля доступа, там явно иные будут, со строгой изоляцией процессов и экзоядерной архитектурой и т.д., чтобы бэкдоры, всякие трояны и прочие руткиты, с эксплоитами не резвились, как у себя дома!!! wink
      1. evgen1221
        evgen1221 19 марта 2021 05:10
        +1
        Но глюк и переклин некто не исключает, одно если переклинил станок и попер брак потоком,другое когда слетает с катушек скажем артелерийский дивизион и начинает ровнять город якабы захваченый противником в галюнах ИИ. И как отключить?
        1. Intruder
          Intruder 19 марта 2021 05:56
          +1
          якабы захваченый противником в галюнах ИИ. И как отключить?
          удаленно, по аварийному протоколу, или вообще никак, пока БК не закончится, или энергия для систем управления, техногенный катаклизм в отдельно взятом регионе, с компенсацией пострадавшему мирному населению города и спуск государственных флагов, и прочие вещи которые существуют и сейчас в наше время!!!
          1. evgen1221
            evgen1221 19 марта 2021 06:28
            +1
            Удаленно по ав протоколу?-так этим и ИИ противника может воспользоватся,следовательно только рубильник ручками. БК кончится-а если это яо склад или ещё чего придумают убойного, а если ИИ начнет ломать протоколы исправных машин и они ловя галюны носителя начнут войнушку.Энергия-пока какое нибудь варп ядро через 100500 лет не сядет а покуда терминатор ищет друзей. Про спуск флага вообще молчу-это и живые то не особо воспринимают.
            1. Intruder
              Intruder 19 марта 2021 10:59
              0
              так этим и ИИ противника может воспользоватся,следовательно только рубильник ручками.
              рубильник и спецназ противника может найти и пользоваться им, так что не очень эффективное решение, удаленно с криптографией стойкой, также как и сейчас..., вы сильно знаете случаи проникновения(хотя бы единичные?) или отказ в обслуживании в военных сетях и инфраструктурах, за последние 5-10 лет, так чтобы реально, а не выдумки журналистов всяких, тут и там!? winked
              БК кончится-а если это яо склад или ещё чего придумают убойного
              арсеналы, еще с людьми на ближайшие лет 150-200 будут, роботов там держать если и станут, то либо грузовые платформы, либо на внешнем периметре, "заборы охранять" и ближайшую территорию, воздушное пространство или подземные коммуникации!!! Военные таки, не все полные , хотя и бывают в разных областях...
              Энергия-пока какое нибудь варп ядро через 100500 лет
              загнули с варп-ядром, банально, пока гибридные энергоустановки (с жидким топливом и батареями) или топливные элементы всякие (с сжиженным криогенным...), как уже сейчас внедрять собираются в наземных и подводных системах всяких безэкипажных и роботизированных, а что будет через 100500 лет, это сумрачная фантазия!? laughing
              1. evgen1221
                evgen1221 19 марта 2021 12:19
                +1
                Отказ системы оповещения про в 80х например. Чисто человек принимал решение что это глюк,машина же однозначно начала бы батоны кидать.
                1. Intruder
                  Intruder 19 марта 2021 16:39
                  0
                  Отказ системы оповещения про в 80х например.
                  помню тот случай, но тогда в системе оповещения не использовались технологии нашего времени уже кстати отработанные массовые решения, там были ряд других...и аварийные ситуации могли иметь место быть просто из-за особенностей технологического уровня элементной базы и других "вещей" , гигантский скачек совершили цифровые системы по-сравнению с аналоговыми, по отказоустойчивости сложных систем с множественным дублированием в интеграции кремниевой микроэлектроники...
                  1. evgen1221
                    evgen1221 19 марта 2021 18:57
                    +2
                    Но сам глюк системы как таковой остался, глюк ловят и современные системы, теже купало израильские, а без возможности влияния на конечное решение человеком, машина словившая глюк,видит перед собой угрозу(в её мозгах, на самом деле угрозы нет),и начинает эту угрозу устронять тем чем ей доступно. И что с ней сделаешь? Оружие и право на его применение должно быть за человеком. Машина может и должно лишь оповещать,прогнозировать аналитика но на гажетку только человек, пусть и нажатием одной кнопки или вводом карточки запуская по цепочке протокол агрессии.
                    1. Intruder
                      Intruder 19 марта 2021 21:28
                      0
                      (в её мозгах, на самом деле угрозы нет),и начинает эту угрозу устронять тем чем ей доступно.
                      у органического мозга человека те же проблемы бывают, в стрессовой ситуации в реальных боевых условиях, и с этим как-то свыклись уже, или пытаются компенсируют тренировками и другими вещами...!? laughing wink
                      Машина может и должно лишь оповещать,прогнозировать аналитика но на гажетку только человек, пусть и нажатием одной кнопки или вводом карточки запуская по цепочке протокол агрессии.
                      целые секунды уйдут на реакцию и отработку с принятием решения, нажатия на клавишу или кнопку, с чип-ключом, а за это время гиперзвуковая БЧ глайдера, или разряд энергетического оружия, создаст очаги дымящихся обломков из центра управления БПЛА, или наземными РТК, морскими БЭНС и прочими дронами..., человеческий фактор все портит на корню, очень медленный он(стресс, состояние здоровья локально во время боевого дежурства, алкоголизм/наркотики, банальный подкуп и шантаж...) и в сути не верно использовать его совместно с кибер-системами и ИИ, уже с того света операторы будут наблюдать за развитием событий...
  • Виктор Ценин
    Виктор Ценин 18 марта 2021 17:39
    +1
    Вот опять ИИ, совершенно непонятно как нейронные сети вяжутся с грозным и могучим ИИ будущего. Нет никакого ИИ, машины и алгоритмы не думают, ИИ годится для масс-медиа, зачем тут засорять головы товарищам?
  • Смирнов Михаил
    Смирнов Михаил 18 марта 2021 20:20
    0
    Какой-то адовый треш. Полностью автономные Bayraktar не нанесли бы ни одного удара, потому что не смогли бы соориентироваться в пространстве. Где находимся, куда лететь. В первую очередь не решена задача банального определения своей позиции. Дальше нужно будет решить задачу распознавания. Это выделение деталей геометрии в отдельные объекты, присвоение им своего собственного имени. Дальше нужно будет решить задачу взаимодействия с выделенным объектом. Причем здесь моральная сторона, если не решены базовые технические вопросы?
    1. Intruder
      Intruder 18 марта 2021 21:08
      +1
      Где находимся, куда лететь. В первую очередь не решена задача банального определения своей позиции. Дальше нужно будет решить задачу распознавания. Это выделение деталей геометрии в отдельные объекты, присвоение им своего собственного имени. Дальше нужно будет решить задачу взаимодействия с выделенным объектом. Причем здесь моральная сторона, если не решены базовые технические вопросы?
      навигационные системы и современная авионика, милейший!? вы с какого века к нам переместились, не ради сарказма и негатива с моей стороны drinks , но читая ваш комментарий вкрались ряд некоторых подозрений!? request У меня телефон, при изменении геолокации своей в куртке, меняет уровень звука на входных вызовах, и при подъезде к дому включает сам, отключенный при выходе за дверь - WLAN, и другие нужные вещи делает, по своему изменению положения в пространстве!? А что может сделать, в моей машине отдельный модуль OpenHAB, я промолчу, ибо не публичная информация.., сорри!!!
      1. region58
        region58 19 марта 2021 02:29
        0
        Цитата: Смирнов Михаил
        Какой-то адовый треш

        Цитата: Intruder
        читая ваш комментарий вкрались ряд некоторых подозрений!

        Если комментарий читать внимательно, то можно увидеть слово "автономные", и вот тут уже "не всё так однозначно"(с). Взять хотя бы широко разрекламированный автопилот Теслы - косяк на косяке... и это в двух измерениях с подробнейшими картами дорог. Просто ситуаций в жизни гораздо больше чем их можно заранее описать, а думать они все таки не умеют. Так что если незнакомая ситуация - тупик с теми или иными последствиями. Тот же Байрактар не отличит бревно от пушки а пляжный зонтик от РЛС... А телефон... да (не дай бог, конечно) отнимут телефон, могут и палец для отпечатка прихватить, и будет умнейший телефон открывать двери и включать телевизор уже другим людям. Естественно не ради сарказма и негатива с моей стороны. hi
        1. Intruder
          Intruder 19 марта 2021 02:42
          0
          А телефон... да (не дай бог, конечно) отнимут телефон, могут и палец для отпечатка прихватить
          после ампутации пальца его дерма изменяется, может и не сработать, если только не быстрая заморозка его и правильная...!!!
          1. region58
            region58 19 марта 2021 02:48
            +1
            Цитата: Intruder
            после ампутации пальца его дерма изменяется

            Ну тогда можно быть спокойным. Но я не о том. Просто то что сейчас называют громким соловом "искусствнный интеллект" никаким интеллектом не является, если разобраться.
            1. Intruder
              Intruder 19 марта 2021 03:38
              0
              Просто то что сейчас называют громким соловом "искусствнный интеллект" никаким интеллектом не является, если разобраться.
              в некоторой части согласен, просто сейчас больше "пиарят" технологию саму, что тоже надо делать для развития и привлечения инвестиций в ее становление массовое, но скрывая все достоинства и недостатки, которые неизбежны на разных этапах ее развития, и плюс много неверной информации выбрасывают на публику...
              1. region58
                region58 19 марта 2021 04:22
                0
                Цитата: Intruder
                много неверной информации выбрасывают на публику

                Я бы даже сказал что в основном неверной... Но, да, реклама, туды её в качель...
        2. Intruder
          Intruder 19 марта 2021 02:46
          0
          Взять хотя бы широко разрекламированный автопилот Теслы - косяк на косяке... и это в двух измерениях с подробнейшими картами дорог.
          вот по-этому, у них долгий период тестирования в разных ситуациях, кроме этого с пользовательского опыта, у каждой машины телеметрия в реал-тайме льется на серверы, кстати Маск уже хочет перейти на машинное зрение и отказаться от лидаров и прочей активной локации объектов, там явно машинное обучение плоды дает...
          1. region58
            region58 19 марта 2021 02:57
            +1
            Цитата: Intruder
            машинное зрение

            Зрение, ориентация в пространстве, идентификация объектов - естественные и простые (на первый взгляд)для человека, и крайне сложные процессы для машин и вычислительных систем. А уж принимать решения на их основе... это даже у человека не всегда получается.
            1. Intruder
              Intruder 19 марта 2021 03:42
              0
              Зрение, ориентация в пространстве, идентификация объектов - естественные и простые (на первый взгляд)для человека
              ну 100 млрд. нейронов, на частоте в 1кГц это усредненная частота передачи между нейронами в человеческом мозге импульсов , как то пока справляются у большинства людей!? wink laughing Плюс органический мозг хоть и сложный аналоговый вычислитель, но не самый совершенный при этом..., в нем также много проблем с восприятием реальности и ситуаций возникающих в ней!!!
              1. region58
                region58 19 марта 2021 04:26
                +1
                Цитата: Intruder
                100 млрд. нейронов

                Посмотрите на досуге. Некоторые моменты, на мой взгляд, спорные, но крайне познавательно.
  • viktor_47
    viktor_47 20 марта 2021 10:19
    0
    Есть чёткий критерий: как только будет доказано, что ИИ обеспечивает существенно меньшую вероятность ошибочных решений, чем минимально достижимый уровень ошибок человека-оператора, так рационально будет передача решений ИИ.
  • Podvodnik
    Podvodnik 21 марта 2021 22:05
    0
    Третью военную революцию, по-хорошему, лучше отменить


    Человечество доиграется. История развивается по спирали. Как бы через несколько сотен тысяч лет очередные исследователи опять не морщили лоб с вопросом: " И кто это построил такие пирамиды?" И будут копаться на наших мусорных свалках, погребённых под многометровым слоем песка вопрошая:" Была великая цивилизация, но куда-то делась... . Что же случилось?"

    А случилось вот что: победила жадность, тщеславие и зависть. А мы проиграли. Все.