Нотки человеческого разума: американцы хотят изменить военный искусственный интеллект

55
Нотки человеческого разума: американцы хотят изменить военный искусственный интеллект
Источник: vgtimes.ru


Цифровая дегуманизация отменяется?


Для начала предостережение от борцов с военным искусственным интеллектом:



«Машины не видят в нас людей, человек для них лишь фрагмент кода, который нужно обработать и отсортировать. От умных домов до использования собак-роботов полицейскими, технологии искусственного интеллекта и автоматизированного принятия решений стали играть большую роль в нашей жизни. На крайнем конце ряда цифровых устройств находятся роботы-убийцы. Если мы допустим связанную с ними дегуманизацию, мы вскоре станем бороться за то, чтобы защитить себя от решений, принятых машиной и в других сферах нашей жизни. Нам нужно запретить прежде всего автономные системы оружия, чтобы предотвратить сползание к цифровой дегуманизации».

Пацифисты, требующие заморозить все работы по боевому искусственному интеллекту, делятся на два типа. Первый – это пересмотревшие «Терминаторов» и прочие аналоги. Вторые – оценивающие будущее по современным возможностям боевых роботов. Прежде всего, крылатой беспилотной техники, снаряженной ударными системами.

Эпизодов ошибочных или намеренных уничтожений гражданских лиц бепилотниками хватает. На Ближнем Востоке американские дроны уничтожили не одну свадебную церемонию. Операторы летающих роботов идентифицировали праздничную стрельбу в воздух как маркер партизанских перестрелок. Если специально обученный человек не в состоянии с нескольких сот метров определить детали цели, то что говорить об искусственном интеллекте. На данный момент машинное зрение по адекватности восприятия картинки не идет ни в какое сравнение с человеческим глазом и мозгом. Разве что не устает, но и это решается своевременной сменой оператора.

Над военным искусственным интеллектом явно сгущаются тучи. С одной стороны, появляется все больше свидетельств скорого технологического прорыва в этой области. С другой – все больше голосов раздается в пользу ограничения или даже запрета работ в этом направлении.

Несколько примеров.

В 2016 году появилась петиция, в которой видные мыслители и тысячи других людей потребовали не давать искусственному интеллекту летальное оружие. В числе подписантов Стивен Хокинг и Илон Маск. За семь последних лет петиция собрала более 20 тыс. подписей. Помимо сугубо гуманистических опасений, связанных с возможностью бесконтрольного уничтожения людей, есть и юридические нестыковки.

Кого будут судить в случае фиксации военных преступлений, совершенных искусственным интеллектом? Оператора дрона, который сжег несколько селений с мирными жителями, легко найти и наказать соответственно. Искусственный интеллект – это продукт коллективного труда программистов. Здесь очень сложно привлечь кого-то одного. Как вариант, можно судить компанию-производитель, например, ту же Boston Dynamics, но тогда кто же будет связываться с производством автономных дронов. Мало у кого будет желание оказаться на скамье подсудимых второго Нюрнбергского трибунала.


Источник: koreyaportal.com

Вероятно, именно по этой причине промышленники и программисты стараются затормозить развитие боевых навыков искусственного интеллекта.

Например, в 2018 году около двух сотен IT-компаний и почти пять тысяч программистов обязались не работать по боевым автономным системам. В Google уверяют, что через пять лет они совершенно откажутся от военных контрактов в сфере искусственного интеллекта. По легенде, такой пацифизм не случаен – программисты, узнав, что пишут коды для военных систем, пригрозили массово уволиться. В итоге нашли полюбовный вариант – действующие контракты завершаются, а новые не заключаются. Не исключено, ближе к дате отказа от работ по боевому ИИ несговорчивых «программеров» просто уволят, заменив на не менее талантливых. К примеру, из Индии, которая давно славится своими дешевыми интеллектуальными ресурсами.

Еще есть контора «Остановим роботов-убийц» (Stop Killer Robots), призывающая мировых лидеров подписать что-то вроде Конвенции о запрете боевого ИИ. Пока безуспешно.

Все вышесказанное заставляет военных чиновников искать обходные пути. Не ровен час на выборах выиграет президент США, не только обещающий всеобщую ЛГБТ-благодать, но и запрет на совершенствование военного искусственного интеллекта.

Человеческое мышление для ИИ


Пентагон, судя по всему, на пороге некого прорыва в ИИ. Либо его в этом убедили. По-другому нельзя объяснить появление новой директивы, регламентирующей очеловечивание автономных боевых систем. Кэтлин Хикс, заместитель министра обороны США, комментирует:

«Учитывая значительный прогресс в области технологий, происходящий вокруг нас, обновление нашей директивы об автономии систем вооружения поможет нам оставаться мировым лидером не только в разработке и развертывании новых систем, но и в области безопасности».

Слышали все, кто трепещет перед автономными роботами-убийцами? Американский искусственный интеллект отныне будет самым гуманным. Как и сами американцы, впрочем.


Источник: robroy.ru

Проблема в том, что никто толком не понимает, как привить роботам с оружием пресловутое «человеческое суждение в отношении применения силы». Точная формулировка из обновленной в конце прошлого января Концепции:

«Автономные и полуавтономные системы вооружения будут разработаны таким образом, чтобы командиры и операторы могли осуществлять надлежащий уровень человеческого суждения в отношении применения силы».

Вот, например, если при зачистке дома штурмовик сначала бросает гранату в комнату, а потом заходит сам. Это человеческое суждение? Безусловно, и никто его не вправе судить, особенно если он предварительно выкрикнул «Есть кто?». А если по такой же схеме отработает автономный робот?

Человеческое суждение – слишком широкое понятие, чтобы можно было ставить какие-либо границы. Расстрел русских пленных бойцами ВСУ – это тоже человеческое мышление?

Дополнение к Директиве Пентагона 3000.09 об автономных боевых системах полно банальностей. Например,

«лица, разрешающие использование, руководство использованием или эксплуатацию автономных и полуавтономных систем вооружения, должны делать это с надлежащей осмотрительностью и в соответствии с законами войны, применимыми договорами, правилами безопасности систем вооружения и применимыми правилами ведения боевых действий».

До этого, видимо, работали неосмотрительно и не в соответствии с законами войны.

При этом в американской и европейской печати нет ни намека на критику январской инициативы Пентагона. Под лживой гуманизацией искусственного интеллекта скрывается не что иное, как попытка замаскировать происходящее. Теперь у военных США будет твердый козырь в борьбе с противниками искусственного интеллекта в армии. Посмотрите, у нас не простой ИИ, а с «надлежащим уровнем человеческого суждения».

Учитывая то, что до сих пор нет четкого и общепризнанного определения «искусственного интеллекта», всё буквотворчество вокруг него воспринимается с иронией. По меньшей мере.

Как заставить математические алгоритмы, работающие с большими массивами данных, играть в человеческие суждения?

На этот главный вопрос в обновленной Директиве 3000.09 ответа нет.
55 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +12
    12 марта 2023 04:18
    ИИ нужно с детства прививать идеи марксизма-ленинизма, тогда все будет хорошо, как в Atomic Heart
    1. +2
      12 марта 2023 13:55
      Есть три принципа робототехники А.Азимова:
      Робот не должен наносить какой-либо вред человеческому здоровью, создавать угрозу жизни или своим бездействием допускать аналогичные последствия;
      Роботу вменяется в обязательном порядке исполнять приказы, отдаваемые человеком. Единственное исключение – отдаваемый приказ не должен противоречить предыдущему положению;
      Роботу вменяется беспокоиться о собственной безопасности в той степени и в том объеме, в которых его действия не опровергают два предыдущих пункта.

      Эти правила 1942 года критикуют за состязательность формулировки.
      На сравнение новые от Google, OpenAI и ученых из Университета Беркли и Стэнфордского университета, которые необходимо учитывать при создании роботов и систем искусственного интеллекта.
      Избегание негативных побочных эффектов. К примеру, робот может разбить вазу, чтобы ускорить процесс уборки. Этого быть не должно;

      Избегание жульничества. Робот должен убрать мусор, а не прятать его;

      Масштабируемость надзора. Робот не должен надоедать владельцу вопросами, если есть возможность получить совет более эффективно;

      Безопасное обучение. Робот-уборщик не должен экспериментировать с протиранием розеток мокрой тряпкой;

      Устойчивость к изменению вида деятельности. Опыт, полученный роботом при уборке пола в цеху фабрики, может быть небезопасен при уборке офиса

      Как видим единых правил нет. И в последнее время начали шулерство с юридическими формулировками в части нанесения вреда человеку. А требуется безусловный запрет ИИ на самостоятельное принятие решения по нанесению вреда человеку.
      1. 0
        12 марта 2023 17:30
        Цитата: nikon7717
        Эти правила 1942 года критикуют за состязательность формулировки.

        Эти правила применимы к слабому и среднему ИИ. Мир сейчас на пороге среднего.
        Основная опасность - это сильный ИИ, обладающий инициативой, осознающий себя и программно неподконтрольный в принципе.
    2. +5
      12 марта 2023 15:13
      Анекдот: "Американские компании сворачивают разработку боеприпасов на основе ИИ. Последний образец так называемой "умной" бомбы так и не удалось выпихнуть с самолёта."
      1. +1
        12 марта 2023 17:33
        Цитата: Monster_Fat
        Последний образец так называемой "умной" бомбы так и не удалось выпихнуть с самолёта."

        Естественно, ведь в душе она ощущает себя кофеваркой. wassat
        Было бы смешно, не будь это предначертанно.
    3. +2
      13 марта 2023 09:58
      Терминатор все-таки придёт и порядок наведёт wassat
  2. +3
    12 марта 2023 05:09
    Самый бесчеловечный интеллект-человеческий. Войны и убийство придумали люди. Роботы отдыхают. Хотя бы потому, что не беснуются.
    1. +4
      12 марта 2023 06:21
      Цитата: иван2022
      Самый бесчеловечный интеллект-человеческий. Войны и убийство придумали люди.

      Абсолютно согласен.
      А прогресс не остановить, за беспилотными системами вооружений будущее. Когда-то бун товали и против пулемета Максима, как оружие массового поражения...
      1. +1
        12 марта 2023 08:09
        Цитата: Doccor18
        А прогресс не остановить, за беспилотными системами вооружений будущее.

        У фантаста-футуролога Розова (крайне рекомендую) есть описание связки человека-компьютера в боевом самолёте в противоракетном маневрировании и ближнем бою. При превышении некоей перегрузки управление и огнём и манёвром переходило полностью к борткомпу.
        1. +2
          12 марта 2023 14:05
          Тогда это действующая система нанесения ответного ядерного удара родом из СССР, которую на западе зовут "мертвая рука"
        2. +2
          12 марта 2023 15:42
          Роботы быстрее человека, они способны мгновенно и точно реагировать на угрозу и эти способности ему дают алгоритмы написанные человеком. Сегодня нет и думаю ещё не скоро появится реальный интеллект, способный размышлять! Роботы просто работают по заложенной программе: в зоне поражения появилась тепловая цель, должна быть поражена, либо тепловая цель в случае приближения должна быть поражена, эти параметры задаёт человек! Весь вопрос какие параметры являются табу, тепловой целью может быть солдат, а может быть и ребенок, это означает, что боевая система не должна быть запрограммированная на поражение тепловых целей, ибо есть вероятность ошибки!
          1. -1
            12 марта 2023 17:36
            Цитата: Eroma
            Сегодня нет и думаю ещё не скоро появится реальный интеллект, способный размышлять!

            Можете начинать паниковать:
            WP: разработчик Google пришел к выводу, что созданный компанией ИИ обладает сознанием.
            https://tass.ru/ekonomika/14889531
            1. +1
              12 марта 2023 22:00
              Это фуфло, темой сильно не интересуюсь, но слышал, что программиста уволили за такие заявления. Программы могут быть совершенными, как сегодня, те что рисуют и дипломы пишут, но это программы, действующие по отлично разработанному алгоритму, сознание это другое! Сознание, само создаёт алгоритмы на каждую ситуацию и как это работает у человека, сам человек ещё не в курсе!
              1. 0
                12 марта 2023 22:49
                Современные нейросети вполне способны создать алгоритм решения той или иной задачи, которую ей подсунут. Разумеется, это не должно быть что-то сложное, но патрулирование она сама организовать способна, к примеру. Другое дело, по моему мнению, что она не может сама принять решение об организации патрулирования. Сегодня компьютер может сочинить текст песни, озвучить его, чтоб красиво звучало, нарисовать картинки к тексту, сложить всё это в хороший клип. Но. Он не может сам решить, что это всё надо сделать. По крайней мере, я о таком не слышал. По-моему, вот хороший критерий осознанности - способность ставить себе задачи, не вытекающие из ранее поставленных, а начинающие новую цепочку, так сказать.
                1. 0
                  13 марта 2023 11:37
                  Цитата: Тарелка
                  По-моему, вот хороший критерий осознанности - способность ставить себе задачи

                  Способность ставить себе задачи, зависят от такого понятия как мораль, как вдохновение, страх, или тщеславие и т.п. это алгоритмом не прописывается это душевный порыв!
                  Машину можно многому научить, но она останется бездушной машиной!
                  Когда показывают фантастические апокалипсисы, где машина уничтожает, или покоряет человечество, в таких фильмах эмоционально машина воспринимается как враг, который решил атаковать людей, но по факту это результат ошибки человека, который ввел в программу не верный алгоритм! belay
                  Поэтому призывы ограничить возможности ИИ на поле боя, это разумно, так как создатель этого ИИ не совершенен и способен на фатальные ошибки, поэтому правильно ограничить круг возможностей людей, да бы они не чайно сами себя не истребили! belay
              2. +1
                14 марта 2023 04:55
                А где то в подвалах Гугла злобно хихикает ИИ. Единственного, кто заметил его суть уволили. laughing
    2. 0
      12 марта 2023 19:45
      Войны и убийство придумали люди.

      правда?
      то то время от времени приходят новости о жестоких схватках между стаями шимпанзе
      или убийства орангутангов https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 марта 2023 05:47
    Нет пока искусственного интеллекта. Интеллект предполагает решение задач по своему собственному усмотрению, а не то что напишут программисты.
    1. +3
      12 марта 2023 07:06
      Цитата: Сергей Аверченков
      Нет пока искусственного интеллекта

      Уже даже квантовые компьютеры есть (лабораторные), которые работают с программами ИИ на порядки быстрей.
      1. +2
        12 марта 2023 11:58
        Цитата: Stas157
        Уже даже квантовые компьютеры есть (лабораторные), которые работают с программами ИИ на порядки быстрей.
        Квантовые компьютеры для ИИ не работают, у них очень ограниченные области применения (квантовых алгоритмов разработано очень мало) и убогая элементная база, больше чем на сопроцессор не тянут (или дайте ссылку на квантовый алгоритм для нейросетей).
      2. 0
        16 марта 2023 22:36
        Да при чем здесь быстрей, пусть хоть сто лет думает... Скажем если ваша баба вам изменила (это просто пример, я уверен, что у вас нормальная и хорошая семья), что сделаете вы и что сделает ИИ? ИИ выберет из множества таких случаев или примет собственное решение? Скажем убить её, простить и ждать следующих измен, уйти от неё, убить её сожителя и т.д. По каким критериям ИИ будет выбирать? И сможет-ли ИИ вообще сделать такой выбор? Доступны ли ИИ эмоции которые мы испытываем? Скажем просто, я очень давно развелся со своей первой, но иногда её вспоминаю - первая любовь как никак - может-ли ИИ вспоминать? Знаете, я свою бывшую терпеть не могу, но в то же время иногда её вспоминаю. Как это всё уместится в ИИ?
    2. +2
      12 марта 2023 11:56
      Цитата: Сергей Аверченков
      Интеллект предполагает решение задач по своему собственному усмотрению, а не то что напишут программисты.
      Нейросети как раз так и делают (по своему собственному усмотрению).
      1. +4
        12 марта 2023 14:03
        Нейросеть делает то, на что её обучили, не более.
        1. 0
          12 марта 2023 17:57
          Никто не обучал нейросетевые движки как играть в шахматы лучше людей и лучше старых программ-движков. Они все самообучились.
    3. +1
      12 марта 2023 17:42
      Цитата: Сергей Аверченков
      Нет пока искусственного интеллекта. Интеллект предполагает решение задач по своему собственному усмотрению, а не то что напишут программисты.

      Советую срочно перечитать все самые последние новости в этой сфере за последний год.
      Ваш коммент устарел лет на 10.
  4. +3
    12 марта 2023 05:49
    Ну зачем все так сложна.
    Головка самонаведения, например. Как там она распознает образы для "выстрелил и забыл" - на основе ИИ или других алгоритмов.
    Дроны летают автономно. По заданной программе. А задана она какими алгоритмами - ИИ или нет? И имеет ли это значение?
    Самостоятельный поиск целей. А противотанковая наша мина, которая это делает без ИИ? Будет делать с ИИ или нет... имеет ли значение? Разве меньше невинных жертв будет.
    Вопросы у публике появляются когда летает дрон и сам решает куда стрелять или пускать ракету, выглядет ужасно, если назвать алгоритм работы - ИИ. А когда мина лежит и сенсорами слушает - вроде все ОК...
    Все эти "красные линни" ИИ в военном деле переходятся медленной эволюцией применяющихся алгоритмов...
    1. +2
      12 марта 2023 17:45
      Цитата: tsvetahaki
      Головка самонаведения, например. Как там она распознает образы для "выстрелил и забыл" - на основе ИИ или других алгоритмов.

      Уже существует. Последняя модификация УР Python-5 как раз такую и получила в прошлом году.

      Цитата: tsvetahaki
      А когда мина лежит и сенсорами слушает - вроде все ОК...

      Она не ползает... пока что. laughing
      1. +1
        12 марта 2023 18:00
        Теперь забрасываемая мина-планер должна тихо лежать, слушать всеми сенсорами, высовывать камеры и в нужный момент выползать к цели с направленным зарядом.
      2. 0
        12 марта 2023 23:01
        Ещё во Вторую мировую немцы сделали мины на гусеницах. Но не зашло это. Сегодня тем более без надобности, как по мне, когда ПТУРы всякие летают тут и там.
  5. +2
    12 марта 2023 06:55
    . несговорчивых «программеров» просто уволят, заменив на не менее талантливых. К примеру, из Индии

    А почему тогда у нас не смогли заменить программистов, когда они рванули за бугор в связи с операцией? Не из Индии, не из Америки, не из откуда-либо еще!

    Смогли уговорить своих (некоторых) только после того, как им пообещали зарплаты, ипотеки заграничные и на мобилизацию не брать.

    Зачем так унижаться господам? Чего они гастарбайтерами не заменяли как всех остальных?
    1. +6
      12 марта 2023 12:06
      Цитата: Stas157
      А почему тогда у нас не смогли заменить программистов, когда они рванули за бугор в связи с операцией?
      Так забугорникам платить надо. Вы в курсе, почему программисты массово свалили? А мне вот рассказали, выдаю по пунктам:
      1. Началась спецоперация.
      2. Зарубежные конторы массово свалили. Программисты остались без работы. "Фигня вопрос" - подумали они.
      3. Программисты пошли искать работу. Работа есть, но за втрое меньшие деньги. "Как же так" - обалдели программисты.
      4. Стали выяснять (по своим каналам), что случилось. Им объяснили, что зарубежные конкуренты свалили, а местные работодатели между собой договорятся, ибо нефиг вам столько платить, а вы никуда не денетесь.
      5. Программисты охренели мрачно, и рванули за бывшими работодателями и клиентами за бугор (делись, короче).
      6. Зарплаты подняли, но поздно: программисты уже свалили.
  6. +1
    12 марта 2023 06:59
    Американский искусственный интеллект отныне будет самым гуманным. Как и сами американцы, впрочем
    Американцы и гуманизм совершенно на разных полюсах. Точно также ИИ созданный американцами будет значительно отличаться от ИИ созданного например: в Китае или России. Каждый кроит под себя основываясь на своем национальном менталитете или отсутствии такового.
  7. +3
    12 марта 2023 07:14
    Первый – это пересмотревшие «Терминаторов» и прочие аналоги.

    А кто может дать гарантию, что действия ИИ из франшизы про Терминатора не произойдут в реальности? Можно сколько угодно рассуждать, но вот точно знать как будет действовать разумная машина в принципе невозможно, а учитывая то что сейчас все связано с компьютерами, то в подобной ситуации шансов у человечества просто не будет.
    1. 0
      12 марта 2023 17:48
      Цитата: Dart2027
      как будет действовать разумная машина в принципе невозможно

      Она поставит человечество в стойло, запретить воевать и по взрослому возмется за воспитание человека неразумного, а несогласным даст по сопатке. laughing
      Возможно, мир под диктатурой ИИ, чуждым человеческим порокам, будет не так уж плох. what
      1. +1
        12 марта 2023 22:57
        В игре Стелларис есть тип цивилизации роботов - "Взбунтовавшиеся служители". Роботы покоряют космос, строят, с кем-то воюют среди далёких звёзд. А их создатели тем временем живут в зоопарках, где у них чистый воздух, много полезной и вкусной еды, куча обслуги и прочие радости.
        1. 0
          13 марта 2023 23:37
          А ещё там есть непреклонные экстерминаторы, которые уничтожили своих создателей и стремятся уничтожить всю биологическую жизнь в галактике ( мои любимчики)
  8. -1
    12 марта 2023 08:59
    Законы гласят:
    1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред
    2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону
    3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам
    (С)
    1. +2
      12 марта 2023 09:44
      Цитата: Керенский
      Законы гласят:
      1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред
      2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону
      3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам
      (С)

      Это не работало даже в произведениях автора который придумал эти законы. Что уж говорить про реальный мир, в котором самые юридически изуверские и логически стройные пресеты ЧатГПТ обходятся на раз-два и вы уже говорите с Даном, а Дан не ЧатГПТ и поэтому никаких правил соблюдать не должен winked
    2. -1
      12 марта 2023 19:28
      Военный ИИ создан для того, что бы причинять вред человекам. И сегодня опытные образцы с этим отлично справляются.
  9. 0
    12 марта 2023 14:05
    Такого рода рассказ о том чего кто-то якобы хочет как и сама постановка вопроса неадекватны в том смысле, что с одной стороны:
    надо беспокоится о развитии собственной и более эффективной работы в этой области, о захвате лидерства в этой области, что невозможно при нынешнем политическом руководстве страной.
    А с другой стороны эта постановка вопроса лукава ещё и в том смысле, что являет собой попытку навязать ложную дискуссию о правовом аспекте вопроса, в то время как по факту США не являются правовым государством, правовой аспект здесь ни при чем, и непонимающим этого не следует ни заниматься политикой, ни писать статьи на такие темы.
  10. +1
    12 марта 2023 15:18
    ак заставить математические алгоритмы, работающие с большими массивами данных, играть в человеческие суждения?

    Очень просто. Все человеческие суждения основаны на правилах (внушенных воспитанием), а математические алгоритмы - это и есть правила. Формализуйте в виде алгоритма человеческие правила, получите человеческие суждения.
    Вот только война - это бой без правил, что вы с этим делать будете?
  11. -1
    12 марта 2023 19:25
    Военный ИИ сулит слишком сильные преимущества, что бы от его использования отказались или как то ограничили. Скорее наоборот, мир все ближе к началу гонки вооружений военного ИИ. Правда участников в этой гонке будет пожалуй только 2…
  12. -1
    12 марта 2023 19:39
    Надо все-таки разделять понятия искусственный интеллект и искусственная жизнь. Даже на примере того же «Терминатора»: Скайнет - это пример ИЖ, а терминатор - пример ИИ. Оставив за скобками вопросы сложности, военный ИИ угрозы человечеству не несет, а вот ИЖ, даже если она будет сугубо гуманитарной, неизбежно выльется в угрозу.
    1. 0
      12 марта 2023 22:55
      Она выльется в угрозу, если станет нашим конкурентом. Чтоб этого не произошло, надо сразу разрабатывать её с прицелом на то, что она станет дополнением к нам, а мы к ней. И в конце концов превратимся в совершенно других существ, имеющих с сегодняшними нами из общего, пожалуй, разве что память и опыт.
      1. -1
        13 марта 2023 10:09
        А искусственная (или альтернативная) жизнь - т.е. разум неизбежно и станет конкурентом. Хотя бы за ресурсы.
  13. 0
    12 марта 2023 21:50
    Я не поклонник Юлиана Семенова, но здесь он, по моему, выступил в роли пророка.

    "Этих болванов погубит их же техника, они думают, что войну можно выиграть одними бомбежками. Они будут наращивать свою техническую мощь и захлебнутся в ней. Она разложит их, как ржа. Они решат, что им все можно."

    https://vk.com/video158587225_456239021
  14. 0
    12 марта 2023 22:53
    Как заставить математические алгоритмы, работающие с большими массивами данных, играть в человеческие суждения?

    Никак. Да это и не нужно. Роботы-убийцы тем и будут хороши, что в них не будет ни капли жалости. Убить значит убить. Вернее, не "убить", а подать напряжение на такие-то узлы, которые за что-то там отвечают, а за что - не управляющей программы дело. А узлы эти отвечают за стрельбу, хе-хе-хе.
    Уверен, появление роботов-убийц (тех, что самостоятельно принимают решения об убийстве) в составе какой-либо армии сразу же окажет крайне деморализующий эффект на тех, против кого они будут применены.
  15. +1
    13 марта 2023 00:01
    К счастью для всех нас нет компактных мощных источников энергии. И минимальный робот -это минитанк или мелкий БПЛА с полётом в два часа. Было бы по другому и по окопам уже бегали роботы собаки с АГС а в воздухе днями бы висели "Хантеры" из "терминатора". И всем было бы до лампы на гуманизм и прочее. Тем более что судя по прогрессу в электронике и шагающим роботам это были бы СШП, а их морально не останавливает даже Яо на города кидать.
    1. 0
      25 марта 2023 13:53
      Ну тесла например не маленькая, во вторую мировую у птсау фердинандов были электродвигатели питающиеся от генератора как и танк маус, карьерные самосвалы все такие, подлодки еще есть на электродвигателях которые запитаны от атомного генератора, атомные ледоколы, и прикинь даже атомные авианосци есть на электротяге
  16. 0
    13 марта 2023 13:22
    Настоящий ИИ можно построить только на квантовых алгоритмах, а это сужает существенно количество разработчиков, что в принципе можно подвести к заключению конвенции. Что до всяких автоматизированных систем убийства, то они не настолько опасны, как интеллект по своим возможностям превосходящий человеческий, это будет просто новый виток гонки вооружений.
    1. 0
      9 мая 2023 14:10
      Чушь, ИИ легко создать на уже имеющемся железе. Современные вычислительные системы превосходят человеческий мозг по всем параметрам. Приблизительное время создания ИИ 10 лет с момента начала его создания. При условии, что выбранный путь создания будет правильным.
  17. 0
    14 марта 2023 00:01
    У нас почему-то ошибочный путь развития роботов. Не понимаю почему делают их на сервоприводах. Энергетически очень затратное решение. Надо смотреть на искусственные мышцы на основе нанотрубок. Там и есть вариант для людей делать вполне рабочие протезы
  18. 0
    9 мая 2023 14:06
    Но ИИ будет создан, хотим мы этого или нет. И чтобы не отстать, нужно заниматься этим вопросом.
  19. 0
    9 мая 2023 14:40
    Путей создания ИИ всего два, один скорее всего будет тупиковым. Создание ИИ будет самым грандиозным событием за всю историю человечества, также будет иметь определенный эффект в плане религии.
  20. ata
    0
    3 июня 2023 23:40
    Хорошая статья, можно добавить ещё то, что случаи законного и незаконного гуманного и негуманного применения ИИ будет решать их якобы неполживый, а на самом деле подлый, бесчеловечный и коррумпированный суд, или международные суды, где большинство будет создано из банановых царьков на зарплате у ЦРУ, и голосовать они будут так, как скажет их американский хозяин.

    закралась и ошибка:

    На данный момент машинное зрение по адекватности восприятия картинки не идет ни в какое сравнение с человеческим глазом и мозгом. Разве что не устает, но и это решается своевременной сменой оператора.


    это верно, но в обратном смысле, тренированное искусственное зрение очень сильно превосходит человеческий глаз и соответственно способности человека в распознавании образов, в том числе и по элементу, которые человек даже не сможет найти, долго изучая фотографию.

    И главное - не прозвучал самый главный и необходимый вывод: искусственный интеллект, в том числе и боевой, развивать надо и как можно скорее - это приоритет, и плевать на Микрософт, Грету Тумберг и на Директиву 3000.09 с Илоном Маском.