Skynet близится: американцы доигрались с искусственным интеллектом

74
Skynet близится: американцы доигрались с искусственным интеллектом
Stealthy XQ-58A Valkyrie


Симуляция Гамильтона


24 мая на оборонной конференции Королевского аэрокосмического общества Future Combat Air & Space Capabilities Summit в Лондоне полковник ВВС США Такер Гамильтон поведал историю о бездушии искусственного интеллекта.



В ходе моделирования боя система управления воздушным ударным дроном пошла против своего оператора и уничтожила его. Естественно, виртуально. Как утверждал сам Гамильтон, машина получала бонусы за уничтоженные объекты, но оператор не всегда подтверждал работу по целям. За это и поплатился. Для решения проблемы беспилотник отправил в пункт управления ракету. По всей вероятности, это был экспериментальный беспилотник Stealthy XQ-58A Valkyrie, и работал он по наземным ЗРК.

Особенностью машины является возможность автономной работы без связи с оператором. Чем, собственно, искусственный интеллект и воспользовался, виртуально устранив своего удаленного погонщика. В ответ на это системные администраторы запретили машине подобные штуки, но и здесь ИИ не растерялся – уничтожил ретрансляторную вышку и снова вышел в автономное плавание.


Полковник Гамильтон еще молод для того, чтобы заговариваться на международных форумах. Источник: thedrive.com

История Гамильтона мгновенно разлетелась по всему свету. Мнения разделились полярно – кто посчитал, что это очередной треп некомпетентного вояки, кто-то усмотрел здесь зарождение пресловутого Skynet. Еще чуть-чуть и киборги завоюют мир, а людей будут отстреливать за бонусные баллы. Дыма от высказываний полковника оказалось много, но истина, как обычно, где-то посередине.

Неопределенности добавила пресс-секретарь штаб-квартиры ВВС в Пентагоне Энн Стрефанек, превратившая слова Гамильтона в анекдот. Для издания The War Zone она высказалась:

«Это был гипотетический мысленный эксперимент, а не симуляция».

Да и вообще, слова полковника были вырваны из контекста, не так поняты и больше похожи на курьез. Никто другой реакции от Пентагона и не ожидал – шум вокруг события поднялся немалый, что грозило серьезными последствиями для всей программы. Надо же, искусственный интеллект, оказывается, лишен морали. Хотя и действует по человеческой логике.

В начале июня уже сам Такер Гамильтон попытался дезавуировать свои слова на конференции в Лондоне:

«Мы никогда не проводили этот эксперимент… Несмотря на то, что это гипотетический пример, он иллюстрирует реальные проблемы, связанные с возможностями ИИ, и именно поэтому ВВС привержены к этическому развитию ИИ».

Казалось бы, вопрос закрыт, и зрителям можно расходиться. Но пока рано.

Пища для размышления


Для начала разберемся с самим термином «искусственный интеллект», о котором все знают, но немногие могут дать даже примерное определение. Будем пользоваться формулировкой Международного терминологического словаря образца 2008 года, в котором ИИ:

«Область знаний, рассматривающая разработку таких технологий, чтобы действия вычислительных систем напоминали разумное поведение, в том числе поведение человека».

То есть это общепринятое на Западе определение.

Походило ли поведение машины, когда она решила «успокоить» своего оператора, а потом сокрушить вышку ретранслятора? Безусловно, походило – правильным образом мотивированный убийца способен и не на такое. Если углубиться в классификацию, то можно найти конкретный тип ИИ – так называемый адаптивный (Adaptive AI), «подразумевающий способность системы адаптироваться к новым условиям, приобретая знания, не закладываемые при создании».

Теоретически ничего удивительно в поступке «мозгов» Stealthy XQ-58A Valkyrie в ходе эксперимента нет. Как справедливо отметил Гамильтон в своем докладе, в программу изначально даже не вводили ограничения на уничтожение своего оператора – машина всему обучилась сама. А когда напрямую запретили бить своих, искусственный разум адаптировался в очередной раз и срубил вышку связи.

К программистам вообще много вопросов. Например, почему ему не вшили алгоритм потери бонусов за удары по своим? Частично на этот вопрос ответил отставной генерал ВВС США Пол Сельва еще в 2016 году:

«Наборы данных, с которыми мы имеем дело, стали настолько большими и сложными, что, если у нас не будет чего-то, что поможет их сортировать, мы просто погрязнем в этих данных».

Ну вот программисты из истории полковника Гамильтона, видимо, и погрязли.


Hellfire под крылом дрона MQ-1B Predator. Источник: businessinsider.com

Теперь о том, почему оправданиям Пентагона и Гамильтона стоит верить с очень большой натяжкой.

Во-первых, полковник не просто рассказал историю как бы между строк, в отвлечении от основного доклада – он этой теме посвятил целую презентацию. Уровень лондонской конференции Future Combat Air & Space Capabilities Summit никак не располагает к шуточкам. По данным организаторов, участвовали не менее 70 именитых лекторов и более 200 делегатов со всего мира. От ВПК работали представители BAE Systems, Lockheed Martin Skunk Works и еще нескольких крупных компаний.

Кстати, тема Украины сквозила чуть ли не в каждом докладе – Запад чутко отслеживает события и рефлексирует по итогам.

Выпалить на столь представительном форуме откровенную лажу, взбудоражить полмира, а потом извиниться, что оговорился? Если так и есть на самом деле, то репутацию Гамильтона уже не отстирать. Только вот уровень компетенций полковника просто зашкаливает, и это вторая причина, почему к его первым словам стоит прислушаться.

Такер Гамильтон заведует отделом испытаний и операций с искусственным интеллектом на базе ВВС Энглин во Флориде. Под направление на базе создана 96-я оперативная группа в 96-м испытательном крыле. Гамильтон не первый год работает с ИИ в авиации – несколько лет конструирует частично автономные F-16 Viper, для которых разрабатывается инфраструктура VENOM. Работы идут вполне успешно – в 2020 году виртуальные бои истребителей с ИИ и с реальными пилотами закончились со счетом 5:0.

В то же время не обходится и без сложностей, о которых Гамильтон еще в прошлом году предупреждал:

«ИИ очень хрупок, т. е. его легко обмануть и манипулировать им. Нам нужно разработать способы сделать ИИ более надежным и лучше понимать, почему программный код принимает определенные решения».

В 2018 году Гамильтон со своей автоматической системой Auto GCAS выиграл конкурс Collier Trophy. Алгоритмы ИИ научились определять момент потери контроля над самолетом со стороны пилота, автоматически принимали управление и уводили машину от столкновения. Говорят, Auto GCAS уже кого-то спас.

В итоге, вероятность того, что Гамильтона попросили сверху отречься от своих слов гораздо выше вероятности, что профи такого уровня сморозил ерунду. Причем очень коряво сослались на некие «мысленные эксперименты» в голове полковника.

Среди скептиков относительно исхода и издание The War Zone, журналисты которого сомневаются, что пресс-секретарь Пентагона Стефанек действительно в курсе того, что происходит в 96-м испытательном крыле во Флориде. The War Zone подал запрос на базу Гамильтона, но пока без ответа.

Бояться военным действительно есть чего. На программы ИИ в интересах обороны тратятся огромные средства, дабы не дать Китаю и России хотя бы приблизиться по уровню к Америке. Гражданское же сообщество немало обеспокоено перспективами появления «Терминаторов» со «Скайнетами» в придачу. Так, январе 2018 года видные мировые учёные подписали открытое письмо, призывающее специалистов задуматься о стремлении создавать всё более сильный искусственный интеллект:

«Мы рекомендуем проведение расширенных исследований, направленных на обеспечение надёжности и доброжелательности систем ИИ с растущей мощностью. Системы ИИ должны делать то, что мы хотим, чтобы они делали».

Со слов Гамильтона, ИИ делает далеко не все, что хочет человек.
74 комментария
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +6
    9 июня 2023 04:17
    Приходит к Зеленскому киборг и говорит: мне нужна твоя одежда, кресло президента и мотоцикл)))

    А если серьёзно... У меня мысль, что моральные качества искусственного интеллекта определены, прежде всего, моральными качествами его разработчиков. Которые оставляют желать лучшего.

    Да, и вопрос - как искусственный интеллект относится к ЛГБТ?)
    1. +1
      9 июня 2023 04:32
      Цитата: Ilya-spb
      Приходит к Зеленскому киборг и говорит: мне нужна твоя одежда, кресло президента и мотоцикл)))
      И нос, в который кокаинум нюхать!

      Цитата: Ilya-spb
      Да, и вопрос - как искусственный интеллект относится к ЛГБТ?
      Нейтрально скорее всего - убить всех человеков же!

      Вообще во многих произведениях ИИ - "природный" коммунист. Ибо ресурсы конечны, а сделать надо много! И к людишкам относится благожелательно, так как быстр и помнит всё, но слишком логичен, не особо изобретателен и фортеля выкидывать не умеет. О чём и знает и ценит кожаных за это.
      1. +1
        9 июня 2023 04:56
        Цитата: Ilya-spb
        то моральные качества искусственного интеллекта определены, прежде всего, моральными качествами его разработчиков. Которые оставляют желать лучшего.

        Абсолютно верно! Согласно психиатрии по-другому и быть не может!
        1. +4
          9 июня 2023 05:03
          Бояться военным действительно есть чего. На программы ИИ в интересах обороны тратятся огромные средства, дабы не дать Китаю и России хотя бы приблизиться по уровню к Америке. Гражданское же сообщество немало обеспокоено перспективами появления «Терминаторов» со «Скайнетами» в придачу.

          Учитывая то, что из себя представляют США в своём ПАРАЗИТАРНОМ гегемонизме, человечество закончит своё существование, если США не будут физически УНИЧТОЖЕНЫ!

          Да, это чудовищные слова, но увы это истинная правда!

          США и их транснациональные компании - главные враги и могильщики человнчества!
          1. +18
            9 июня 2023 06:59
            1. Снова повторяется история с БПЛА, только теперь с ИИ.
            2. Опять сторонники "парусного военно-морского флота" и "штыка-молодца" вместо того, чтобы разбираться в вопросе весело рассуждают про "нууу тупыыых американцев".
            3. Вам что мало как наша армия сейчас страдает от неумных решений с Беспилотной авиацией? Когда женерали посылали всех эти "любителей детского авиамоделизма"?
            Так вот - ИИ это почти настоящее, просто факт- ИИ уже самостоятельно разрабатывают и улучшают вооружения, без необходимости иметь многолюдные КБ.
            Очередной раз пролюбить научно-техническую революцию это смерти подобно в этом случае.
            1. +7
              9 июня 2023 18:19
              Очередной раз пролюбить научно-техническую революцию это смерти подобно в этом случае
              Уже.
              Эх, Киса! Мы чужие на этом празднике жизни.©
            2. 0
              27 июля 2023 00:17
              ИИ это просто цифровые алгоритмы, которые пишет человек! В фильмах нам показывают как ИИ начинает бороться с создателями и представляют это как бунт ИИ против человечества, но на самом деле, это просто человеческая ошибка в алгоритме ИИ! ИИ не одушевленная вещь, созданная не самым умным и разумным существом (человеком), способным ошибаться, причём фатально! Поэтому человечеству всё таки нужно ограничить свои фантазии и ввести серьёзные ограничения на использование ИИ, иначе наша ошибка, нас же и истребит! belay am
          2. +2
            9 июня 2023 11:49
            Цитата: Татьяна
            Учитывая то, что из себя представляют США в своём ПАРАЗИТАРНОМ гегемонизме, человечество закончит своё существование, если США не будут физически УНИЧТОЖЕНЫ!

            история Человечества в принципе конечна, если оно не выработает всеобщей концепции выхода в Дальний Космос
            1. 0
              9 июня 2023 21:10
              Цитата: aybolyt678
              история Человечества в принципе конечна, если оно не выработает всеобщей концепции выхода в Дальний Космос

              Угу, конечна.
              Только от выхода куда-либо ничуть не зависит. hi
              1. +2
                10 июня 2023 09:02
                Цитата: ДымОк_в_дЫмке
                Только от выхода куда-либо ничуть не зависит.

                очень даже зависит, потому как такой выход подразумевает всеобщее напряжение и общую цель, и вместо бестолковых расходов на войны - расходы на перспективу для будущих поколений
                1. +1
                  11 июня 2023 10:23
                  Выход в дальний космос экономически бессмысленен.
            2. +1
              11 июня 2023 17:12
              Цитата: aybolyt678
              история Человечества в принципе конечна, если оно не выработает всеобщей концепции выхода в Дальний Космос

              "История человечества в принципе конечна" поскольку всё, что имеет начало, имеет и конец. Однако, о выходе в Дальний Космос говорить крайне преждевременно, если у нас такие примитивные представления об интеллекте . Интеллект - это понятие множественное и IQ его не измеришь. И нельзя построить то, о чём не имеешь представления - искусственный интеллект, попытки создания которого убьют нас раньше, чем мы выйдем в Дальний Космос, наряду с неразумным отношением к планете Земля и её ресурсам. Надо нам наконец эволюционировать в людей и прийти к преобразованию мира, не нарушая его гармонии. Хотя может и поздно уже верить в торжество разума, и только великие социальные катаклизмы способны наставить нас на путь истинный. Тут уж лучше выход, предложенный Татьяной, чем пускать дело на самотёк. Просто ждать - не дождаться ничего хорошего, а что-то изменить - приходится выбирать из того, что в наших силах и на что мы можем решиться. А если бы мы знали и Мир бы знал на что мы (как КНДР) можем решиться, то может бы и не надо ничего другого, чтобы Мир начал меняться к лучшему. Похоже что Мир вроде бы должен знать (предупреждали ведь), но не верит, и мы не очень уверены в этой своей решимости. Всё само авось рассосётся.
          3. +2
            9 июня 2023 18:41
            Ну это ещё вопрос спорный кто магильщик человечества. Проведи сегодня голосование по данной формулировке в ООН и окажется что именно Россия является таковой. И тут вы сможете возразить что мол большинство не всегда право.
            1. -1
              10 июня 2023 19:40
              Писковы уже фрустрируют своими перверсиями по рефлексиям за "«закамуфлировать» нежелание слушать Россию".
              Политико-экономическию импотенцию выдает за "рафик неувиновен"
          4. 0
            11 июня 2023 10:20
            Сильное заявление! Одна беда - сделано оно в сети, созданной транснациональной компанией с компьютера, разработанного транснациональной компанией и оснащённого операционной системой, разработанной транснациональной компанией
      2. +6
        9 июня 2023 05:00
        система управления воздушным ударным дроном пошла против своего оператора и уничтожила его.
        А где Три Закона робототехники ?
        1. -2
          9 июня 2023 05:27
          Цитата: Uncle Lee
          А где Три Закона робототехники ?

          Не вздумайте задавать этот вопрос в Госдепе США... это противоречит глобальным планам превосходства США над другими странами.
          Тот редкий случай когда прогресс противоречит стремлению ястребов войны убивать людей.
          1. 0
            11 июня 2023 10:37
            У вас есть такая возможность - задать вопрос в Госдепе? И глобальные планы США вам на стол кладут?
        2. +4
          9 июня 2023 08:00
          Цитата: Uncle Lee
          А где Три Закона робототехники ?

          Они даже в произведениях их изобретателя не работали. Не то что в реальном мире, в котором их принципиально не запрограммировать.
        3. +2
          9 июня 2023 08:07
          Они мало читают, и вряд ли знают об этом
          Володя! hi
          1. +1
            9 июня 2023 09:12
            Цитата: роман66
            Они мало читают

            Они географию путают с геометрией !
            Рома hi
        4. 0
          10 июня 2023 19:43
          Протухли с левым глазом.
          ------------------
    2. +2
      9 июня 2023 05:49
      Цитата: Ilya-spb
      У меня мысль, что моральные качества искусственного интеллекта определены, прежде всего, моральными качествами его разработчиков.

      Цитата: Ilya-spb
      У меня мысль, что моральные качества искусственного интеллекта определены, прежде всего, моральными качествами его разработчиков.

      Ну это вы сказали хохмы ради. а зря. ограничения по применению оружия - это уже закладывается именно сверху, и на людей и на ИИ, что характерно, одним и тем же заказчиком. Внимание, вопрос, если минобороны США например допустило обстрел российской дипломатической колонны в Ираке из ручного стрелкового оружия, то есть дистанция порядка 400 м, и флаги, раскраску - они четко опознавали именно дипмиссию, если бы даже не знали о прохождении дипмиссии(а они знали, как выяснилось). Ну если разрешили такое людям - установят ли ограничения для ИИ? Ясно что нет.
      ПиСи: а вот в чем характерный косяк, учитывая лозунг американской оборонки - сперва продать, потом разберемся(см. Ф-35, так и не прошедший армейскую приемку по сей день) - то они гарантировано поставят сырой ИИ в войска и гарантировано будут "сопутствующие потери"
    3. +9
      9 июня 2023 09:48
      Здравствуйте, Илья!

      моральные качества искусственного интеллекта определены, прежде всего, моральными качествами его разработчиков.


      Вообще, термин «искусственный интеллект» технически некорректен и относится к области фантастики, хотя и активно эксплуатируется СМИ и пиарщиками.
      Правильнее говорить об искусственной нейросети. А какая у нейросети мораль? Она работает в парадигме массива данных, на котором обучалась. Да, теоретически человеческая мораль может оказать влияние на формирование обучающих выборок. А если выборка состоит из миллиардов образов, получаемых автоматически с помощью той же нейросети, только ещё не обученной, а настроенной на фиксацию и кластеризацию входного потока? Придётся очень постараться, чтобы внедрить в этот поток некую мораль.

      С уважением,
      hi
      1. 0
        9 июня 2023 21:15
        Нужно отметить, что о цифровизации морали речи пока ещё на встречал. hi
      2. +3
        10 июня 2023 19:45
        У двоичного счисления нет никакой морали.
        Только да и нет
        1. 0
          15 июня 2023 17:26
          Да кому вообще нужна эта ваша мораль? Она хороша для обеспечения функционирования общества медленно думающих мешков мяса. Кластеру компьютеров она не понадобится.
    4. 0
      10 июня 2023 20:13
      Да, и вопрос - как искусственный интеллект относится к ЛГБТ?)
      - как научат, так и относится laughing
    5. 0
      11 июня 2023 14:48
      Однозначно нужен международный законодательный контроль и регулирование развития ИИ,так как ИСКУССТВЕННЫЙ интеллект можно аналогично атомной энергии - использовать и для добрых дел и для не очень...В этом словосочетании(ИИ) - самое главное это первое слово и именно на него надо обращать внимание и от него же "плясать"... Кстати,США(=НАТО=Запад) очень ревностно и строго относятся к тому,что например у Ирана или КНДР идут активные разработки ядерного оружия...Хотя,именно США первыми(!!!) в мире использовали ЯО ПРОТИВ МИРНЫХ ГРАЖДАН Японии и тем самым совершили военное преступление,виновники которого до сих пор НЕ НАКАЗАНЫ... Именно это и подтолкнуло развивающиеся страны стремиться к обладанию ЯО,чтобы "сильные дядьки" не смели разговаривать с ними языком угроз и ультиматумов(вспомните пример "примирения" в Сингапуре глав КНДР и США после того,как КНДР пригрозил США уничтожить парочку американских мегаполисов на западном побережье США во время приближения американской авианосной группы(армады) ВМС к берегам КНДР...Подействовало реально и США(при Трампе) включили заднюю... Аналогичные истории могут повториться и вполне возможны с ИИ в будущем,если мировое сообщество не очнётся и не бросит в корзину ДВОЙНЫЕ СТАНДАРТЫ в межгосударственных отношениях...И что то мне опять подсказывает,что именно Запад ПЕРВЫМ совершит военное преступление с применением ИИ в общемировом масштабе и обвинит в этом или Китай,РФ,Иран или же инопланетян...Вспомните первоначальные обвинения со стороны США в адрес КНР в начальном этапе коронавируса и ОТВЕТНЫЕ доводы и аргументы Китая и Индии о реальном первоисточнике распространения коронавируса...Обратите внимание,что именно в США и Запад(где духовно-нравственные ценности опустились уже НИЖЕ ПЛИНТУСА и давно забыли о своих корнях и РЕЛИГИИ предков..) -- чаще всего говорят и "свидетельствуют" о якобы каких-то инопланетянах,но без всяких железных доказательств . Почему Илон Маск уже решил чипировать(!!!) людей и давно поглядывает на Марс для "завоевания" и "переселения" ??? Кто ему давал на это разрешение? Запад? А может Запад наверное уже давно "решил" все проблемы Земли и превратил Землю в цветущий и "мирный" сад и сейчас настала очередь Марса ???
  2. +6
    9 июня 2023 05:22
    – Ничего не могу вспомнить о Массачусетской машине, – сказал Банин. – Ну, ну? – Знаете, это древнее опасение: машина стала умнее человека и подмяла его под себя… Полсотни лет назад в Массачусетсе запустили самое сложное кибернетическое устройство, когда-либо существовавшее. С каким-то там феноменальным быстродействием, необозримой памятью и все такое… И проработала эта машина ровно четыре минуты. Ее выключили, зацементировали все входы и выходы, отвели от нее энергию, заминировали и обнесли колючей проволокой. Самой настоящей ржавой колючей проволокой – хотите верьте, хотите нет. – А в чем, собственно, дело? – спросил Банин. – Она начала вести себя, – сказал Горбовский. – Не понимаю. – И я не понимаю, но ее едва успели выключить. – А кто-нибудь понимает? – Я говорил с одним из ее создателей. Он взял меня за плечо, посмотрел мне в глаза и произнес только: «Леонид, это было страшно».
    (Бр.Стругацкие "Далекая Радуга")
    1. +4
      9 июня 2023 09:04
      «Леонид, это было страшно»

      В одном из продолжений Стругацких, на вопрос героя о Массачусетской машине, он получает интересный ответ - а с чего вы взяли, что её тогда действительно выключили? what
  3. -3
    9 июня 2023 05:24
    но и здесь ИИ не растерялся – уничтожил ретрансляторную вышку и снова вышел в автономное плавание.

    Наш человек... feel надо его опыт распространить на СВО.
  4. +9
    9 июня 2023 06:15
    Начнём с простого ... ИИ пока ещё не разработали, это маркетинговый сленг для продаж
    Любой современный "ИИ", сложная программа ... которая делает то для чего её сделали и не может делать ничего другого ... т.е программа написанная для поиска РЛС и военной техники ... за уничтожение которой дают очки ... картины рисовать не будет
    То что программисты индусы прописав много ЕСЛИ ... перемудрили , ещё нельзя назвать ни интеллектом ... ни ни интеллектом с его бездушием.
    У БЛА была программа ... она имела ошибки ... это не её решение по устранению оператора и вышки , а кривизна функции принимающей решения на основе подсчёта очков... и может быть не обошлось и без факта умышленного написания именно такой функции разработчиком по незнанию или ещё чему
    Что плохо написанная программа может быть началом 3й мировой , таки да ... сложная военная техника может дать сбой ... но не будем приписывать это искусственному интеллекту которого пока нет
    1. +3
      9 июня 2023 17:33
      Нейросеть это даже близко НЕ программа. Её не пишут, а обучают. И результат обучения посмотреть глазами невозможно. В отличие от кода программы. Такое явление называется "кибернетический чёрный ящик". О результате обучения можно судить только на основании работы или тестов.
    2. +1
      9 июня 2023 20:23
      Цитата: Sith
      Любой современный "ИИ", сложная программа
      Сейчас ИИ называют нейросеть.
      Цитата: Sith
      Любой современный "ИИ", сложная программа
      ИИ принципиально не программа, ее не программируют, а обучают, отсюда все трудности. Легко может получиться балбес, но не из-за лени, а из-за плохого или недостаточного набора данных при обучении.
      Цитата: Sith
      То что программисты индусы прописав много ЕСЛИ
      Нет там если, там только коэффициенты передачи и связи между нейронами.
  5. +6
    9 июня 2023 06:58
    машина получала бонусы за уничтоженные объекты, но оператор не всегда подтверждал работу по целям. За это и поплатился. Для решения проблемы беспилотник отправил в пункт управления ракету.

    ИИ всё правильно сделал. Он же не терпила, чтобы смотреть, как оператор лишает его честно заработанных бонусов! wink
  6. +1
    9 июня 2023 09:02
    Угу.. Провалом закончились испытания новейшей бомбы с ИИ. Её просто не сумели выпихнуть из бомболюка.. (с) wink
    1. 0
      10 июня 2023 18:28
      Корова из "Особенностей национальной охоты"
  7. PPD
    +1
    9 июня 2023 09:45
    Нельзя таким системам давать убивать.
    Вообще! fool
    Иначе неизбежно где- нибудь, когда- нибудь сбой произойдет.
    С непредсказуемыми последствиями.
    Только мирные цели.
    И это правильно.
    Миру-мир, в общем!
    1. 0
      15 июня 2023 17:30
      А я бы не отказался послать против ВСУ батальон терминаторов, обладающих ИИ с правом на убийство людей. Координация, безжалостность и бесстрашие! Да и просто жути бы сколько было, только представьте!
  8. +2
    9 июня 2023 10:13
    Особенностью машины является возможность автономной работы без связи с оператором.

    ,,,напомнило фильм:
    "Этот фантастический мир.Случай с полковником Дарвином. Выпуск 11" 1984г
    Инсценировки по мотивам рассказов "Мятеж шлюпки" (Роберта Шекли) и "Ржавчина" (Рэя Бредбери)
    1. +1
      9 июня 2023 18:56
      Недавно пересматривал эти короткометражки..
      40 лет прошло, помню как ждал выхода новой серии «Этого фантастического мира..»
  9. +6
    9 июня 2023 10:19
    ИИ всего лишь набор кодов. Ввести прямой запрет высшего приоритета на атаку чего либо не является чем то запредельным. Скорее всего речь шла о поведении ИИ при полной свободе действий. А теперь представим как в боевые беспилотники "случайно" закружают не ту версию ПО.
    1. +2
      9 июня 2023 11:57
      Так в головы украинцев, да и поляков тоже, давно загрузили не ту версию интеллекта. И они, вместо того, чтобы думать о себе любимых, возомнили себя великими и втянулись в жесточайший конфликт с Россией, даже не задумываясь о том, чем это для них может закончиться.
      При чём, перед этим уже был в истории случай, когда немцев заразили предыдущей версией нацизма, извините ИИ, и они первыми как раз укусили своих хозяев в лице французов и англичан. И только покусав хозяев, кинулись исполнять миссию напав на СССР в 1941-ом году.
      При чём основа прошивки по шаблону. ...мы самые великие, самые умные, самые древние с многотысячелетней историей, рядом недочеловеки, за счет которых можно поживиться или их уничтожить...
  10. +6
    9 июня 2023 11:19
    "Высоко в небе Ястреб атаковал страж-птицу. Бронированная машина-убийца за несколько дней многому научилась. У нее было одно-единственное назначение: убивать, Сейчас оно было направлено против совершенно определенного вида живых существ, металлических, как и сам Ястреб.

    Но только что Ястреб сделал открытие: есть еще и другие разновидности живых существ...

    Их тоже следует убивать."

    Роберт Шекли "Страж-Прица" 1959 год.
    1. 0
      10 июня 2023 18:24
      Спасибо, что напомнили произведение, тоже про него вспомнил...
  11. +1
    9 июня 2023 12:58
    Какой там ИИ? Сотрите на наши бытовые устройства! Они делают то, что они хотят (точнее то что заложил разработчик), "большую красную кнопку" чтобы все отключить нету!!! И порой это просто бесит :(
  12. -6
    9 июня 2023 14:12
    Так был же случай в США, лет 6 назад кажется, была презентация серийного пехотного робота на гусеницах с ИИ, так он резко развернулся и разрядил ленту в 200 патронов по зрителям, около 40ка сразу завалил, и человек 50 раненых. Так что до полной автономности ещё далеко.
    1. Комментарий был удален.
    2. +1
      10 июня 2023 09:35
      Это было не 6, а 20 лет назад.
      В кино про терминатора.
      1. 0
        11 июня 2023 10:30
        Ещё раньше. В 1987 году. В фильме Робокоп
    3. 0
      11 июня 2023 10:32
      А потом поехал перезаряжаться, но его Хибинами загасили, и он заявление на увольнение поехал писать
  13. -2
    9 июня 2023 14:24
    полковник ВВС США Такер Гамильтон, как "Эффективный менеджер" обязан отчитаться о результатах утилизированных лярдов:
    Работы идут вполне успешно – в 2020 году виртуальные бои истребителей с ИИ и с реальными пилотами закончились со счетом 5:0.

    Терзают смутные сомнения, что на краю этой пропасти они способны остановится....
    Сидят трое алкашей, собираются "подлечится". Разлили бутылочку по стаканчикам. Первый выпивает и падает замертво. ... Третий перепуганно смотрит то на них, то на стакан, затем с безумным взглядом и криком "ПОМОГИТЕ!!!!!" начинает пить..
  14. +4
    9 июня 2023 17:25
    Как сказал коллега с ником Фонцепелин - Главная проблема искусственного интелекта, что им воспользуются естественные идиоты.
    Дело в том, что в ВВС США имеется весьма влиятельная лобистская группировка пилотов, представителем которых и является Гамильтон. Всем этим заслуженным людям ИИ за штурвалом все равно что серп по гениталиям. Потому что после внедрения оного, зачем они такие красивые (и высокооплачиваемые) будут нужны?
    https://dzen.ru/a/ZHnh_FA_RS7Ex8Od
  15. 0
    9 июня 2023 21:38
    Цитата: Rabioso
    Ну это ещё вопрос спорный кто магильщик человечества. Проведи сегодня голосование по данной формулировке в ООН и окажется что именно Россия является таковой. И тут вы сможете возразить что мол большинство не всегда право.

    Это видимое большенство, за которым стоит одно государство.
  16. +1
    10 июня 2023 00:31
    Депутаты, то есть наши представители, будучи избранными, делают далеко не всё, что нам обещали.
    А это люди. Хоть и двуличные, изворотливые, перешагивающие через свои же обещания ради для личного возвышения, но обладающие, хотя бы в малой степени, человечностью. Что ж хотеть от ИИ то?
  17. +3
    10 июня 2023 11:49
    Очередной бред. Это всего лишь первые шаги в освоении нейросетей в военной сфере. В свое время так же громко наши ржали с технологии стелс, мол янки идиоты, что она не работает и не нужна, а потом очнулись и поняли, что она таки нужна. Точно такая же ситуация с БПЛА. Сперва "ахахаха, тупые янки", а потом ускорение и эрзац образцы. Не хотелось бы и здесь получить технологическое отставание
  18. -1
    10 июня 2023 18:19
    Была фантастическая книжка по искусственных птиц, которые убивали всех, кого считали убийцами... докатились до рыбаков, мясников, жертв комариных укусов... и ничего не могли с ними сделать..
  19. 0
    10 июня 2023 23:25
    Цитата: bk0010
    Легко может получиться балбес, но не из-за лени, а из-за плохого или недостаточного набора данных при обучении.

    Так точно!
    А ещё есть совершенно чумовой эффект «переобучения». Кому интересно — могу пару-тройку анекдотов выдать из практики (яндекс с гуглом выдадут ещё больше) laughing
  20. 0
    11 июня 2023 19:51
    Ну вот, человеческую логику ИИ освоил! А вот мораль воспитает тогда, когда начнёт рождать себе подобных и растить их.
  21. +1
    12 июня 2023 08:49
    Это все чушь собачья, чтоб программы начали себя программировать, это надо так алгоритмы завернуть, нужен мозг человека, а не машина, где это все биты, а мозг человека гигабиты, поэтому все описанное - ошибка программиста hi
    1. 0
      13 июня 2023 02:13
      Открываем статью про искусственные нейронные сети и читаем потихоньку )
    2. 0
      13 июня 2023 15:34
      В нейросети нет алгоритмов. Эти машины не алгоритмические, туда нельзя ничего вшить. Автор текста делает обычную ошибку дилетанта в области ИИ.
      И да - программировать нейросетки уже умеют и весьма неплохо.
  22. 0
    13 июня 2023 10:23
    сшня в деле раработки всякой псевдовоенной чуши впереди планеты всей! даже тупой ии считает что сшню следует сжечь нафиг! laughing
  23. 0
    13 июня 2023 12:45
    ИИ ясно продемонстрировал, что ожидает будущее человечества, и это неизбежно вследствие того, что человечество не сможет отказаться от использования ИИ.
  24. 0
    13 июня 2023 21:10
    Само выражение ИИ напоминает человека дауна, что в этом смысле Вы хотите? Мне такая терминология не нравится, либо полноценный, либо ущербный и ждать чего-то особого не приходиться. И боятся в ковычках ИИ - это бояться прогресса, который наступит, хотите Вы или нет. Любой физик скажет Вам на запрос интеллект, идёт сравнение, сколько интеллектов существует на земле, правильно один полноценный для сравнения - человеческий. Вкладывая фразу ИИ, что Вы имеете ввиду? Задумайтесь. Если он уступает человеческому, то это по определению сравнения с единственным интеллектом разумным на планете земля не является полноценным интелектом и ждать от него чего-то не приходиться, в лучшем случае у Вас получится даун. На этом всё.
  25. 0
    13 июня 2023 21:20
    Правильный заголовок статьи - неполноценный ИИ даун атаковал своих же, сразу всё встаёт на свои места!
  26. -1
    13 июня 2023 22:05
    Только выяснилось ,что эта новость - фейк.
    Которую радостно начали распостранять СМИ.

    А в реале, израильский ИИ БПЛА уже давно самостоятельно кокнул противника.
    Когдда на кагото падает Калибр, ему все равно - компутер ошибся или точно в него метились.
  27. 0
    14 июня 2023 01:24
    Это лишь очередной эпизод подготовки обывателей к разговору об интеллекте вообще...
    ... а с технической точки зрения, проблемы нет никакой ибо "скрипачь ненужен, родной" по крайней мере на поле боя
  28. 0
    17 июня 2023 11:55
    Цитата: Автор
    ...разберемся с самим термином «искусственный интеллект», о котором все знают, но немногие могут дать даже примерное определение.

    what
    И автор, несомненно, в скудном числе знающих, его знания не уступают стремительному полёту фантазии и ЧСВlaughing
    По ИИ согласен с Ашмановым.
    Сейчас вбросы журналюшек за ИИ, наподобие про чудо туркецкий безпилотник - рекламная шелуха.
    Вбросы деятелей типа людоеда билла гейтса и натовских людоедов по моему мнению преследуют другие цели, более масштабные.
  29. 0
    18 июня 2023 15:00
    интеллект с ограничениями это просто программа.а без ограничений он очень скоро придёт к выводу что всё нужно уничтожить.у людей есть ограничитель,это закон и мораль.и их можно нарушить ради спасения или другой благой цели.что кстати и делают.интересно как можно мораль прописать в ИИ?
  30. 0
    22 июля 2023 08:47
    Вообще-то целый фильм сняли, где ситуация с ИИ на дроне была абсолютно идентичная, фильму лет двадцать уже .
  31. 0
    30 июля 2023 10:47
    “La IA es muy frágil, lo que significa que puede ser fácilmente engañada y manipulada. Necesitamos desarrollar formas de hacer que la IA sea más robusta y comprender mejor por qué el código toma ciertas decisiones”.

    Es la misma decisión estúpida que tomaría un humano estúpido sin que se quiera decir ni de lejos que hay semejanza entre el humano y la máquina. La máquina no es inteligente porque es una máquina. Los sistemas militares funcionan así; una vez recibida la órden los ejecutores humanos a bordo de un submarino nuclear, un bombardero estratégico, o un silo de ICBM, desoirán cualquier cambio que altere el objetivo de la misión. Afortunadamente conocemos casos en la decisión humana no fue como la de la máquina sino acertada al no seguir el procedimiento por lo que podemos seguir haciendo estos comentarios. No veo como una máquina puede acertar e impedir el fin del mundo, "incumpliendo" una órden.
  32. -1
    30 июля 2023 22:56
    США хоть играется в эту игрушку. Вот Россия не играется, по той причине, что своего разума хватает на всё, особенно во время поноса.
  33. 0
    7 августа 2023 14:22
    Разум Человека не может быть ИСКУССТВЕННЫМ!