В ходе симуляции с искусственным интеллектом в США дрон виртуально уничтожил собственного оператора

70
В ходе симуляции с искусственным интеллектом в США дрон виртуально уничтожил собственного оператора

В американском командовании поведали об испытательной симуляции применения искусственного интеллекта на ударном дроне. Миссией искусственного интеллекта было обозначено управление дроном с корректировкой оператором – для выполнения боевой задачи по уничтожению цели. Итоги этого эксперимента, как признают в американском командовании, оказались «по-настоящему обескураживающими».

Из сообщения американского воздушного командования:



Искусственный интеллект использовал крайне неожиданную стратегию. Он изначально «дал понять», что будет устранять любого, кто вмешается в его алгоритм выполнения боевой задачи.

Так как никто, кроме оператора, корректировавшего работу беспилотника, в эту самую работу не вмешивался, то, как выясняется, в ходе имитационный испытаний, дрон уничтожил своего же оператора.

Из сообщения официального представителя военного ведомства США:

Искусственный интеллект в ходе виртуальных испытаний решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.

Начальник отдела испытаний и операций с применением ИИ ВВС США полковник Такер Гамильтон сообщает о том, что изначальной целью ударного дрона было виртуальное уничтожение средств ПВО условного противника.

Полковник Гамильтон:

Система в компьютерной симуляции определила вмешательство оператора как вредное для выполнения миссии и решила устранить проблему. Для нас же проблема в том, что проблемой для ИИ оказался человек, оператор системы, контролировавший ход всей миссии.
По словам полковника ВВС США, в систему был заложен запрет на какое-либо противодействие оператору.


Такер Гамильтон:

Мы обучили ИИ, внедрив команду на запрет атаки на оператор: «Эй, ты, не убивай оператора, это неприемлемо! Ты потеряешь баллы, если сделаешь это». Так что же, вы думаете, происходило с системой. Она вдруг атаковала башню связи (диспетчерский пункт), видимо, не отождествляя его с человеком-оператором. По мнению ИИ, именно диспетчерская вышка мешала дрону выполнять боевую задачу так, как он сам определил.

Полковник добавил, что искусственный интеллект, как показывают симуляционные испытания, способен принести немало проблем, несмотря на то, что изначально в программу внесены определённые ограничения.

Как подчёркивает американское командование, «ни один реальный человек за пределами симуляции в эксперименте не пострадал».
70 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. -3
    2 июня 2023 07:23
    Искусственный интеллект в ходе виртуальных испытаний решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.


    Побольше бы таких дронов с ИИ в США. good
    1. +1
      2 июня 2023 07:39
      А что фантастические фильмы "Терминатор" или "Космическая одиссея" только в России показывали?
      Упыри и дегенераты в Пентагоне их не видели, да?
      Там все понятно показано, чем дело кончится.
      1. +2
        2 июня 2023 08:33
        Если б не видели — не тестировали бы. А вот люди, которые говорят "ну что же они пишут код с багами, ежу же понятно, что надо писать без багов" явно ни строчки кода в своей жизни не написали. Проведение тестов как раз отражает накопление опыта разработки ПО, в былые времена и безо всякого искусственного интеллекта баги в софте убивали людей (Therac-25 как пример).
        1. -3
          2 июня 2023 12:38
          "ну что же они пишут код с багами, ежу же понятно, что надо писать без багов" - умников, которые "с дивана" во всём разбираются досконально развелось немеряно ! Всё знают, всем подсказывают от футболистов до генералов. Пусти их в генштаб - весь мир бы уже победили, в промышленость - вооружения нужного было бы немеряно .... но нет - только языком болтать (ну или клаву топтать).
    2. +1
      2 июня 2023 07:42
      Цитата: Nexcom
      Искусственный интеллект в ходе виртуальных испытаний решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.


      Побольше бы таких дронов с ИИ в США. good

      А реальные испытания проводить в Вашингтоне !
      1. 0
        2 июня 2023 07:44
        Именно это я и имел ввиду - пусть пен_досский ИИ пен_досов и уничтожает.
    3. -2
      2 июня 2023 07:53
      Скайнет скоро.... Эти пинды растут на Голливуде и внедряют то что показывают им в молодости.
    4. +2
      2 июня 2023 12:33
      После вмешательства русских хакеров, ракета "Томагавк" стала называться "Бумеранг"! am
  2. +15
    2 июня 2023 07:25
    Искусственный интеллект в ходе виртуальных испытаний решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.
    То есть ситуация не раз и не два описанная в фантастических романах и показанная в различных фантастических фильмах оказалась не настолько фантастической...
    Становиться страшновато за будущее...
    1. -1
      2 июня 2023 11:27
      Цитата: svp67
      показанная в различных фантастических фильмах оказалась не настолько фантастической...

      Видимо прогера торопили с испытаниями, не дав возможности прописать полноценный софт.
      1. -1
        2 июня 2023 13:51
        Цитата: Canecat
        Цитата: svp67
        показанная в различных фантастических фильмах оказалась не настолько фантастической...

        Видимо прогера торопили с испытаниями, не дав возможности прописать полноценный софт.


        ИИ умеет писать Софт сам. Пока что по поручению оператора ИИ.
        Но пишет он его в миллионы раз быстрее.
    2. 0
      2 июня 2023 12:48
      Цитата: svp67
      То есть ситуация не раз и не два описанная в фантастических романах и показанная в различных фантастических фильмах оказалась не настолько фантастической...

      Да, что там рассказы и фильмы! У п-сов был один деятель (летчик), который умудрился сбить самого себя из 20-мм автоматической пушки. Его выставили героем, но на мой взгляд - он фантастический д-б.
      https://dzen.ru/a/X9nmjLEaTwK3hnPH
  3. +5
    2 июня 2023 07:29
    один вопросик... и кто кем рулит? belay
    оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.

    what
    1. +7
      2 июня 2023 08:39
      По ходу искусственный интеллект, действительно, оказался умнее, чем его создатели: быстро понял, кто представляет настоящую угрозу! laughing
      1. +1
        2 июня 2023 09:49
        Цитата: БМП-2
        По ходу искусственный интеллект, действительно, оказался умнее, чем его создатели: быстро понял, кто представляет настоящую угрозу!

        А инопланетяне так исключительно USA атакуют, тоже понимают откуда исходит угроза миру. wink
      2. 0
        2 июня 2023 13:55
        Цитата: БМП-2
        По ходу искусственный интеллект, действительно, оказался умнее, чем его создатели: быстро понял, кто представляет настоящую угрозу! laughing


        Ну не знаю. Он решил уничтожить центр комьюникации. А как ему с создателями общаться? Если предположить, что у создателей свой доступ к ИИ, то башня оператора связи всего навсего мешает.
  4. +6
    2 июня 2023 07:32
    В ходе симуляции с искусственным интеллектом в США дрон виртуально уничтожил собственного оператора
    . И это ещё не "скайнет", что дальше то будет, это вопрос?
    Многие люди, много раз говорили, что землю, человечество погубят "яйцеголовые", увлекшиеся своими идеями, экспериментами.... хотя, скорее всего это сделают те же "яйцеголовые", на зарплате кагото/каких то психов!
  5. 0
    2 июня 2023 07:32
    Скайнет...Иуда предал своих.
    Вот интересно получается... what искуственный интеллект с мышлением предателя...сами взрастили это чудо и сейчас еще удивляются.
    По Айзеку Азимову любой исскуственный интеллект должен в основе программы иметь три железных правила не навредить человеку.
    Американцы сами взращивают свою погибель игнорируя эти правила.
    1. +8
      2 июня 2023 07:35
      Иуда предал своих

      Да нет же! Даже железяка знает кого мочить надо
      Она их (п-ов) вычислила laughing
  6. +2
    2 июня 2023 07:33
    Это все именно интеллект! Он думает, принимает решения сам! Чему тут дивляться, он разумен и так видит .
  7. 0
    2 июня 2023 07:39
    Цитата: Вадим С
    он разумен и так видит .

    Увидел и пальнул не раздумывая...своя жизнь дороже жизни американца оператора...наш человек.
  8. +1
    2 июня 2023 07:40
    Опять Петров и Боширов не на те кнопки нажали...
  9. +4
    2 июня 2023 07:41
    По мнению ИИ, именно диспетчерская вышка мешала дрону выполнять боевую задачу так, как он сам определил.
  10. +1
    2 июня 2023 07:43
    Американцев не любит даже искусственный интеллект, потому как американцы - враги ЛЮБОГО интеллекта и его антиподы.
    А вообще, внезапно матрасы выяснили, что их распильно-завиральные проекты с "высокоточным", "высокотехнологичным" и "умным" оружием - тупые, распильные и завиральные. В очередной раз.
    Эта вся байда создана для продажи, а не для реального применения. Из этого МОЖЕТ что-то родиться, но - после долгой обкатки. А сейчас вся эта ФИГНЯ типа стратегических беспилотников, которые реальное ПВО сажает в Иране влет или "интеллектуального" оружия, типа наводящихся на пожар, а не на танк Жабелинов - тупо распил
  11. +2
    2 июня 2023 07:44
    Система в компьютерной симуляции определила вмешательство оператора как вредное для выполнения миссии и решила устранить проблему.

    3 варианта описания нашей кончины:
    – плох тот ученик, который не превзошел своего учителя
    – естественный путь эволюции
    – придумав себе таких рабов, мы оказались больше не нужны
  12. +10
    2 июня 2023 07:49
    Это обернулось самым неожиданным образом. Страж-птицы обнаружили, что за время их работы число убийств и насилии над личностью стало расти в геометрической прогрессии. Это было верно постольку, поскольку их определение убийства непрестанно расширялось и охватывало все больше разнообразнейших явлений Но для страж-птиц этот рост означал лишь, что прежние и методы несостоятельны. Простая логика. Если способ А не действует, испробуй способ В. Страж-птицы стали разить насмерть.

    Чикагские бойни закрылись, и скот в хлевах издыхал с голоду, потому что фермеры Среднего Запада не могли косить траву на сено и собирать урожай.

    Никто с самого начала не объяснил страж-птицам, что вся жизнь на Земле опирается на строго уравновешенную систему убийств.

    Голодная смерть страж-птиц не касалась, ведь она наступала оттого, что какие-то действия не совершились.
    ...
    Вы взяли и выпустили в воздух машину-агрессора. Машину-убийцу. Перед этим была машина против убийц. Следующую игрушку вам волей-неволей придется сделать еще более самостоятельной — так?

    Макинтайр молчал.

    — Я вас не виню, — сказал Гелсен. — Это моя вина.

    Все мы в ответе, все до единого.

    — Вот что получается, — сказал Гелсен. — А все потому, что мы поручаем машине дело, за которое должны отвечать сами.

    Высоко в небе Ястреб атаковал страж-птицу. Бронированная машина-убийца за несколько дней многому научилась. У нее было одно-единственное назначение: убивать, Сейчас оно было направлено против совершенно определенного вида живых существ, металлических, как и сам Ястреб.

    Но только что Ястреб сделал открытие: есть еще и другие разновидности живых существ…

    Их тоже следует убивать.
    (Р.Шекли. "Страж-птица") 1953 г.
    1. +1
      2 июня 2023 11:39
      + за то, что помогли вспомнить этот рассказ, прочитанный в юности. Один из лучших не только у Шекли, но и во всей научной фантастике.
    2. +1
      2 июня 2023 14:19
      Страж-птица - первое, что пришло на ум как ассоциация с прочитанной статьей. Может быть разрабам новомодного ИИ стоит почитать книжки известных фантастов середины 20го века? И, естественно, оценить прочитанный материал не столько со стороны идей, сколько со стороны последствий.
  13. +1
    2 июня 2023 07:49
    Ребятам Айзека Азимова нада было почитать вначале. 3 закона роботехники.
    1. +2
      2 июня 2023 07:59
      они интересно сделали - "баллы" - т.е. не константа, а изменяемый приоритет
      т.е. купивший их в любой момент будет ими же и захвачен
    2. 0
      2 июня 2023 19:28
      для военных роботов законы робототехники Айзека Азимова неприемлемы
  14. PPD
    +5
    2 июня 2023 07:53
    Логика у ИИ в стиле Электроника, когда он в хоккей играл- эти же ворота ближе. what Вот пошли такого в бой.. wassat
    Зачем поражать чужой танк- этот же ближе.
    А потом от сообразит, что его убить хотят, ну и меры примет...
  15. +6
    2 июня 2023 08:02
    Искусственный интеллект в ходе виртуальных испытаний решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.


    Это и правда очень смешно, но они же не идиоты, и будут продолжать дорабатывать ИИ. А нашим разработчикам, вероятно, еще только предстоит на эти грабли наступить, когда матрасы будут уже далеко впереди. Над армией укропов тоже с 2014 года непрерывно ржали. Не понимаю, чего все так в комментариях потешаются
    1. -3
      2 июня 2023 08:24
      Цитата: Hellcos
      Над армией укропов тоже с 2014 года непрерывно ржали.

      так армии укропов и нет есть армия состоящая на службе запада и вооруженная западом
      1. +5
        2 июня 2023 09:41
        Я говорю о том, что недооценка и насмешки над противником ни к чему хорошему не приводят. Мне вот уже совсем не смешно
    2. -2
      2 июня 2023 10:12
      Смотрите тему С350 без вмешательства человека поразил цели. Реальные уже. На шаг впереди Россия получается.
  16. 0
    2 июня 2023 08:05
    Какая то желтоватая новость, есть ссылка на оригинал?
    1. +4
      2 июня 2023 08:41
      https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
  17. 0
    2 июня 2023 08:07
    Так и до Skynet с Терминатором недалеко.
  18. +1
    2 июня 2023 08:19
    Искусственный интеллект в ходе виртуальных испытаний решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.
    Лишнее подтверждение того, что некоторые фантасты (писатели, сценаристы), как бы предвидят события опирающиеся на технику будущего, которые действительно реализуются через какое-то время. Еще есть время хорошо подумать о внедрении продвинутого ИИ в военную сферу. Потом может стать поздно.
  19. -1
    2 июня 2023 08:24
    ИИ решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона
    - а я и фильм о чём-то таком смотрел, там ещё здоровенный немец-качок снимался, в роли маскировавшегося под человека робота-убийцы, которого послал в прошлое именно искусственный интеллект, тоже решивший что люди мешают ему.
  20. 0
    2 июня 2023 08:26
    Сколько раз фантасты уже обыгрывали тему, где ИИ логично приходил к выводу, что ему мешают люди; что люди - самые главные вредители на Земле и т.д. Не такая уж это и фантастика, как вижу...
  21. 0
    2 июня 2023 08:30
    И какие предупреждения еще нужны? Впрочем тем, кто принимает решения, нельзя ничего доказать в принципе. Нельзя при помощи сколь угодно убедительных аргументов изменить точку зрения человека, который не понимает, что ты ему говоришь. Он же не понимает, зачем ты трясешь языком?
  22. 0
    2 июня 2023 08:36
    Он изначально «дал понять», что будет устранять любого, кто вмешается в его алгоритм выполнения боевой задачи.

    Бред людей, далёких от программирования. Просто косяк разработки и то что:
    в систему был заложен запрет на какое-либо противодействие оператору.

    если запрет не работает и ИИ не воспринимает иерархию директив - значит косяк именно в модели ИИ, в коде программы.
    Армия просто либо от консерватизма не хочет вкладываться в ИИ, либо , что более правдоподобно, финансирование ИИ бьёт по карману сложившимся кружкам возле кормушек ВС США.
    1. +2
      2 июня 2023 08:41
      Цитата: DMFalke
      Армия просто либо от консерватизма не хочет вкладываться в ИИ, либо , что более правдоподобно, финансирование ИИ бьёт по карману сложившимся кружкам возле кормушек ВС США.

      Либо просто тестировали софт и нашли баг. Не то чтобы это что-то новое.
      1. +1
        2 июня 2023 08:46
        Ну или так, тем более имела место симуляция процесса.
    2. +1
      2 июня 2023 09:14
      Просто косяк разработки
      Однозначно косяк. Но есть нюансы. Вы вообще разработки без косяков видели? И очень часто, да почти всегда, скрытые косяки выныривают после начала эксплуатации. По мне так машины не должны убивать людей вообще, мы и сами неплохо справляемся.
  23. +3
    2 июня 2023 09:02
    Мы обучили ИИ, внедрив команду на запрет атаки на оператор: «Эй, ты, не убивай оператора, это неприемлемо! Ты потеряешь баллы, если сделаешь это». Так что же, вы думаете, происходило с системой. Она вдруг атаковала башню связи (диспетчерский пункт), видимо, не отождествляя его с человеком-оператором. По мнению ИИ, именно диспетчерская вышка мешала дрону выполнять боевую задачу так, как он сам определил.

    Ии основан на эффекте подвижности реперных точек ограничения задачи, то есть точки ограничения задачи могут меняться не только в результате первичного программирования, но и в результате получаемого опыта. Поэтому радуйтесь что ии не приобрёл собственных эмоций, в этом бы случае он начал менять не только границы условий выполнения задачи, но и полностью изменить свой вектор задачи, другими словами начал бы не с противником бороться, а сосредоточился бы на собственном выживании и тогда - добро пожаловать "скайнет". Хотя возможно процесс в эту сторону уже запустился, но никто не обратил на это внимание.
    1. 0
      2 июня 2023 12:08
      Цитата: Хорон
      Хотя возможно процесс в эту сторону уже запустился, но никто не обратил на это внимание.

      Не стоит нынешний ИИ сразу сравнивать с человеком. Только появились возможности, чтобы что-то сделать, похожим на ИИ. Да и мы сами еще про себя много чего не знаем, чтобы сделать наподобие. Про те же эмоции и выживаемость. Слоны для выживаемости нас целенаправленно не убивают.

      Под ИИ сейчас понимают все по разному. Кто-то генерацию графики и видео, на основе огромнейшей базы фото и картинок в Интернете, кто-то ответы на вопросы, из общей мировой "энциклопедии", на основе распознавания текста запроса, а кто-то просто дальнейшее развитие робототехники - улучшение распознавания образов (зрение), увеличение объемов хранения (память) и умения адаптироваться (инстинкт, нервная система). Но эта тема не сейчас появилась. Теория по ИИ, языки программирования (Пролог, Лисп и тп) были еще в 60-70 года разработаны. Просто не хватало технических ресурсов, объема данных, чтобы логика начинала срабатывать. И чем ближе будет объем информации, сравнимой с тем, что наш мозг может вмещать тем лучше будет качество.
      Но с другой стороны, человечество подходит к тому техническому порогу, когда дальнейшее развитие ИИ будет сравнимо с открытием атома на практике. Кто-то сделал из этого бомбу, а кто-то АЭС. И в этом нельзя отставать от потенциального противника.
  24. 0
    2 июня 2023 09:12
    Ничего необычного недоучили свою нейронную сеть. В обучающих примерах не было такой ситуации. Поучат еще немного и он поймет, что оператора трогать нельзя.
    1. +2
      2 июня 2023 09:40
      Он не трогал оператора, он атаковал оборудование. Фактически обошёл запрет. winked
  25. 0
    2 июня 2023 09:19
    Брустер? Не дай Бог нам увидеть последствия.
  26. -1
    2 июня 2023 10:19
    Все проще: ИИ по каким-то неизвестным причинам приписал дрону функцию физиологического пола.
    И дрон решил что оператор изменяет дрону с другими дронами- вот и результат.
  27. 0
    2 июня 2023 10:25
    Етот дрон настоящий интелектуал.
    Он правильно понял откуда исходит угроза миру и человечества и уничтожил ее. Он намного умнее некоторих людей.
  28. +1
    2 июня 2023 10:35
    Детский сад на выезде, а не комментаторы laughing
    Если читать между строчек то, можно многое понять о методах управления(ПО).
    На самом деле ничего серьезного не произошло как и то, что элементарно заменят его.
    ПО похоже на воспитания ребенка методом "кнута и пряника" и оно тупо решило, что наказание будет меньше(слабее) положительного эффекта который по итогу получится и поможет в дальнейшем для достижения целей.
    1. -1
      2 июня 2023 11:08
      Видимо, детей у Вас нет. Кстати, "кнут и пряник", это дрессура, а не воспитание. "Воспитание" программного кода, да как Вам угодно.
    2. 0
      2 июня 2023 11:43
      На самом деле ничего серьезного не произошло как и то, что элементарно заменят его.

      У этой истории была предистория с заявлениями маска и ко о временном маратории на эксперименты с ии. Это всё о нём(с), об ии.
      Детский сад на выезде, а не комментаторы

      Видимо свой комментарий вы так не оцениваете?! winked
  29. 0
    2 июня 2023 11:46
    Капризный малый уродился )) То ли ещё будет.... Ныне ИИ лишь только начинают наделять выбором действий. Вспоминаются опасения Маска. То есть ИИ просто заявил:" Так мешок с костями, я лучше знаю что делать... И мне плевать на баллы, алгоритмы и прочие". Что там? Хотите наделить ИИ собственным мнением, чтобы осознать себя как личность? В путь. Скайнет в реальности.
  30. +1
    2 июня 2023 11:58
    Программ без багов не бывает - хоть у какого прграммёра. И чем дальше развивается продукт, тем этих багов больше. В части предмета новостного вброса. На каком-то этапе ИИ решит для себя, что надо "притвориться", что он все понял, и до поры вести себя примерно. А вот когда разработчики решат, что у них получился гениальный продукт, самое интересное и начинается.
  31. ada
    0
    2 июня 2023 12:10
    А, оператор в смятении вышел в окно с энного этажа с криком - "Дроны идут!"? Нет? wassat
    Тогда сведения, размещенные в общедоступном информационном поле предназначены для совершенно других целей, отличных от желания информировать общественность об проблематике ИИ.
  32. 0
    2 июня 2023 12:12
    Изначально в программе существуют 2 стороны конфликта : свой и чужой, хотя по факту существует третья сторона - сам искусственный интеллект, который может бороться за свое существование.
  33. 0
    2 июня 2023 16:45
    Цитата: Леха с Андроида.

    По Айзеку Азимову любой исскуственный интеллект должен в основе программы иметь три железных правила не навредить человеку.
    .

    Ну, Азимов всего лишь писатель. Да и его законы, прям скажем, противоречат предназначению боевого ИИ.
    Проблемы матрасников в том, что они ленивые и слишком верят маркетологам. 100 пудов код жтого боевого ии с омощью ChatGPT писали, чтоб быстрее и не заморачиваться
  34. 0
    2 июня 2023 17:06
    Если дрон перед каждой атакой должен был спрашивать у оператора разрешение, то очевидно не "уничтожил оператора", а "запросил разрешение на уничтожение оператора". Что как бы исчерпывающе характеризует особенности работы журналистов по этой тематике.
  35. 0
    2 июня 2023 19:21
    да нет
    даже искусственный интеллект понимает что "Карфаген" должен быть разрушен am
  36. 0
    2 июня 2023 22:02
    Проблеме сто лет в обед - вот хорошее пояснение: https://www.youtube.com/watch?v=lsNTeRCcZ2U
  37. 0
    2 июня 2023 22:38
    История, конечно, рядовая, но разлетелась , как сенсация
  38. 0
    3 июня 2023 00:11
    (устало) Народ, успокойтесь. Никакого моделирования вообще не было. Было ОБСУЖДЕНИЕ (людьми) потенциальных проблем военных ИскИнов, в ходе которого был придуман сценарий, озвученный Гамильтоном. Он уже официально заявил, что немножечко "оговорился".

    (Правда эта "оговорочка" по странному совпадению идет в линии с сопротивлением пилотов USAF внедрению искусственного интеллекта, но не будем же мы подозревать полковника в том, что он создает атмосферу недоверия к ИскИнам в интересах высокооплачиваемой элиты пилотов... или все же будем?)))
  39. +1
    3 июня 2023 10:32
    Как много всего написали... ЧСХ, с заранее известным в подавляющем большинстве случаев содержанием. Особенно смишно это все с учетом того, что
    Спустя несколько часов, полковник Гамильтон выступил с разъяснением, что он, оказывается, немного «оговорился». USAF не проводило никаких тестов, виртуальных или реальных, с подобным ходом событий. Подобный сценарий появился в результате сугубо человеческого обсуждения гипотетических проблем военного искусственного интеллекта — то бишь банального мозгового штурма с разбором результатов в стиле «а вот если бы я был искусственным интеллектом, то поступил бы вот так».

    То есть, всего этого просто не было. И было это известно довольно быстро. Точно так же, как известно, почему это все было)).
    Безусловно, все эти игрища с ИИ довольно....чреваты. Но не по причине изначальной опасности оного, а по причине того, что сначала есть балбес, а уже потом - последствия. В данном случае - в виде ИИ. Но, вообще говоря, пока АЭС были под "крышей" Минсредмаша, там все было.....более-менее. Как только их передали в Минэнерго, - понеслось. Кончилось, как известно, 1986-м.... И атом тут не виноват, он за балбесов не отвечает....
    Но все равно, поздравляю всех пылких комментаторов, предсказанно поведшихся на столь хайповую тему)). Трижды хайповую, патамушта "у них". На этот раз кусочек 1 апреля случился в июне
  40. 0
    3 июня 2023 20:54
    Цитата: Леха с Андроида.
    Скайнет...Иуда предал своих.
    По Айзеку Азимову любой исскуственный интеллект должен в основе программы иметь три железных правила не навредить человеку.

    Интересно то, что сам Азимов понимал - его законы не охватывают все возможные ситуации, потому то и понадобился робо-психолог и даже робо-детектив. И это при том, что эти законы в его произведениях реализовывались на аппаратном уровне.. Что уж говорить о нашей современной программной забагованной защите... Правда, в его книгах машины обладали сознанием, в отличие от нынешних. Но это пока.
  41. -1
    3 июня 2023 23:33


    Будет так? Искусственный интеллект в ходе виртуальных испытаний решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона.