Ученые предвидят скорое появление роботов-убийц

45
Ученые предвидят скорое появление роботов-убийцИсследования в области создания искусственного интеллекта в военной сфере должны быть ограничены – с таким призывом обратились к миру более тысячи ученых и изобретателей. Главное, что их беспокоит, – перспектива создания автономных систем, наделенных правом принимать решение об убийстве без участия человека. От всех остальных систем их отличает одно принципиальное обстоятельство.

Более тысячи ученых, инженеров и бизнесменов со всего мира подписали письмо с призывом ввести запрет на использование автономных систем оружия, наделенных искусственным разумом. Среди них знаменитый британский теоретик и астрофизик Стивен Хокинг, американский изобретатель и бизнесмен Илон Маск, сооснователь Apple Стив Возняк, исполнительный директор Google DeepMind Демис Хассабис, лингвист Ноам Хомский.



«Когда пилоту самолета или спецназовцу отдается приказ об уничтожении объекта, пилот и спецназовец тоже выступают в качестве интеллектуального оружия?»

Письмо было обнародовано на проходящей в Буэнос-Айресе международной конференции по проблемам искусственного разума.
«Развитие технологии искусственного разума достигло стадии, когда подобные системы могут быть размещены на носителях в течение уже ближайших нескольких лет. Опасность велика, так как подобные автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия», – говорится в документе.

Авторы письма не призывают запретить в целом разработки технологий искусственного разума для оборонной промышленности, но, по их мнению, эти технологии не должны быть автономными и наделяться функцией самостоятельного принятия решений.

«Если ведущие военные державы продолжат разработки систем оружия с искусственным разумом, то мировая гонка вооружений станет неизбежной. Результат ее можно предсказать уже сейчас: автономное оружие станет таким же обыденным завтра, как автомат Калашникова сегодня», – подчеркивается в документе.

Автономная система, в отличие от автоматизированной, вообще не предполагает участия человека. До создания автономного оружия, по мнению экспертов, еще далеко. Тем не менее и на нынешнем уровне развития технологий ученые высказывают ряд опасений: команда на уничтожение человека на Ближнем Востоке может быть отдана офицером, находящимся в своем кабинете в США. И уровень осознания того, что он делает, у оператора БПЛА может весьма сильно отличаться от того, что есть у бойца, находящегося на передовой. Отдельной проблемой является возможное использование беспилотников без маркировки в интересах спецслужб.

Полностью исключить ошибку нельзя ни в автономной системе, ни в автоматизированной, однако в последнем случае по крайней мере можно найти того, кто отвечает за последствия ошибки.

«Разведывательно-ударные беспилотные системы являются автоматизированными системами. Вопрос идентификации целей, решение о применении оружия остаются за человеком, – сказал газете ВЗГЛЯД эксперт по беспилотным летательным аппаратам Денис Федутинов. – И можно найти конкретного человека, который принял то или иное решение. И в случае ошибки есть ответственный. Если мы переложим этот вопрос на автоматические системы, персоналий не будет. Я считаю, это совершенно преждевременно. По крайней мере в обозримой перспективе эти функции должны оставаться за человеком».

Он подчеркнул, что в развитии БПЛА сейчас происходит повышение доли автоматически или автоматизируемо реализуемых задач. «В настоящее время здесь речь идет об автоматизации этапов взлета-посадки, обнаружения целей, их идентификации и сопровождения. В перспективе также будут ставиться задачи автоматического поражения целей, при одиночных действиях и действиях в группе с другими пилотируемыми и беспилотными летательными аппаратами. Это должно продолжить сокращение времени цикла «обнаружение – поражение», повысив эффективность действий соответствующих систем. Между тем сейчас наблюдаются нередкие ошибки в идентификации целей, что нередко приводит к жертвам среди мирного населения. Подобные ошибки наверняка пусть и в меньшем объеме, но сохранятся в ближайшей перспективе», – сказал эксперт.

Как рассказал газете ВЗГЛЯД эксперт по робототехнике, советник общероссийской программы «Робототехника: инженерно-технические кадры России» Алексей Корнилов, вопрос о создании и применении такого оружия обсуждается не один год. «Но, на мой взгляд, проблема не в робототехнике», – сказал эксперт.
Корнилов отметил, что общепризнанного определения, что такое искусственный интеллект, на данный момент нет. Поэтому специалисты в разных областях договариваются и принимают соответствующие определения только для своих узких сфер.

Касаясь оружия с искусственным интеллектом, специалист пояснил, что «чаще всего под этим понимается некая система, которая может сама принимать решение об уничтожении или о причинении ущерба тому или иному объекту».

«Те системы, которые сейчас есть, не дотягивают (в интеллектуальном плане – прим. ВЗГЛЯД) даже до уровня насекомых, например пчелы, не говоря уже о собаке. Но если мы вспомним, что древние скифы, воюя с персами, сбрасывали на врага ульи с пчелами, или сейчас мы посылаем собаку за человеком, предполагая, что он преступник, хотя он может им и не быть, в этих случаях также используется интеллектуальное оружие?» – рассуждает он.

Другой пример: когда пилоту самолета или спецназовцу отдается приказ об уничтожении объекта, пилот и спецназовец тоже выступают в качестве интеллектуального оружия?

«Технически очень легко поставить на шасси орудие и сделать его телеуправляемым. И также мы можем наделить систему дополнительными функциями. Например, сделать ее не просто радиоуправляемой, а способной выполнять ряд самостоятельных действий – проехать из пункта А в пункт Б и прислать оператору по пути картинку того, что там происходит. И если он заметит нечто опасное, он прикажет системе открыть огонь. Следующим этапом мы могли бы наделить эту машинку и функциями поиска опасного объекта. Она скажет оператору: вот посмотри, в этом месте я видела какое-то движение, я предполагаю, что этот объект опасен и лучше его уничтожить. После чего оператор отдаст команду на уничтожение. Наконец, можно прописать для машины такой алгоритм действий, чтобы она сама, без оператора определяла потенциальную опасность и сама открывала огонь», – рассказал эксперт.

При этом он считает некорректным говорить о машинах и роботах как несущих угрозу людям. Как и в случае с собакой, ответственность несет человек, который отдает ей команду, на кого бросаться.

«Это не функция искусственного интеллекта... Так же можно сказать о турникете в метро, что он им обладает. Он же тоже должен «соображать», пропустить вас или нет, учитывая ряд обстоятельств, например внесли ли вы плату. И тут то же самое», – считает Корнилов.

Резюмируя, эксперт рассказал, что современное состояние науки технически позволяет сделать очень опасными самые разные вещи. При этом само по себе развитие технологий не создает человечеству проблем, а только может обострить те противоречия, какие уже есть. Винить технологии в чем-то глупо. Рассматриваемый вопрос «не технический».

Опасения, связанные с бесконтрольным развитием автономных систем, ученые высказывают регулярно. Два года назад спецдокладчик ООН по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях Кристоф Хайнс призвал ввести повсеместный мораторий на производство летальных автономных роботизированных систем (Lethal autonomous robotics – LARS).

Эксперт рекомендовал призвать страны «ввести на национальном уровне мораторий на производство, сборку, передачу, приобретение, внедрение и использование LARS», пока применительно к этому виду вооружения не будут разработаны международные нормы. Использование подобных роботов у Хайнса «вызывает вопросы, имеющие далеко идущие последствия в том, что касается защиты жизни в условиях войны и мира».

Сейчас, подчеркнул спецдокладчик, таких правовых рамок не существует, поэтому не ясно, можно ли запрограммировать машины так, «что они будут действовать в соответствии с нормами международного гуманитарного права», особенно в том, что касается определения различий между военными и гражданскими лицами.

Помимо этого, заметил эксперт, «невозможно разработать сколько-нибудь адекватную систему правовой ответственности» при использовании автономных роботов. «В то время как в случае с беспилотными летательными аппаратами человек принимает решение, когда начать огонь на поражение, в LARS бортовой компьютер решает, в кого целиться», – сказал он.

В 2012 году правозащитная организация Human Rights Watch опубликовала 50-страничный доклад под названием «Теряя человечность: Аргументы против роботов», в котором предупредила об опасности создания полностью автоматизированного вооружения. Доклад, составленный Human Rights Watch совместно с Гарвардской школой права, призывал отдельные государства разработать международный договор, который бы полностью запретил производство и использование роботизированного вооружения.

Правозащитники отметили, что автономного боевого оружия пока не существует и до принятия его на вооружение еще далеко, однако военные в некоторых странах, к примеру в США, уже представили прототипы, которые воплощают значительный прорыв к созданию «машин-убийц».

В докладе отмечается, что США лидируют в этой гонке, кроме того, в нее вовлечены некоторые другие страны, в том числе Китай, Германия, Израиль, Южная Корея, Россия и Великобритания.

По мнению многих специалистов, к полной автономии боевых машин странам придется идти от 20 до 30 лет.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

45 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +8
    1 августа 2015 06:17
    Бред. Прежде чем создавать терминаторов необходимо у себя в головах порядок навести. Уже необитаемые планеты надо осваивать, в других системах, а мы эту поделить не можем.
    1. +3
      1 августа 2015 06:39
      Ученые предвидят скорое появление роботов-убийц

      Что Нас предвидеть? Мы уже здесь!

      А это часом не те учёные, что высказались против автономных оружейных систем с искусственным интеллектом???
      Вопрос-вопрос???
      Ну ничего, от Нас они не уйдут bully
      1. +3
        1 августа 2015 07:44
        Предлагаю посмотреть на статью не с точки зрения всех этих сказок сумрачной nенdosии, а элементарного здравого смысла: без ножек - шоколадки не будет. Иными словами - где долгоживущий автономный дешевый элемент питания под весь этот цветастый праздник словоблудия? laughing
        1. +3
          1 августа 2015 08:43
          Цитата: Байкал
          где долгоживущий автономный дешевый элемент питания

          Элементарно.

          а) Бензиновый шаговый. Только с него нужно брать не крутящий момент, а энергию сжатого газа - давление. Т.е. получается система движения на пневматике и через шланги и трубки передавать энергию сжатого чего-то (скорей всего воздуха, но есть некие преимущества и у жидкостей) на пневматические движители. Кстати, как пример, есть сапоги скороходы ускоряющие бег человека по подобному принципу https://www.youtube.com/watch?v=UxtRf8wnvKI расход топлива, примерно, 8 мл/км, повторяю 0,8 литра на 100 км.

          б) Гибридный. Как в авто. Тогда всё переходит на электричество.

          Так что проблема не в питании типа батарейки. Проблема пока в сложности управления движением без колёс. Ну не хватает пока интеллекта для такого движения...
          1. +2
            1 августа 2015 08:55
            Цитата: srha
            Проблема пока в сложности управления движением без колёс. Ну не хватает пока интеллекта для такого движения

            Понимаю, что эта "лошадь" - уже баян канадский, но - у нее вполне хватает "интеллекта" для "движения без колес".

            В любой поисковик - "darpa лошадка видео" - там таких много.

            1. 0
              1 августа 2015 10:05
              Как она поднимется после опрокидывания, если застрянет в опрокинутом состоянии? Как будет двигаться по каменной осыпи? По льду? По песку? По болоту? По воде? По дереву через овраг? Как преодолеет яму? И т.д. Пока лишь самые простые движения на довольно простых трассах. Пока учится.
              А в этой модели не только "мозгов" мало, но и кинематика ещё ущербна по сравнению с млекопитающимися.
              1. +1
                1 августа 2015 12:16
                В нете есть видео в котором "big dog" движется и по льду, и по говнам и преодолевает препятствия, и даже держит равновесие после сильных толчков ногой
              2. +4
                1 августа 2015 14:13
                Контора называется bostondynamics слежу за ней с 2007 года , ролик выше от 2012 го . Зайдите на сайт и посмотрите , что ребята делают . Вот честно , это вам не за пару тройку десятков мультов на квадр маникен привязывать с пулеметом и потом перед Шойгу прыгать какие мы русские инженеры замечательные . в 2013 у них скачок был очень впечатляющий в разработках и что характерно где то с конца 13 го начало 14 го годов инфы по ним стало очень дозировано. Так что в этих темах они не размышляют об ущербности кинематики а увы делают. Одна надежда что служба ВР решила "умыкнуть дешевле чем догонять".
                1. +2
                  1 августа 2015 19:23
                  Передвигаются по любым поверхностям
                  1. 0
                    2 августа 2015 10:38
                    Цитата: KG_patriot_last
                    Передвигаются по любым поверхностям
                    Да ну? Странно, а я вижу только ровную поверхность с небольшими неустойчивыми барьерами.

                    Я посмотрел, что ребята делают. За два года сумели здорово продвинуться от семенения, когда две конечности всегда были в контакте с землей, до бега, когда все четыре отрываются от земли. Т.е. реально перешли от статики к динамике. Наклонные поверхности берут, в габариты вписываются, пологие лесенки. Но работы там ещё не початый край! Почему они используют упрощенную, по сравнению с млекопитающими, кинематику? А потому что так проще приходится с алгоритмами, пока могут только так.

                    Кстати, если заметили, чтобы сделать прыгающую модель им пришлось ввести дополнительный сустав (эмулирующий тазобедренный и плечевой) - приблизиться к схеме млекопитающихся. А дальше им надо эмулировать позвоночник и лапы. И совсем не уверен, что этого хватит на прохождение таежного маршрута километров в 200. У них ещё очень длинный путь развития, и главная проблема не механика, раз трехсоставную ногу сделали, значит могут и четырёх. Проблема именно в алгоритмах, т.е. в "интеллекте".
                    1. 0
                      2 августа 2015 11:52
                      Именно так , сначала гоняют на стенде потом в поле. Причем дапра изменила тех задание , раньше пёсик шёл за человеком по радио маячку а военные потребовали распознавание жестов. Казалось бы в чём проблема ? а в полевых условиях оказалось не всё так просто . А вот о том какой они в последних моделях сунули двигатель стирлинга молчат . Кстати на одном из роликов забавный "сюр" навороченная собачка за несколько десятков миллионов Убиёных Енотов тащит обычный миномет изобретенный 80 лет назад.
          2. 0
            1 августа 2015 21:52
            гирокоптеру не нужна не гидравлика не пневматика!
        2. +2
          1 августа 2015 10:32
          Синтетические мышцы создаются, аккумулятор, посмотрите на китайскую электрическую машину, покруче Тесла, 240 км без подзарядки, нужен емкий-а не дешевый, это вам не бюджетный смартфон, война дешивизну не любит, а армия США особенно, уже есть атомная батареййка на литии 33 работает 50 лет, но стоит дорого, у нас кстати создана.
        3. +1
          1 августа 2015 11:05
          Цитата: Байкал
          без ножек - шоколадки не будет

          Рассматривается принцип, а не конкретное изделие. Пусть хоть 5 минут автономный, но уже может всех перестрелять, или вообще стационарный, подключённый к собственной электростанции.
        4. +1
          1 августа 2015 11:40
          У нас уже атомную батарейку сделали, срок службы 50 лет.
          1. +3
            1 августа 2015 12:06
            Доиграются они в эти "игры в бога"...Господь создал лошадь, спрашивается, зачем изобретать лошадь? Думаю, все эти игры с созданием себе подобных добром не кончатся......
          2. +1
            1 августа 2015 14:30
            У нас атомную батарейку создали еще в 70-х.
            Когда учился в институте, у нас один преподаватель работал по совместительству, основное место работы Камчатгидрометеоцентр.
            Так вот, он рассказывал, что в начале 80-х на Камчатке проводился эксперимент. На пяти автоматических метеостанциях обычные блоки питания заменили на атомные. Эксперимент проходил два года и закончился полным провалом. Как всегда сказался человеческий фактор. Дело в том, что блоки питания для охлаждения оснащались достаточно большими металлическими радиаторами, которые из ружей расстреливали охотнички. В итоге блоки питания заменили на обычные, срок службы которых две недели. Станции с атомными блоками питания должны были проходить ТО раз в три месяца.
            Не знаю правда или нет, я такой информации нигде не встречал.
            Только слышал эту историю от одного старого охотника четыре года назад.
            1. +1
              1 августа 2015 14:50
              РИТЭГ 10*10 см по размерам , на удаленных маяках ставили . Об этих знаю , клоуны в 90х в Кандлакшском районе с маяка упёрли, шуму было , а чтоб с радиаторами , название не припомните ?
              1. 0
                1 августа 2015 16:14

                Не, я же их не видел. Рассказал со слов.
        5. +1
          1 августа 2015 14:51
          Цитата: Байкал
          где долгоживущий автономный дешевый элемент питания под весь этот цветастый праздник словоблудия?

          А каким долгоживущим автономным источникам питания обладает человек?
          1. 0
            1 августа 2015 17:27
            Цитата: KaPToC
            А каким долгоживущим автономным источникам питания обладает человек

            Жиром. В процессе окисления, выделяется энергия.Запасы различны, зависят от нагрузки и могут составлять от 1 суток, до 60 суток . Но много зависит от психического состояния. При заправке на основе Н2О срок действия увеличивается.
    2. +3
      1 августа 2015 15:29
      Цитата: Вальга
      Бред.


      Это не бред.
      Судя по комментариям, тут путают "искусственный интеллект" и "автономные системы".
      Искуственный интеллект будет создан только тогда, когда будет понят принцип работы мозка человека и принцип мышления. А это в ближайшие 100 лет нам не светит, если вообще возможно в полном понимании этого термина.
      А вот автономные системы, работающие по принципу просчета оптимальных вероятностей, обладающих зачатками ИИ, скоро будут созданы, и может раньше 20 лет. Только это не будут ходящие собаки или киборги, это будут танки, БТРы, БПЛА, флот и т.д., т.е то, что сможет несмти мощную ЭВМ, и обеспечивать все механизмы электропитанием.
      Теперь поймите, что автономная система работающая по принципу просчета вероятностей, будет регулярно совершать ошибки и учиться на них. Но скорость обучения будет всегда отставать от возможностей человека приспасабливаться к ситуации или менять ее в свою пользу. Отсюда вывод такие автономные системы будут всегда проигрывать человеку, поэтому будут запоаграммированы на тотальное уничтожение всего потенциально опасного.
      Эта статья, как раз об этой проблеме.
      Товарищи поменьше смотрите фантастику, а если ее любите, то относитесь к ней с долей иронии. Респект всем любителям научной фантастики и фильмов "Терминатор", "Чаппи", и т.д.
      1. +1
        1 августа 2015 15:48
        В письме как раз и говориться об автономных ударных системах уничтожающих всё живое. Трудности перевода , кто то из СМИ гулей бахнул текст, причесал литературно и разлетелось по всем новостям . Кстати с самообучающимися системами не всё так гладко , развитие шло за счёт приращение вычислительных мощностей , теперь надо менять алгоритмы . Предупреждаю сразу почему в теме , по работе связан с сваркой и плавкой металлов, а дома чтоб голова отдохнула ну и интересно bully
        1. 0
          1 августа 2015 16:36
          Помоему, кто занимался программированием должен это понимать. what
      2. +1
        1 августа 2015 21:01
        Цитата: БМВ
        Теперь поймите, что автономная система работающая по принципу просчета вероятностей, будет регулярно совершать ошибки и учиться на них. Но скорость обучения будет всегда отставать от возможностей человека приспасабливаться к ситуации или менять ее в свою пользу. Отсюда вывод такие автономные системы будут всегда проигрывать человеку,


        Человек в критических ситуациях склонен делать ошибки, чтобы превзойти робота, необходимо тщательно и долго тренироваться. Но для машины это не нужно, программа копируется в память за секунды. Человек совершеннее, но машины возьмут верх массовостью. Никакие запреты не остановят прогресс в военном деле. Автономные системы будут созданы уже в ближайшее время.
  2. +4
    1 августа 2015 07:10
    Перед Второй мировой говорили что предстоящая война будет войной моторов, теперь можно о будущей большой войне сказать, что она будет войной роботов. Призыв учёных ограничить применение ИС в вооружении не будут услышаны, ведь финансированием создания ИИ занимаются в основном военные.
  3. +2
    1 августа 2015 08:22
    Интеллигенты вновь пытаются рассказать простым парням от армии, как им надо воевать, сберегая цветочки...

    Но, прогресс не остановим. А задержка в развитии в военной области ведет к поражению. Поэтому есть лишь одна возможность - держать паритет, хотя бы несимметричный, из-за всех сил.

    А армия без автоматов с интеллектом скоро, видимо уже при нашей жизни, окажется в роли ацтеков перед кортесами.
  4. +1
    1 августа 2015 08:46
    Киборги заполонили!
  5. 0
    1 августа 2015 09:19
    Все точно -
    Цитата: srha
    армия без автоматов с интеллектом скоро, видимо уже при нашей жизни, окажется в роли ацтеков перед кортесами.

    Развитие этой отрасли идет впечатляющими темпами и думаю , что
    Цитата: srha
    к полной автономии боевых машин странам придется идти от 20 до 30 лет.
    - это максимум , в реальности это произойдет быстрее .
    1. 0
      1 августа 2015 10:08
      Цитата: Arestant
      Цитата: srha
      к полной автономии боевых машин странам придется идти от 20 до 30 лет.
      Странно, я как-то и не помню, что такое писал? Не напомните ссылкой?
    2. -1
      1 августа 2015 10:27
      Очень похоже СССР создаст ядерную бомбу за 20-30 лет, а создали к 1949 году.Прогнозы амеров всегда точные.
  6. -3
    1 августа 2015 10:25
    Все эти конгресы и письма как мертвому припарка, надо создавать одно государство на планете, одно правительство, строить новый строй нью коммунизм, вступать в нью коммунистическую партию-единственную на сегодня которая предлагает дружить с Роботами и строить новую экономику, где роботы вкалывают,и создают материальные ценности, а люди их потребляют и веселятся, ну и иногда трудятся, если есть на то желание. С искуственным интеллектом надо дружить, как предлагают нью коммунисты, а не воевать, как хотят Олигархи.
  7. +1
    1 августа 2015 11:46
    Вопрос ставится о убийстве людей. По людски только суд решает о наказании преступника, находящегося под стражей. Только так нет случайных жертв. Кто вообще дал кому право дистанционно осуждать и убивать?
    Исходя из этого ИИ для убийства людей это оружие нападения, оружие агрессора.
    Если ставить вопрос о "убийстве" машин, то всё упрощается. ИИ становится уже защитником и можно прописывать закон типа "о недопущении человеческих жертв" без разбора "плохой" или "хороший" человек.

    Хотя это всё условно. Оружие предназначено для убийства, а борьба это и есть жизнь. Поэтому вопросы о гуманности способа убийства это вторично. Цивилизация уже живёт с атомом, способным её погубить. Просто появляется ещё один способ самоубиения. Это неизбежно как и технический прогресс.
  8. -1
    1 августа 2015 15:11
    Человечество само себя сожрёт.
    С одной стороны, туда ему и дорога, такому человечеству!
    С другой, ещё пожить хочется...
    А вот всех учёных уже пора прореживать! - от них все проблемы и беды!
    Доизобретаются, кретины!...
    Всё, что надо "для счастья" - изобретено в 19в. Всё что изобрели дальше - ведёт к ускорению конца цивилизации.
    1. +1
      1 августа 2015 16:42
      Цитата: Вожик
      А вот всех учёных уже пора прореживать! - от них все проблемы и беды


      Глупость, дело не в ученых, а в о"безьянах", которым что-то дают, а они этим пользоваться не умеют.
      Все беды от человеческой жадности, глупости и примитивизма. fool
  9. +1
    1 августа 2015 16:02
    с чего вы взяли что роботы должны быть человекоподобными и шагающими? Почему вы решили что роботы должны быть на батарейках? Почему вы думаете что робот не может быть запитанн от двигателя внутреннего сгорания? Искуственный интелект давно уже создан, великие шахматисты уже не могут справится с" компьтерными игроками", и убивать людей, машины готовы уже сейчас, слава богу что пока их контролируют люди. Наверное нужно принять правила Аязека Азимова: робот не должен наносить вред человеку! А машин и механизмов, которые убивают без операторов полно, ну хотя бы мины, установил ее, и она сама убьет любого, к ней прикоснувшегося.
  10. -1
    1 августа 2015 16:17
    В шахматы играют если упрощенно "методом перебора" , вот когда комп обыграет мастера игры в го, вот тогда можно будет говорить об интеллекте. В том то и дело что мина это оборонительное оружие , не лезь и не взорвешься . Сам посыл этого письма приравнять автономные ударные системы на базе чего угодно к ЯО и ессено только "жутко демократические " страны могут делать и обладать ими ... вы не представляете какой сейчас *рач стоит на немецких и австралийский форумах , а вроде приличные люди, инженеры )))
  11. +1
    1 августа 2015 17:39
    Не такой уж это и бред. Не так давно чтобы позвонить мы стояли в очередь в телефонную будку, а слово компьютер ассоциировалось с большим ящиком и перфокартой. Мы с трудом можем представить что будет через какие то 10-20 лет. Киборги? Почему нет?
  12. +2
    1 августа 2015 19:36
    Думаю, что первые роботизированные системы будут колесными или гусеничными. Основное оружие-пулемет. Создатели терминатора угадали направление развития, показав их в фильме терминатор-3.
  13. +2
    1 августа 2015 21:33
    ИМХО. Те кто увлекается фантастикой, только не той одноразовой, которая заполнила полки, знает что многие изобретение, как телефон, подлодка, космические путешествия, лазер и т.д.. были описаны фантастами замного до их появления. Вспомните как смешно выглядел первый самолет, пулемет, танк и т.д.. А сейчас? Первый ЭВМ который занимал целое здание - смартфон, планшет. Мы управляем удаленным доступом техникой, доверяем автопилоты, "Буран" и "Шаттлы" и т.д. А ведь совсем недавно это казалось безумной фантазией. Разве не так? Эти люди хотят сказать, что идет мощный прогресс развития искусственного разума и роботехники. И они заглядывают далеко. Мы доверяем технике, убирая человеческий фактор, а что будет, если вооруженная машина с саморазвивающимся интеллектом посчитает нас угрозой? Уничтожит. Так что многие фильмы могут стать еще Ветхим заветом ( так к слову). А если это эволюция? Людей будут выращивать, чтобы машиной управлял мозг человека, а тело не к чему. Машине не страшна радиация, температура и т.д. Это все кажется бредом, но многие фантастические романы тоже считались безумием. Самое страшное, что мы можем стать лишними, а если ядерным оружием управлять будет робот, и получиться технофактор?
    Эти законы написаны, когда роботов не было, помните? Они актуальны сегодня.

    Три зако́на роботе́хники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).

    Законы гласят:
    1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
    2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
    В 1986 году в романе "Роботы и Империя" Азимов предложил Нулевой Закон:

    0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

    Я считаю принятием ограничении по развитию данного направления, мы сбережем Землю для наших потомков, это не угроза одному народу, это угроза человечеству.
    Пс. Сс. Звучит пафосно. Сумбурно немного. Не нравиться выразите свое мнение. Но Вы можете представить себя без телефона и ПК? Дети тем более. Они и на улице теперь реже. Физически здоровых мало. Везде чипы - телефон, карта, паспорт, скоро при рождении вшивать будут сразу recourse мы как стадо коров с бирками на шее для контроля. Деградация Гомо сапиенс? ИМХО! Удачи и здоровья Вам и Вашим близким!
  14. Комментарий был удален.
  15. +1
    1 августа 2015 22:47
    Сколько фантазирования в комментариях…

    Проблема ИИ на современном уровне знаний не решаема принципиально. Нет понимания не только как построить ИИ, но и вообще с какой стороны подходить к проблеме.

    Просвет видится только в создании так называемых «экспертных систем», которые интеллектом не являются, это гибкий пул алгоритмов для решения конечного числа задач. Здесь прорыв возможен.

    «Автономные системы вооружения» — ахинея меньшего масштаба, чем ИИ, но на сегодня является такой же фантастикой. Вычислительных мощностей любых современных процессоров и подобных им процессоров ближайшего будущего, работающих на тех же принципах, для решения этой задачи (на базе тех самых «экспертных систем») недостаточно. Изменение может произойти только с прорывом в области квантовой вычислительной техники, а это ещё бабка надвое сказала: может выйдет, а может через 50 лет что-то появится. Хотя есть еще надежда на прорыв в фотонике.

    Поэтому закатайте толстые губищи) Не видать еще на горизонте электронного сапога, идеально марширующего, орущего «Здав желаем!!!» металлическими лужёными глотками, сверкая преданным блеском видеокамер.
    1. 0
      1 августа 2015 23:21
      Создание ИИ чисто техническая проблема, никакой сверх загадки, как устроен мозг человека нет. По крайней мере это не сложнее других научных открытий.
      Конечно, такие разработки являются военной тайной и никто публиковать их не будет.
  16. +1
    1 августа 2015 23:50
    Все разговоры об искусственном интеллекте в той мере преждевременны, в какой наука далека от понимания самой сути интеллекта человека, способного на творческую деятельность, на самоанализ и самокритику, образное мышление, наблюдение и выстраивание уходящих в перспективу логических цепей. Медики не понимают, где именно (и вообще, в головном мозге ли) находится сознание человека, где память, соответственно, создать подобие в принципе не возможно пока.
    Так что единственным подобием интеллекта на сегодняшний день может быть аналог поведенческого модуля насекомого, основанного на взаимоподдерживающих инстинктах (алгоритмах).
    Посему, научная фантастика об искусственном интеллекте, как минимум, ближайшие десятилетия останется фантастикой. А роль блока управления боевой машиной будет выполнять удалённый оператор - вполне себе живой человек.
  17. 0
    1 августа 2015 23:52
    Цитата: Ментат
    Проблема ИИ на современном уровне знаний не решаема принципиально. Нет понимания не только как построить ИИ, но и вообще с какой стороны подходить к проблеме.

    Да вы поймите ИИ здесь не причём , автомобили без водителя по автобанам ездят , не кто не говорит что ура это ИИ правда ? что мешает присобачить оружие к такому авто и уничтожать всё что шевельнется . Мы спим спокойно, потому что знаем применение ЯО это сложная процедура . К примеру Армата почти готовый автономный боевой модуль( технологии уже позволяют сделать его таковым ) , где гарантии что пьяный капитан ради прикола не отправит в ближайший город с десяток другой таких модулей ? или обидится кто нибудь на границе и что не стало маленькой но гордой республики . У железа нет сомнений .Весь посыл этого письма не в том что мы сделаем терминатора , а в том что этим сейчас занимаются все кому не лень и бесконтрольно . Утекут эти технологии к тем же китайцам а нет таких законов что нельзя продавать в другие страны автономные модули , что начнется на востоке ? что начнется в Азии ? Чтобы подготовить шахида нужно его завербовать , одурманить и направить на цель , это время , это "палево" спецслужбы всёж работают а тут собранный в гараже модуль и не один ( неважно гусеничный ход , пневмоход , как человек , как зеленый человек ) важно что он убивает в толпе . И вот тогда начнется новая эра террора . Об этом и пытаются сказать те кто это и разрабатывает.
    Цитата: Ментат
    «Автономные системы вооружения» — ахинея меньшего масштаба, чем ИИ, но на сегодня является такой же фантастикой.

    дико извиняюсь а тунгуска и тор автономно уже никак ? первое что пришло на ум .
  18. +1
    2 августа 2015 00:01
    Цитата: Ментат
    Сколько фантазирования в комментариях…

    Это выражения мнений и Ваше тоже. О глобальных проблемах как потепление, экология тоже в 19-20 веке было рано писать, но оно увы, наступило. Теперь мы боремся с последствиями, когда могли устранить причину. И тоже самое здесь. Ведь с призывом обратились:
    Более тысячи ученых, инженеров и бизнесменов со всего мира подписали письмо с призывом ввести запрет на использование автономных систем оружия, наделенных искусственным разумом. Среди них знаменитый британский теоретик и астрофизик Стивен Хокинг, американский изобретатель и бизнесмен Илон Маск, сооснователь Apple Стив Возняк, исполнительный директор Google DeepMind Демис Хассабис, лингвист Ноам Хомский.

    Я думаю они не глупее нас. В споре рождается истина. С уважением.
  19. +1
    2 августа 2015 00:07
    Цитата: Вальга
    Бред. Прежде чем создавать терминаторов необходимо у себя в головах порядок навести. Уже необитаемые планеты надо осваивать, в других системах, а мы эту поделить не можем.

    Ну да,ну да.Пора,осваивать другие планеты.Это точно.Просто глупо биться за то-что из космоса пора таскать да космос осваивать и заселять.Силы и энергию-не на то тратим.А потом-планета на планету...Хотя армия-должна быть,ибо придут другие и завоюют.
    А этот интеллект-все равно изобретут.Запрещай,не запрещай-все понимают-кто быстрее изобретет-тот и победил.
    САМОЕ ГЛАВНОЕ-ЕГО ХОРОШО,ПРАВИЛЬНО ЗАПРОГРАММИРОВАТЬ-ЧТОБЫ ОН НЕ СДЕЛАЛ ПЛОХО-ВСЕМУ ЧЕЛОВЕЧЕСТВУ.(я про применение его в войне).А то в итоге будем сражаться не мы,люди,а создания превосходящие нас по интеллекту и с нами и друг против друга-мы вообще в муравьев каких-то превратимся...
  20. 0
    2 августа 2015 18:11
    Цитата: Slippery
    Цитата: Ментат
    Проблема ИИ на современном уровне знаний не решаема принципиально. Нет понимания не только как построить ИИ, но и вообще с какой стороны подходить к проблеме.

    Да вы поймите ИИ здесь не причём , автомобили без водителя по автобанам ездят , не кто не говорит что ура это ИИ правда ? что мешает присобачить оружие к такому авто и уничтожать всё что шевельнется .

    Перефразируя высказывание, «страшно далеки вы от робототехники», это и мешает.

    Мы спим спокойно, потому что знаем применение ЯО это сложная процедура.

    Мы спим спокойно, потому что супостат знает, что нажав на кнопку, он сам сгорит во всепланетной катастрофе. Ваши высказывания становятся всё страньше и страньше.
    Вам знаком термин «ядерное сдерживание»?

    К примеру Армата почти готовый автономный боевой модуль( технологии уже позволяют сделать его таковым ) , где гарантии что пьяный капитан ради прикола не отправит в ближайший город с десяток другой таких модулей ?

    Вы не просто страшно далеки, вы за безграничной пропастью непонимания.


    У железа нет сомнений
    неважно гусеничный ход , пневмоход , как человек , как зеленый человек важно что он убивает в толпе

    Класс пятый средней школы?


    Цитата: Ментат
    «Автономные системы вооружения» — ахинея меньшего масштаба, чем ИИ, но на сегодня является такой же фантастикой.

    дико извиняюсь а тунгуска и тор автономно уже никак ? первое что пришло на ум .

    Никак. Там такой внутри человечек сидит и на кнопочки нажимает, представляете?
  21. 0
    2 августа 2015 18:18
    Цитата: Рейдер
    Цитата: Ментат
    Сколько фантазирования в комментариях…

    Это выражения мнений и Ваше тоже.

    Конечно. Правда не только моё, это консолидированное мнение инженерного сообщества планеты Земля.

    Более тысячи ученых, инженеров и бизнесменов со всего мира подписали письмо

    Я думаю они не глупее нас.

    Вполне вероятно. Однако вы читали и не поняли, о чем письмо. Оно не об искусственном интеллекте, что все принялись остервенело обсасывать, а о том, что удаленное использование вооружений выхолащивает ответственность за его применение, упрощает убийство до недопустимой степени, снижает восприятие морального аспекта действия оператором.
    А появление ИИ усугубит эту ситуацию.
  22. 0
    2 августа 2015 18:25
    Цитата: Metlik
    Создание ИИ чисто техническая проблема, никакой сверх загадки, как устроен мозг человека нет.

    Недавно обнаружили признаки квантовых процессов в нейронах. Это к слову о загадках.
  23. 0
    3 августа 2015 12:50
    Цитата: Ментат
    Никак. Там такой внутри человечек сидит и на кнопочки нажимает, представляете?

    представляю.я даже представляю , что если матросик с вус механик-водитель в тунгуске люк правильно не закроет , то и выстрела не будет . Вы просто вспомните какие именно кнопочки нажимают во время автоматического ведения огня зр и всё станет понятно .
  24. 0
    13 августа 2015 10:40
    Писатель-фантаст Анатолий Днепров об этом явлении очень наглядно описал в повести "Крабы идут по острову" еще в 1958 г.

    На небольшой остров высаживается десант под командованием инженера Куклинга. Они хотят провести забавный эксперимент для проверки теории Чарлза Дарвина. Только эволюционировать будут не животные, а самоорганизующиеся и воспроизводящие себе подобных механизмы-роботы, «крабы». Единственное назначение «краба» — изготавливать машины, себе подобные. Для производства потомства им необходима энергия, а также металл — железо, медь, цинк. Подобные крабы в тылу врага могут в короткий срок могут сожрать весь его металл. Так как металла мало на острове, крабы начинают драку за него, и в драках выживают лучшие механизмы, что ведёт к естественному отбору. Добавление кобальта «в пищу» крабам делает их агрессивными, превращает в бесстрашных хищников. Остров превращается в ад.
    1. 0
      13 августа 2015 10:56
      Компания Raytheon предлагает 3D-печать управляемых ракет практически на поле боя.

      В конечном счете, мы хотели бы печатать все сразу — полностью готовое изделие», — отметил Крис МакКэррол - проректор Научно-исследовательского института Лоуэлла Массачусетского университета Raytheon.
  25. 0
    30 августа 2015 22:58
    Роботы-убийцы у ФША уже есть. Это операторы боевых дронов.
    Никаких позывов совести - так, как игра в калл оф дьюти.
    Цели далеко(не видно крови, не слышно криков боли), отстранённое управление(держи перекрестье, верти джойстик да кнопы нажимай).
    Этих бы операторов кучи трупов разбирать, как немецкое население привлекали на территориях бывших фашистких лагерей смерти.
    Киборги, б*ля.

«Правый сектор» (запрещена в России), «Украинская повстанческая армия» (УПА) (запрещена в России), ИГИЛ (запрещена в России), «Джабхат Фатх аш-Шам» бывшая «Джабхат ан-Нусра» (запрещена в России), «Талибан» (запрещена в России), «Аль-Каида» (запрещена в России), «Фонд борьбы с коррупцией» (запрещена в России), «Штабы Навального» (запрещена в России), Facebook (запрещена в России), Instagram (запрещена в России), Meta (запрещена в России), «Misanthropic Division» (запрещена в России), «Азов» (запрещена в России), «Братья-мусульмане» (запрещена в России), «Аум Синрике» (запрещена в России), АУЕ (запрещена в России), УНА-УНСО (запрещена в России), Меджлис крымскотатарского народа (запрещена в России), легион «Свобода России» (вооруженное формирование, признано в РФ террористическим и запрещено)

«Некоммерческие организации, незарегистрированные общественные объединения или физические лица, выполняющие функции иностранного агента», а так же СМИ, выполняющие функции иностранного агента: «Медуза»; «Голос Америки»; «Реалии»; «Настоящее время»; «Радио свободы»; Пономарев Лев; Пономарев Илья; Савицкая; Маркелов; Камалягин; Апахончич; Макаревич; Дудь; Гордон; Жданов; Медведев; Федоров; Михаил Касьянов; «Сова»; «Альянс врачей»; «РКК» «Центр Левады»; «Мемориал»; «Голос»; «Человек и Закон»; «Дождь»; «Медиазона»; «Deutsche Welle»; СМК «Кавказский узел»; «Insider»; «Новая газета»