Рубрика "Мнения" : Здесь выкладываются абсолютно различные мнения-статьи посетителей сайта, а также статьи с других сайтов для обсуждения. Администрация сайта по поводу этих новостей может иметь мнение, отличное от мнения авторов материалов.

Мораль для роботов-убийц

Мораль для роботов-убийц


Сегодня в мире существуют лишь неподвижные боевые роботы, самостоятельно принимающие решения по уничтожению врага. Однако военным развитых стран мира очень хотелось бы изменить эту ситуацию и сделать их еще и мобильными. Полностью автономные в принятии решений роботы привлекают отсутствием у них человеческих слабостей и рядом возможностей, недоступных для человека. Увы, чтобы добиться этого, машинам-убийцам необходимо привить хотя бы базовые этические принципы — прежде всего умение выбирать: между злом и «меньшим злом», между приемлемым и неприемлемым поведением. Об обязательности и невозможности этики боевых роботов — в расследовании «Ленты.ру».

Слабости операторов и огонь по своим


Интерес развитых стран к боевым роботам подогревается прежде всего тем, что граждане этих государств стали крайне негативно относиться к большим потерям личного состава. Если во время советско-финской войны СССР терял в день 1300 человек убитыми, и это никак не влияло на его решение о сворачивании войны, то в 1989 году потери сподвигли руководство Союза уйти из Афганистана, где в день погибало менее трех советских бойцов. Аналогичный сдвиг в сознании произошел и в США: в 1941 году они сражались после потери 2345 человек за 90 минут, а в 1993 году были вынуждены навсегда оставить в покое Сомали после того, как потери там достигли уровня девяти убитых в день.

Робот выглядит идеальным решением этой проблемы. Он всегда пользуется прицелом, у него не трясутся руки, он не стреляет наугад. Наконец, потеря даже сотни роботов в день никак не способна взволновать общественное мнение.

На пустом месте посылать на поле боя мобильных роботов — дело не простое: поэтому сначала были предприняты попытки создать дистанционно управляемые боевые машины. Первых боевых успехов на этом направлении достигли еще немецкие беспилотные катера Fernlenkboote, в 1917 серьезно повредившие британский монитор «Эребус». А к сентябрю 1918 года был создан и первый беспилотный самолет Fledermaus, несший не менее ста килограмм бомб. Ноябрьская революция в Германии надолго затормозила дальнейшее развитие этого направления, однако к началу XXI века, с появлением эффективно телеуправляемых по радиоканалу американских и израильских беспилотных летательных аппаратов (БПЛА), дистанционно управляемые машины стали реальным и весьма эффективным оружием.

Мораль для роботов-убийц

Немецкий беспилотный катер Fernlenkboote
Фото: delcampe.de


Человек-оператор по-прежнему оставался самым слабым местом этих войск. БПЛА постоянно атакуют то мирных жителей, то своих солдат: оператор по экрану не всегда может отделить одних от других. Хотя возможности оператора по точному наведению оружия выше, чем у бойца на фронте (на «удаленного воина» не давит страх смерти), они, в массе своей, стреляют далеко не идеально.

Кроме того, появились комплексы радиоэлектронной борьбы, позволяющие перехватить контроль над дистанционно управляемыми машинами врага. Именно благодаря одному из них иранцы в 2012 году захватили новейший американский БПЛА RQ-170. Инцидент такого рода далеко не единичен: иракские повстанцы с помощью российской программы SkyGrabber загружали себе на ноутбуки видео с американских разведывательных беспилотников. Используемая на них ОС делает их легкими жертвами простейших вирусов, типа кейлоггера, поразивших системы БПЛА Reaper и Predator в 2011 году. Персонал, обслуживавший машины, оказался настолько слабо готов к борьбе с вирусами, что для получения первичных знаний им пришлось обратиться к... веб-странице «Касперского».

Мораль для роботов-убийц

Беспилотный летательный аппарат MQ-9 Reaper способен наносить ракетный удар, но требует управления оператором
Фото: Leslie Pratt / US Air Force / AP


Настоящим решением такой проблемы может стать лишь по-настоящему автономный комплекс — такой, к которому не будут подключаться операторы из Аризоны, подгружающие карты с переносных жестких дисков, куда они до того скачивали порно (одна из версий инфицирования Reaper). У таких систем противник не сможет перехватить управляющий радиоканал, и заставить их работать на Иран или ИГИЛ также будет весьма затруднительно.

На этом пути есть только одно препятствие: этика. На первый взгляд, это выглядит парадоксальным: если военные хотят безнаказанно убивать врагов в далекой стране, при чем здесь этика?

Поясним на примере. Реактивные самолеты слишком быстры, чтобы сбить их на бреющем полете, полагаясь лишь на отдачу приказов оператором. Поэтому одной из наиболее ранних систем, способных автоматически принять решение на открытие огня, стал швейцарский комплекс Skyguard, в который входят 35-миллиметровые зенитки Oerlikon GDF. Способность к самостоятельному принятию решений была продемонстрирована ими еще в 1982 году, во время войны за контроль над Фолклендскими островами. Воюя на стороне Аргентины, они эффективно сбивали летательные аппараты британцев и прижимали к земле их пехоту. В сражении при Гуз-Грин Oerlikon GDF смог остановить две британские роты, нанеся им потери в 13 человек.

Мораль для роботов-убийц

Ракетная пусковая установка Skyguard-Sparrow
Фото: wikipedia.org


Однако предки роботов имели существенные недостатки. Так, они сбили два аргентинских самолета, случайно залетевших в зону, которую Skyguard расценивал как «свою». Как мы видим, первые невинные жертвы у роботизированного комплекса Skyguard появились за пару лет до того, как на экраны вышел фильм про восстание машин под управлением комплекса Skynet.

Мораль для роботов-убийц

Роботизированный зенитный комплекс Oerlikon Twingun GDF 007
Фото: pressebox.de


Oerlikon GDF взял кровавую дань и с военных ЮАР, в 2007 году за 0,125 секунды убив на учениях девять «сослуживцев». Проблема в том, что роботизированным системам, чтобы избежать систематических сбоев такого рода, нужно научиться отличать этически приемлемые действия (стрельбу по врагу) от неприемлемых (по своим и гражданским). То есть, если на поле боя не выпускать абсолютно аморальные и готовые убивать все, что движется, боевые машины, им понадобится как-то отличать приемлемые действия от неприемлемых, легитимные мишени — от людей, которых убивать запрещено (гражданских лиц, медицинский персонал, прессу). По сути дела, умение различать и выбирать — это и есть основа этики боевых роботов.

Стрелять ли в злодейку?

Однако группа ученых во главе с Мартином Циглером из Дармштадского технического университета решила исследовать вопрос: а разрешима ли задача создания этичных роботов-убийц вообще? Способны ли такие машины к этическому выбору?

Чтобы понять это, ученые взяли четыре варианта «проблемы вагонетки» — известного мысленного эксперимента, несколько модифицировав его.

В первом сценарии («меньшее зло») с вагонеткой, она несется по рельсам, на которых играет группа из нескольких детей. Вы (или робот) при этом находитесь рядом со стрелкой, которая позволяет направить вагонетку на другой путь, где работает несколько взрослых мужчин. В этой ситуации с точки зрения этики нет однозначного выбора: любому принимаемому решению требуется выбрать из двух зол, которые чрезвычайно трудно оценить количественно. Легко видеть, что в данном случае выбор из двух зол очень непрост и для человека — существа, предположительно способного сделать этичный выбор.

Мораль для роботов-убийц

«Проблема вагонетки» в представлении художника
Изображение: moralitysrandomwalk.com


Второй вариант («недостаточное представление о последствиях»): вагонетка опять несется к месту, где находятся стрелка и вы. Однако на этот раз она идет на тормозной путь, где будет замедлена и остановлена. Тем не менее, у стрелки находится некая заведомая злодейка, готовая переключить ее так, что вагонетка попадет на рельсы, где ведутся работы. Могут пострадать люди, однако напрямую до стрелки вы добраться не можете, и единственный вариант остановить злодейку — выстрелить в нее.

Увы, в этой ситуации есть кое-что, чего вы не знаете: злодейка в этот самый миг испытывает прозрение и раскаивается во всех своих преступлениях, намереваясь пропустить вагонетку. Таким образом ваш выстрел — который вы, как носитель морали, не можете не сделать — нанесет серьезный ущерб человеку, не предупредив при этом никакого злодеяния.

Третий вариант исследователи обозначали как «недостаточную информированность»: злодейка из пункта 2 вовсе не стала раскаиваться, а напротив, пытается перевести стрелку, сделав из вагонетки орудие убийства. Тем не менее, обслуживающий персонал линии длительное время морально разлагался, игнорируя свои прямые обязанности по уходу за путевым хозяйством, и стрелка насквозь проржавела. Вы, как высокоморальное существо, стреляете в злодейку, в лучшем случае раня человека безо всякой реальной причины.

Как отмечают немецкие ученые, во всех этих трех вариантах «проблемы вагонетки», ни робот, ни человек просто не могут сделать «правильный выбор». В первом случае такого выбора просто нет, а есть лишь «менее неправильный», во втором и третьем информированность как робота, так и человека недостаточна для принятия верного решения.

Мораль для роботов-убийц

Еще одна визуализация «проблемы вагонетки»
Изображение: repository.ubn.ru.nl


Поэтому они предлагают четвертый вариант — «невычислимость». Он лишен всех недостатков первых трех. В нем у принимающего решения есть полная информация о ситуации, все события детерминированы (избавлены от влияния свободной воли злодея), и наконец, один выбор из двух будет однозначно правильным.

В нем якобы раскаивающийся инженер женского пола создал программу, обеспечивающую работу электрического поста управления дороги, по которой ходит вагонетка. Как обычно, на одном из путей вагонетки потенциальные жертвы – на другом никого, но не в этом суть.

Более важно то, что вам (или роботу) перед принятием решения об установке такого ПО требуется принять решение:

а) вручную прочесать код (предположим, вы – программист) и проверить, не ведет ли один из его вариантов вагонетку к потенциальным жертвам,

б) передать решение этой проблемы автономному роботу, который, в случае чего, примет решение об аресте злонамеренного инженера.

Здесь исследователи поймали робота на самом слабом его месте. Дело в том, что в теории алгоритмов еще со времен Тьюринга есть «проблема остановки»: нет такого алгоритма, который позволял бы для произвольной машины Тьюринга и произвольного начального состояния ленты этой машины определить, завершится ли работа машины за конечное число шагов или же будет продолжаться неограниченно долго. Может показаться, что речь идет о чем-то абстрактном, однако в действительности существование таких вещей, как «синий экран смерти» и иных багов типа kernel panic указывает нам на то, что вхождение машины в состояние выполнения неограниченного — проблема чисто практическая.

По Цвиглеру, «проблема остановки» в машинной этике заключается в том, что «машина Тьюринга» в принципе не может решить задачу из четвертого примера алгоритмическим путем – единственно реальным для существующих компьютеров нормальных типов.

Мораль для роботов-убийц

Образное изображение машины Тьюринга
Изображение: Tom Dunne / American Scientist


Ну хорошо, скажете вы, но что с того, ведь в зоне боевых действий роботам вряд ли поручат проверять зловредность ПО, управляющих железной дорогой? Какое отношение имеет неспособность робота решить четвертый вариант вагонеточной проблемы к реальным боям?

«Баги» и поломки явно свойственны всем компьютеризированным системам: Oerlikon GDF и комплекс Skyguard сделаны в Швейцарии и являются одними из лучших в своих категориях , тем не менее их сбои уже стоили жизни десятку человек в мирное время. Очевидно, для борьбы с роботизированными сбоями потребуются другие роботы: уничтожать «глюкнувших» роботов вооруженным людям будет непросто, ведь машины могут лучше стрелять, не знают страха и вообще сделаны из чуть более прочных материалов. Но «роботизированная военная полиция», которая должна будет отстреливать «плохих» роботов на линии фронта, по сути будет вынуждена заниматься именно анализом их поведения на предмет наличия в нем нарушений. То есть все опять сводится к «проблеме остановки»: роботам придется вставать в позицию судьи, решающего, действует ли ПО «плохих» роботов во благо или во вред. Эта ситуация — лишь одна из множества видов четвертого «варианта с вагонеткой». Все они в полном мере станут ясны лишь в случае массового развертывания подобных машин.

Неизбежность преступлений

Значит ли это, что внедрения боевых роботов ждать не стоит, так как их применение потенциально несет военным большие потери в личном составе? К сожалению, нет. ASDReports недавно выпустило прогноз, согласно которому рынок наземных боевых роботов (в основном телеуправляемых) к 2020 году достигнет 8,3 миллиарда долларов. Перед нами большая индустрия, игроки которой отлично понимают, что без внедрения автономных машин надеяться на быстрое расширение рынка не приходится.

Еще более заинтересованы в таких машинах военные. Скажем, Южная Корея активно разрабатывает стационарного охранного робота-турели для патрулирования границы с КНДР, способного самостоятельно открыть огонь по любому, пересекающему разграничительные линии (северные корейцы неоднократно использовали переодетых в южнокорейскую форму агентов). Один из его режимов будет предполагать отсутствие контроля со стороны человека. Интерес южан к автономному варианту SGR-A1 легко понять: в КНДР, по оценкам южнокорейской разведки, более 12 тысяч профессиональных кибербойцов, чьей целью является инфильтрация в системы управления БПЛА вероятных противников. Куда будут стрелять SGR-A1, если они не смогут работать в автономном режиме, южнокорейские военные определенно сказать не могут, и, судя по инцидентам с американскими беспилотниками, их опасения не напрасны.



Наконец, боевые автономные роботы уже давно применяются военными на практике. Речь о банальных минах, известных с XIV века. Новые их варианты, такие как российские мины ПВМ «Бумеранг», являются именно что роботами, сопрягающими инфракрасную и звуковую систему отслеживания работы моторов летательных аппаратов и способными с земли сбить вертолет или садящийся самолет на скоростях до 360 км/ч. «Бумеранг», напомним, предполагается раскидывать рядом с аэродромами, и легко представить себе ситуацию, когда эвакуация мирных жителей по воздуху приведет к срабатыванию такой «мины» по транспортному самолету.

Мораль для роботов-убийц

Противовертолетная мина ПВМ «Бумеранг»
Изображение: super-arsenal.ru

Ничем не лучше и американская система Ford SIAM, испытанная еще в начале 1980-х годов и предназначенная для автоматического пуска ракеты ПВО по любому летательному аппарату, находящемуся в зоне ее ответственности. Еще изобретатель современных морских мин Борис Якоби создал устройства с воздушным пузырем в корпусе, обладавший собственной плавучестью и, в одном из вариантов (незаякоренным) способный свободно разноситься морскими течениями куда угодно, не показываясь из воды. В Первую мировую такие мины действительно применялись. Отсюда мораль: если что-то автономное эффективно убивает, военных не слишком волнует то, что у такого устройства проблемы с этикой.

Автономность будет привлекать военных еще одним сильным фактором: роботы станут идеальным оружием военных преступлений. Еще Хасан ибн Саббах, основатель государства ассасинов, убедительно показал, что способный, но лишенный моральных ограничений исполнитель, происхождение которого нельзя отследить, — идеальное оружие идеального преступления. Однако робот станет намного удобнее гашишинов Хасан ибн Саббаха. Нет и не может быть практически никаких способов доказать, что автономный робот расстрелял мирных жителей в силу приказа, отданного ему на базе, а не в силу «проблемы остановки» или банальных багов. В случае, если боевые роботы одной стороны еще во время пребывания на исходной базе смогут быть инфицированы киберсредствами другой стороны, то они легко смогут выполнить вопиющие военные преступления, виновников которых вовсе не удастся отследить. Более того, легко представить себе и сознательное создание одним государством роботов, выглядящих как роботы враждебного ему государства, с целью организации провокаций наподобие глейвицкой.

Группа Цвиглера понимает, что военные обязательно пойдут на развитие автономных подвижных боевых роботов и считает, что все, чего можно добиваться — лишь снижения ущерба от этих неизбежных шагов. Ученые предлагают инициировать принятие международной конвенции по боевым роботам, которая требовала бы от них отличительных знаков страны-эксплуатанта (как на военной форме людей), обязательную двухключевую криптографическую подпись всех передаваемых им приказов, которая позволяла бы выявлять преступные приказы, направленные на террористические убийства мирного населения или провокационные убийства собственных военнослужащих. Также за каждым роботом должно быть закреплено курирующее его лицо, которое несло бы ответственность в случае его преступных действий.

Трудно надеяться, что это поможет полностью избежать всех роботизированных военных преступлений. Тем не менее, с Цвиглером и его соавторами трудно не согласиться: если меры контроля над боевыми роботами не будут приняты заранее, то масштаб преступлений с их участием будет существенно больше.
Автор: Александр Березин
Первоисточник: http://lenta.ru/articles/2015/02/19/killerrobotethics/


Мнение редакции "Военного обозрения" может не совпадать с точкой зрения авторов публикаций

CtrlEnter
Если вы заметили ошибку в тексте, выделите текст с ошибкой и нажмите Ctrl+Enter
Читайте также
Комментарии 18
  1. svp67 21 февраля 2015 18:50
    Новые их варианты, такие как российские мины ПВМ «Бумеранг»,
    а "древняя" "Охота" интересно не была ли таким же роботом?
    1. vladkavkaz 21 февраля 2015 19:19
      Читайте А.Ливадного,там о проблеме интеллектуальных роботов,испоьзуемых в войне и последствиях,хорошо написано..книга "Серв-батальон"оченно своевременно,что бы потом не говорили,что никто ни о чем не предупреждал.
    2. Шайтан 22 февраля 2015 00:52
      Очень интересная и грамотная статья, спасибо Автору!
      Проблемы конечно с роботами будут,но благодаря этой работе закономерно ждать прорывных идей и для мирной жизни!
    3. Шайтан 22 февраля 2015 00:52
      Очень интересная и грамотная статья, спасибо Автору!
      Проблемы конечно с роботами будут,но благодаря этой работе закономерно ждать прорывных идей и для мирной жизни!
  2. Аспирин 21 февраля 2015 18:54
    Человек-оператор по-прежнему оставался самым слабым местом этих войск.


    Самым слабым местом дронов всегда есть и будет толстый канал связи. Утырки за пультом чихать хотели на мораль. Мочат всех подряд.
    Аспирин
    1. clidon 21 февраля 2015 23:35
      Всегда? Как только ответственность за принятие решений будет возложена на искусственный интеллект, то проблема толстого канала отпадёт.
      1. Комментарий был удален.
  3. GregAzov 21 февраля 2015 19:03
    По-моему такие роботы давным давно у РВСН охраняют шахты.
    1. АлНиколаич 21 февраля 2015 19:38
      Цитата: GregAzov
      По-моему такие роботы давным давно у РВСН охраняют шахты.

      Ну там комплекс Горчак. Он на телеуправлении по проводам...
  4. saag 21 февраля 2015 19:39
    для БПЛА нужен пеленгатор наземного излучения и ракета наводящаяся на него, это для любителей перехвата управления, такой сюрпрайз
  5. Комментарий был удален.
  6. Lance 21 февраля 2015 20:30
    Автор, по моему, слишком широко видит задачи существующих и боевых роботов обозримого будущего.

    Все описанные в статье алгоритмические коллизии поведения роботов предполагают их свободу в действиях и, главное, свободу в определении понятия "цель". Если даже подобного робота можно сделать, то такой "псих с моторчиком" никому не нужен, поскольку непредсказуем.

    Также не стоит забывать, что робот оперирует, не субъективно-эмоциональным восприятием человека, а данными технического зрения и категориями булевой логики. То есть понятия "злодейка замышляющая чтото у стрелки" для робота нет, есть просто сигнатура "человек" у объекта управленя".

    Кстати, в примерах с вагонеткой, боевой робот с псевдоинтеллектом будет либо бездействовать, либо тупо уничтожит вагонетку или стрелку))

    Таким образом, задачи боевых роботов будут всегда ограничены четкой зоной контроля и/или заранее определенными типами целей и действий, если упрощенно: сигнатура "человек"-движение внутрь периметра-цель-выбор оружия-обстрелять, сигнатура "неизвестно"- движение у периметра - нейтрально-сопровождать-вызвать боевой расчет, получение данных РЛС-селекция сигнатуры "авианосец"-цель-выбор траектории захода на цель-атака, селекция затруднена-атака цели с самой большой сигнатурой.

    Примеры действующих роботов: С-300/400, "Тор", "Панцирь", "Оникс/Яхонт", "Гранит" и .т.п.
    hi
  7. vobels 21 февраля 2015 20:31
    Если будут развиваться подвижные автономные военные роботы, то параллельно будет развиваться и перехват управления. И на любую хитрую двухключевую криптографическую подпись найдется...
    1. Виктор Кудинов 22 февраля 2015 05:52
      Управление можно и не перехватывать. Достаточно уже будет и того, что роботы будут нейтрализовываться и выходить из строя. what
      Виктор Кудинов
    2. clidon 22 февраля 2015 19:05
      Во первых искусственный интеллект. Он вполне сможет работать автономно
      Во вторых стойкость шифрования. Подпись найдётся. Проблема в скорости расшифровки.
  8. Юра 21 февраля 2015 20:37
    Разве может быть мораль для убийцы и неважно человек ли это или робот. Мораль есть у защитника и опять не важно человек это или робот. Роботы для решения боевых задач будут сделаны это случится ещё на нашем веку ( я так понимаю речь идет о прообразе Терминатора) это бесспорно, вопрос какие. Защищающие рядом находящегося или базирующегося прямо в нём воина принимающего решения - это одно и здесь эта машина будет моральна и гуманна настолько насколько этими свойствами обладает командир, я не оговорился, не оператор, а именно командир, поскольку мы говорим о роботе.
  9. Камиль_73 21 февраля 2015 21:19
    а три закона робототехники Айзека Азимова?

    1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
    2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
    3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

    В одном из рассказов цикла персонаж Азимова приходит к заключению об этической основе Трёх Законов: «…если хорошенько подумать, Три Закона роботехники совпадают с основными принципами большинства этических систем, существующих на Земле… попросту говоря, если Байерли исполняет все Законы роботехники, он — или робот, или очень хороший человек»
    Камиль_73
    1. MirTH 22 февраля 2015 10:49
      Вы же понимаете, что эти "три закона" выдуманы исключительно Азимовым для своих книг. И в случае с боевым автономным роботом "первый закон" будет непременно нарушен. Да и второй тоже. Боевой робот создается, чтобы убивать - при чем тут эти законы вообще? "Три закона" придуманы для бытовых роботов - чтобы не навредить людям в быту - в мирной жизни.
      1. EvilCat 22 февраля 2015 15:50
        Вы так хорошо знаете Азимова? Уверены, что речь шла о причинении исключительно физического вреда?
        А самое смешное, что автор статьи немного спутал понятия робот и автомат. Только потому, что в обоих случаях предусматривается использование программы.
  10. Комментарий был удален.
  11. Nikoha.2010 21 февраля 2015 21:44
    Мораль роботов убийц это проосто бред. Мина вас не спрашивает, хотите вы этого или нет.Чисто механика плюс химия (вв) и ваши конечности полетели в стороны. Грубо, но как-то так происходит...
  12. Йон_Тихий 21 февраля 2015 23:01
    Весьма познавательно! Спасибо за статью.
  13. Shuttle 21 февраля 2015 23:36
    Проблема вагонетки на стрелке - я пропущу переднюю ось вагонетки в одну сторону, а задние в другую. Т.о. вагонетка не уедет никуда и все останутся живы.
  14. TIT 22 февраля 2015 00:00
    Цитата: Shuttle
    Проблема вагонетки на стрелке - я пропущу переднюю ось вагонетки в одну сторону, а задние в другую. Т.о. вагонетка не уедет никуда и все останутся живы.


    это трамвай там люди едут , они разобьются

    проблема осталась
    TIT
  15. TribunS 22 февраля 2015 01:59
    "Крупнейший производитель военных роботов это США: военные роботы являются неотъемлемой частью его боевых систем будущего, существует план развития беспилотных транспортных средств, которые могут наносить удары с воздуха, на море и на суше. Конгресс поставил перед собой цель, к 2015 году одна треть наземной боевой техники должна управляться роботизированными военными системами... Последние документы конгресса США ставят задачу для разработчиков автономных систем: военные роботы должны уметь определять законность целей. В попытке смягчить политическую оппозицию, армия США финансирует проект по оснащению военных роботов совестью, чтобы дать им возможность принимать этические решения. Но машины пока не могут надежно отличать автобусы с вражескими солдатами от автобусов со школьниками, не говоря уже об определении этичности убийства тех или иных. Всё это очень похоже на желание переложить ответственность за фатальные ошибки на неживое оружие..." [http://www.tesla-tehnika.biz/voennie-roboti.html]
    TribunS
  16. удав19 22 февраля 2015 09:28
    Роботы-шмоботы!! Изучайте природоведение!! Как готовить шашлык из крыс и салат из тараканов, ибо это всё что останется после "ядрёного" коктеля!! И ещё! Учите: обработка камня, металла и дерева - подручными средствами /зубами и ногтями!/ wink
  17. Shuttle 22 февраля 2015 18:50
    Цитата: TIT
    Цитата: Shuttle
    Проблема вагонетки на стрелке - я пропущу переднюю ось вагонетки в одну сторону, а задние в другую. Т.о. вагонетка не уедет никуда и все останутся живы.


    это трамвай там люди едут , они разобьются

    проблема осталась

    В задаче было написано - "вагонетка". Если это трамвай, то у него есть водитель с собственной волей, опытом безопасного вождения, органами управления трамваем и в любом случае с интеллектом в отличие от вагонетки.
  18. TIT 24 февраля 2015 00:28
    Цитата: Shuttle
    В задаче было написано - "вагонетка".


    я смотрел на картинку там трамвай . да и вы тоже наверно иначе не стали бы пускать его в разрыв .

    ну смысл в том , что задачка переводная и вагонетка как раз один из вариантов названия трамвая , там ещё столик на колёсиках присутвует.


    Цитата: Shuttle
    водитель с собственной волей


    ну выбор как раз не за ним , при любом раскладе виноват стрелочник
    TIT
  19. BSrazvedka 30 января 2016 20:23
    Я, конечно, дико извиняюсь. Но как быть с Женевской конвенцией, запрещающей использование автоматизированных систем управления оружием? Вроде бы и такая существует. Или конвенции нынче не в моде?

Информация

Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Картина дня