Завтра и послезавтра боевых роботов

Одной из самых перспективных отраслей военных технологий в настоящее время является робототехника. К настоящему времени уже созданы автоматизированные аппараты, способные выполнять различные задачи. Правда, нынешние беспилотные самолеты и вертолеты, а также наземные гусеничные машины, при всех их способностях, все еще не могут работать полностью автономно. В большинстве случаев автономность ограничивается некоторыми действиями, которые не требуют, что называется, большого ума: перемещение в заданный пункт, слежение за пространством, поиск объектов, выделяющихся на общем фоне и т.д. Что касается решений о пунктах маршрута или об атаке обнаруженной цели, то они пока принимаются оператором системы, т.е. человеком. Полностью автоматическая работа военных роботов пока что остается «достоянием» научной фантастики, а ученые и инженеры сейчас только-только делают первые уверенные шаги в этой области. Развитие робототехнических технологий может отразиться не только на возможностях автоматизированных систем, но и на прочих сторонах человеческого общества.




В научной фантастике нередко рассматривается серьезный вопрос взаимодействия человека и робота, обладающего искусственным интеллектом того или иного уровня. Существующее состояние дел позволяет предполагать постепенный переход этого вопроса в реальную жизнь. По этой причине уже сейчас некоторые люди и общественные организации пытаются предугадать дальнейшее развитие событий и, если получится, предпринять соответствующие меры. Не так давно правозащитная организация Human Rights Watch (HRW) выпустила доклад, посвященный этой проблеме. В работе Losing Humanity: The Case Against Killer Robots («Теряя человечность: аргументы против роботов-убийц») рассматриваются перспективы применения полностью автономных боевых роботов, а также проблемы, которые обязательно, по мнению авторов доклада, возникнут при их эксплуатации в условиях реальных конфликтов. Кроме того, в докладе рассматриваются некоторые юридические аспекты такого «прогресса».

Прежде всего авторы доклада «Теряя человечность» отметили тот факт, что все существующие роботы в той или иной мере автономны, различается лишь уровень этой самостоятельности. Поэтому все роботы с возможностями самостоятельной работы, в том числе и боевые, условно разделены на три группы: human in the loop (человек в системе управления), human on the loop (человек над системой) и human out of the loop (человек вне системы управления). В контексте боевых роботов такое деление подразумевает следующие алгоритмы работы и уровни автономности: если человек-оператор «находится» в системе управления, то робот самостоятельно находит цели, а человек подает команду на их уничтожение. Два других типа боевых роботов могут самостоятельно принимать решения и осуществлять атаку, однако концепция human on the loop подразумевает возможность контроля со стороны человека и позволяет последнему в любой момент скорректировать действия робота по своему усмотрению. Роботы категории human out of the loop полностью самостоятельны и не требуют какого-либо контроля человеком.

По мнению сотрудников HRW, наибольшую опасность в будущем будут представлять роботы третьей категории, полностью автономные и неподконтрольные человеку. Помимо технических и моральных проблем отмечены связанные с ними юридические вопросы. Среди прочего, при определенном развитии событий такие боевые аппараты могут сильно повлиять на весь облик боевых действий, в том числе и нарушая основные международные соглашения. Прежде всего сотрудники Human Rights Watch апеллируют к Женевским конвенциям, а точнее к той их части, которая обязывает разработчиков оружия проверять его на безопасность для гражданского населения. В HRW считают, что производители боевой роботизированной техники не интересуются этим вопросом и не проводят никаких проверок, что повлечет за собой потери среди гражданского населения.

Основной предпосылкой к рискам, связанным с применением роботизированных боевых систем, сотрудники HRW считают недостаточный уровень развития перспективных роботов. По их мнению, боевой робот, в отличие от человека, не будет способен гарантированно отличить вражеского бойца от мирного жителя или активно сопротивляющегося противника от раненого или пленного. Поэтому слишком велики риски того, что роботы попросту не будут брать пленных и станут добивать раненых. Авторы доклада, по-видимому, придерживаются не самого лучшего мнения о возможностях роботов будущего и полагают, что перспективные боевые системы не смогут по внешнему виду и поведению отличить вооруженного и активно действующего противника от агрессивно или странно ведущего себя мирного жителя. Кроме того, эксперты-правозащитники отказывают роботам будущего в возможностях прогнозирования поведения противника. Иными словами, возможна ситуация, когда желающий сдаться вражеский солдат, подняв или выбросив оружие, пойдет навстречу роботу, а тот неправильно поймет это и атакует его.

Прямым следствием отсутствия человеческих черт, причем следствием опасным, в Human Rights Watch считают возможность использования роботов в операциях по подавлению народных свобод и прав человека. Правозащитники считают «бездушные машины» идеальным инструментом для подавления бунтов, репрессий и т.д., поскольку в отличие от человека робот не станет обсуждать приказ и выполнит все, что ему укажут.

В HRW опасаются, что характерной чертой боевых роботов без управления человеком станет отсутствие какой-либо ответственности за свои поступки. Если оператор дистанционно управляемого беспилотника нанес удар по мирным жителям, то за это с него спросят. Если же подобное преступление совершит робот, то наказывать будет некого. Сам робот не является разумным существом, способным понять суть наказания и исправиться, а применять взыскания в отношении военных, пославших его на задание, по мнению сотрудников HRW – бессмысленно, равно как и наказывать разработчиков аппаратной и программной части робота. В результате этого роботы могут стать прекрасным инструментом для решения боевых задач самым мерзким путем – при помощи военных преступлений. В таком случае все вскрывшиеся факты можно будет свалить на бракованную конструкцию или программный сбой, а доказательство вины конкретных людей будет почти невозможным. Таким образом, чего боятся правозащитники, никто не понесет заслуженное наказание за преступления.

По причине высоких рисков организация Human Rights Watch призывает страны отказаться от разработки полностью автономных боевых роботов и запретить такую технику на законодательном уровне. Что касается концепций human in the loop и human on the loop, то разработка подобных систем должна контролироваться и проверяться на предмет соответствия международным нормам. Т.е. все ответственные решения всегда должен принимать именно человек, обладающий соответствующими знаниями и допусками, но никак не автоматика.

Судя по существующим тенденциям, далеко не все ведущие страны полностью согласны с докладом от HRW. К настоящему времени уже сформировались предпосылки не только к созданию, но и к активному применению максимально автоматизированных систем. Причем в ряде случаев их применение не только не противоречит международному гуманитарному праву, но даже в некотором смысле помогает выполнять его нормы. В качестве примера такой работы можно привести израильскую систему противоракетной обороны «Железный купол». Поскольку этот комплекс предназначен для перехвата неуправляемых ракет с небольшой дальностью, алгоритмы его работы выполнены таким образом, что большинство операций производится автоматически. Кроме того, при соответствующей команде операторов возможно автоматическое выполнение всего цикла перехвата, от обнаружения вражеской ракеты до пуска противоракет. Благодаря этому удается уничтожать вражеские «Кассамы» пока те не долетели до населенных пунктов. В результате использования фактически автономного робота Израилю удается сохранить жизни и здоровье своих граждан, а также сэкономить на восстановлении разрушенных зданий.

Второй довод в пользу продолжения развития автоматизированных «солдат» тоже имеет гуманитарные предпосылки. Применение большого количества наземных боевых роботов позволит отказаться от живых бойцов и спасти их жизни. Если же робот в бою получит повреждения, то его можно быстро отремонтировать или списать на слом и заменить новым, полностью аналогичным старому. Да и производить подобную технику на порядки порядков проще и дешевле, чем растить и обучать солдат. Очевидно, что робот может оправляться в бой вскоре после сборки, а человеку после рождения нужно вырасти, обучиться элементарным навыкам, освоить массу различной информации и умений и только потом он сможет обучиться военному делу. Таким образом, широкое применение боевых роботов поможет уменьшить потери живой силы. Кроме того, для обслуживания достаточно большого парка роботизированных «солдат» понадобится сравнительно небольшое количество операторов, механиков и т.д. Так что в отношении замены живых солдат механическими выигрыш получается двойным: сохраняются жизни и экономятся деньги.

Насчет опасений правозащитников относительно чрезмерной самостоятельности боевых роботов у ведущих стран уже давно заготовлен ответ. К примеру, пару лет назад США опубликовали свою стратегию развития военных автоматизированных систем до 2036 года. Американцы первую очередь будут развивать т.н. подконтрольно самостоятельные системы. Т.е. боевые аппараты с возможностью автономной работы, но без права принятия серьезных решений. В дальнейшем планируется вводить в строй вооруженных сил и полностью самостоятельные машины, однако первые прототипы подобной техники, способные по-настоящему взять на себя обязанности человека, появятся не ранее 2020 года. Так что в течение ближайших лет или даже десятилетий на поле боя не появится большого количества полностью автоматических роботов, не знающих жалости и пощады и способных только выполнять приказы. Все главные решения по-прежнему останутся обязанностью человека.

В отношении придания роботам большей самостоятельности нужно вспомнить одно довольно интересное мнение. Его сторонники полагают, что из боевых систем нужно исключать именно человека, а не автоматизированную аппаратуру. В качестве доказательства этого тезиса приводятся «недостатки конструкции» живых людей. Оператор, управляющий боевым роботом, в том числе и полностью контролирующий все его действия, может заболеть, допустить ошибку или даже сознательно пойти на какой-либо преступный шаг. Согласно этой точке зрения, «слабым звеном» робототехнического боевого комплекса является именно живой человек-оператор, полностью соответствующий латинской пословице о свойственных людям ошибках.

Безусловно, в настоящее время по вполне понятным причинам право на жизнь имеют обе точки зрения: как предлагающая не давать роботам свободу действий, так и говорящая о необходимости выведения из системы человека. Оба этих мнения имеют свои плюсы и свои минусы. Вряд ли в ближайшее время прекратится спор на предмет выявления наиболее перспективной и жизнеспособной концепции применения боевых роботов. Узнать, кто прав, можно только одним способом: дождаться дальнейших событий в сфере развития боевой робототехники. Вряд ли военные ведущих стран мира станут выбирать невыгодный и сложный путь развития перспективного направления. Однако сейчас достаточно трудно делать какие-либо выводы. Вероятнее всего, в ближайшие годы сохранится имеющаяся тенденция. Дистанционно управляемая и ограниченно автономная техника продолжит свое развитие и будет активно использоваться на практике. Тем временем в лабораториях будут создаваться кардинально новые аппаратно-программные комплексы, способные действовать полностью самостоятельно. Современное состояние дел в подобных проектах позволяет предположить, что в течение ближайших лет всю ответственность за действия роботов по-прежнему станут брать на себя люди, а описанные в докладе Human Rights Watch проблемы пока останутся предметом интереса правозащитников, фантастов и ученых.


По материалам сайтов:
http://hrw.org/
http://lenta.ru/
http://mport.bigmir.net/
http://ria.ru/
http://bbc.co.uk/
Автор:
Рябов Кирилл
Ctrl Enter

Заметив ошибку в тексте, выделите текст с ошибкой и нажмите Ctrl+Enter

26 комментариев
Информация

Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо зарегистрироваться.
Уже зарегистрированы? Войти