Опасность искусственного интеллекта в системах вооружения

В настоящее время идет активное обсуждение проблемы безопасности применения искусственного интеллекта (ИИ) для человека. Хотя полноценный ИИ как таковой еще не создан, но автоматизация уже давно стала частью управленческих и производственных процессов. Сегодня компьютеры способны управлять автомобилями, распознавать речь и лица, анализировать гигантские объемы данных. У искусственного интеллекта большое количество областей применения, и оборонная сфера не является исключением. Создание ИИ становится задачей номер один для обеспечения национальной безопасности. По сути, начинается мировая гонка инновационных вооружений, в которую втягиваются все ведущие державы.




Пока автоматические системы ограничены, и решения на применение оружия принимает сам человек. ИИ должен полностью отстранить человека от принятия решение и заодно сохранить жизнь и здоровье военных. Существует огромное число возможностей применения оружия с ИИ. Это и ракетные катера, и бронемашины, и беспилотники, способные самостоятельно находить и уничтожать цели. С помощью ИИ можно объединить огромное количество дронов в управляемый «рой» для осуществления массовой атаки. Это системы военной связи и глобального позиционирования с обозначением координат цели и вызовом ударных средств.

Еще больше возможностей у ИИ в космосе. Появится возможность создания группировок спутников слежения, не нуждающихся в постоянном контроле и командах из центров управления на Земле.

В связи с этим, возникают вопросы: а не нанесут ли искусственные «мозги» удар по своим же солдатам? Или что произойдет, если боевую машину с искусственным разумом взломают хакеры, выведя ее из строя и перенаправив против своих же военных и гражданских объектов?

Как поясняют разработчики, решением проблемы является дополнение к искусственному разуму простого компьютера на базе обычных процессоров, который будет контролировать и ограничивать действия искусственного интеллекта. Взломать ИИ хакерам не удастся, так как в отличие от компьютерного интеллекта, искусственный разум генерирует для себя алгоритмы поведения самостоятельно и использует мгновенно возникающие и тут же распадающиеся цепочки связей.

Важно обратить внимание, что искусственный интеллект в отличие от суперкомпьютера функционирует по абсолютно другим алгоритмам и принципам. И пока еще рассуждения о восстании машин и армии «роботов-убийц» являются областью ненаучной фантастики.

Все еще не решена основная задача - как создать тот самый искусственный разум, который будет сравним с человеческим мозгом, но при этом "не перехватит инициативу" у человека.

При этом стоит обратить внимание на проблемы технического характера, возникающие ещё до внедрения полноценного ИИ - в том числе и в гражданской сфере.

Один из примеров - катастрофа самолёта Boeing-737 MAX 8 авиакомпании "Ethiopian Airlines". Специалисты отмечают, что у этих самолётов ещё после прошлогодней катастрофы в Индонезии были выявлены проблемы с "послушностью" бортовой электроники. Система автопилотирования фактически перехватывала управления у пилотов во время полёта. Американская компания умалчивала об этой проблеме, но вторая катастрофа с самолётом одной и той же модели за несколько месяцев заставила признать, что бортовые системы часто не помогали пилоту, а действовали вопреки его "командам".

Каковы гарантии того, что ИИ в вооружениях при нынешнем уровне технологий не окажется способен "перехватить управление" у человека, - важный вопрос для тех, кто занят в этой сфере.
Использованы фотографии:
https://ru.depositphotos.com
Ctrl Enter

Заметили ошЫбку Выделите текст и нажмите Ctrl+Enter

97 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо зарегистрироваться.

Уже зарегистрированы? Войти