Убить интеллектом

Что касается боевых действий, то это способность обеспечить эффективную реанимацию раненых, быструю локализацию негативных последствий при непредсказуемом характере ранений. Достижения в сфере ИИ позволят создать системы реабилитации раненых за счет управления пораженными внутренними органами человека, нейроуправления протезами при потере конечностей.

Исходя из всего этого можно выделить ряд основных проблем, решение которых способно обеспечить создание систем ИИ применительно к военной деятельности.

1. Представление знаний – разработка методов структуризации, классификации и формализации знаний из различных проблемных областей (политических, военных, военно-технических, психологических, организационных и т. д.) для выработки решений в предвоенный период.
2. Моделирование рассуждений (процессов принятия решений) – изучение и формализация различных схем человеческих умозаключений на основе разнородной информации для ведения боевых действий, создание эффективных программ реализации этих схем в ЭВМ.

3. Создание диалоговых процедур общения на естественном языке, обеспечивающих контакт между интеллектуальной системой и человеком-специалистом в процессе решения задач, в том числе при передаче и приеме неформализованных команд в экстремальных ситуациях, связанных с риском для жизни.

4. Планирование боевой деятельности – разработка методов построения алгоритмов управления на основании знаний о проблемной области, которые хранятся в интеллектуальной системе и непрерывно поступают от различных и разнородных источников информации: разведывательной, геодезической, топографической, метеорологической, гидрографической и т. д.

5. Обучение и актуализация интеллектуальных систем в процессе их деятельности, создание средств накопления и обобщения умений и навыков.

Каждая из этих проблем имеет чрезвычайную сложность. Достаточно сказать, что только для решения одной подзадачи в 2016 году Пентагоном было создано новое подразделение – Project Maven («Проект Знаток»), которое занимается созданием ИИ для анализа развединформации, поступающей от беспилотных летательных аппаратов, работающих в Сирии и Ираке. Персонал аналитических центров, которые этим занимаются, не справляется с обработкой и анализом поступающих огромных массивов данных. До 80 процентов их рабочего времени занимает просто просмотр кадров. Предполагается, что с помощью ИИ будут идентифицироваться объекты военного назначения, представляющие опасность для своих войск, выявляться последовательность действий на земле для предотвращения террористических актов, замыслы боевиков.

В августе 2016 года компании Amazon, Nvidia, DigitalGlobe и специальное подразделение ЦРУ CosmiQ Works начали разработку искусственного интеллекта, который сможет распознавать объекты на спутниковых снимках. Предполагается использование ИИ также в такой сфере межгосударственного противоборства, как информационная война. В 2014 году компания Associated Press объявила, что отныне большая часть новостей, связанных с доходами компаний, будет создаваться с помощью роботов. В 2016-м роботы-репортеры Associated Press несколько расширили свою тематику. Им стали поручать подготовку небольших новостных заметок, связанных с Малой бейсбольной лигой США.

Использует роботов-журналистов и журнал Forbes, для которого компания Narrative Science создала соответствующую специализированную платформу. В ноябре 2015 года аналогичное направление разработок открыла российская компания «Яндекс». Пока искусственный интеллект «Яндекса» выпускает лишь короткие заметки о погоде и ситуации на дорогах, однако в дальнейшем ее представители обещают расширить список тематик для публикаций.

Соучредитель компании Narrative Science К. Хэммонд полагает, что к 2025 году 90 процентов всех текстов в мире будет готовиться искусственным интеллектом. Разработанные в этих целях алгоритмы могут эффективно применяться также для сбора разведывательной информации в отношении стран, организаций и физических лиц, ее анализа и подготовки различного рода материалов, в том числе в интересах информационной борьбы. В частности, для дискредитации действий страны, ее правительства, лидеров партий и движений на международной арене. Причем такого рода действия уже предпринимались в ходе подготовки практически всех «цветных революций», но при этом использовался человеческий интеллект. ИИ будет делать это гораздо быстрее и массированнее. Известный американский предприниматель Илон Маск в письме в ООН охарактеризовал эту опасность как угрожающую человечеству, способную спровоцировать войну, когда ИИ будет создавать фейковые новости и пресс-релизы, подделывать учетные записи электронной почты и манипулировать информацией. Аналогичные опасения высказывают и другие ученые.

Особо выделим такой аспект возможностей, который должен быть реализован в ИИ, как самообучение. Он положен американскими специалистами в основу разработки так называемого концепта контр-автономности. Суть его в том, что подвергшаяся нападению ИИ-система должна быстро обучаться: делать исчерпывающие выводы из факта и способа нападения, оценивать характеристики примененных при этом технических средств, определять способы эффективного противодействия. То есть каждая атака противника сделает ИИ-систему еще более эффективной, если не уничтожит ее с первого раза либо радикально не изменит способы нападения.

О попытках реализации указанного концепта говорит заявление директор DARPA Арати Прабхакар, которая в 2016 году сообщила о проекте по борьбе с программируемыми радарами России (упоминается «Небо-М») и Китая: «Одна из наших программ в DARPA использует совершенно новый подход к этой проблеме, которую мы собираемся разрешить с помощью когнитивного электронного вооружения. Мы применяем искусственный интеллект для изучения действий вражеского радара в режиме реального времени, а затем создаем новый метод глушения сигнала. Весь процесс восприятия, изучения и адаптации повторяется без перерыва».

Таким образом, интеллектуализация военной деятельности практически стала фактом. Активно создаются системы различного назначения, оснащенные искусственным интеллектом. Однако на этом пути есть ряд философских вопросов. Мы не всегда можем по-настоящему объяснить мыслительные процессы свои и других людей, но интуитивно доверяем или не доверяем поступкам. Будет ли это также возможно при взаимодействии с машинами, которые думают и принимают решения самостоятельно и не совсем понятно как? Как будут чувствовать себя пилоты самолетов, экипажи танков и другой военной техники, работающие с самолетами и танками-роботами, действия которых непредсказуемы? Как поведет себя робот, «мозги» которого будут сотрясаться средствами радиоэлектронной борьбы, ударами взрывных волн, пуль и осколков, как отразится такая «контузия» на их поведении? Наконец, способен ли интеллектуальный робот выйти из подчинения?

Подобных вопросов много, но внятного ответа на них нет. Похоже, человечество действует здесь, руководствуясь правилом Наполеона: главное – ввязаться в бой, а там посмотрим.