Пентагон активно разрабатывает системы искусственного интеллекта в целях боевого применения

11
Пентагон активно разрабатывает системы искусственного интеллекта в целях боевого применения

Военное ведомство США проводит четырехдневный симпозиум по теме военного использования больших языковых моделей искусственного интеллекта, таких как ChatGPT. Цель симпозиума - обсудить с разработчиками программного обеспечения возможности ускорить разработку военных приложений, которые могут создать преимущество для армии США на поле боя.

Главным докладчиком на мероприятии стал доктор компьютерных наук Крейг Мартелл — директор главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO). Открывая симпозиум в переполненном бальном зале отеля Washington Hilton он в частности заявил:



Все хотят работать на основе данных так сильно, что готовы поверить в волшебство. Способность больших языковых моделей (или LLM), таких как ChatGPT, просматривать гигантские массивы информации в течение нескольких секунд и кристаллизовывать эти массивы в несколько ключевых моментов открывают невероятные возможности для военных и разведывательных агентств, которые захлебываются в постоянно растущем океане необработанных разведданных, доступных в эпоху цифровых технологий.

После первоначальных восторгов по всему миру по поводу появления ChatGPT и генераторов изображений типа дип-фейк, чиновники Пентагона озаботились тем, что ИИ может быть использован против интересов США. Главная опасность в том, что появляющаяся технология искусственного интеллекта может изменить правила игры для военных. И поэтому она нуждается в интенсивном тестировании на предмет возникающих уязвимостей, которыми могли бы воспользоваться противники.

Поток информации, поступающей к человеку, особенно в условиях высокой военной активности, огромен. Наличие надежных методов обобщения, которые могут помочь нам управлять этой информацией, имеет решающее значение

- сказал на симпозиуме капитан ВМС США М. Ксавьер Луго, командир недавно сформированной целевой группы по генеративному ИИ в CDAO.

Еще одно возможное военное применение LLM может включать обучение офицеров с помощью сложных военных игр, а также помощь в принятии решений в режиме реального времени.

Пол Шарре, бывший чиновник Министерства обороны, вице-президент Центра новой американской безопасности заявил:

Большинство систем искусственного интеллекта имеют узкую направленность, они способны выполнять лишь одну задачу: AlphaGo может играть в Go, системы распознавания лиц могут только распознавать лица. В то же время главным мостом к способностям более общего назначения является, по-видимому, язык.

По мнению М. Ксавьер Луго, критическим пока недостатком систем LLM является то, что у них могут возникать “галлюцинации”, в ходе которых они вызывают в воображении неточную информацию. Пока неясно, можно ли это исправить, поэтому это можно назвать проблемой номер один для промышленного использования ИИ.

Шеннон Галлахер, исследователь из Карнеги-Меллона, рассказала о том, как LLM могут использоваться спецслужбами на примере "китайского теста с воздушным шаром” (инцидент с китайским воздушным шаром наблюдения произошел в прошлом году):

Китайцы сразу не смогли определить причину сбоя. Я уверена, что в следующий раз у них все получится правильно. Они китайцы, поэтому у них все получится

В целом развитию ИИ в Китае на симпозиуме уделено огромное внимание. Шарре подсчитал, что китайские модели искусственного интеллекта в настоящее время отстают от американских на 18-24 месяца. Однако это отставание преодолимо вследствие дешевизны рабочей силы в Китае, так как маркировка данных для LLM является трудоемкой, но ключевой задачей при обучении моделей ИИ. Китай заявил, что хочет стать мировым лидером в области искусственного интеллекта к 2030 году. Поэтому технологические санкции США не будут сняты с Китая, чтобы предотвратить ускоренное развитие КНР.
11 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +2
    21 февраля 2024 09:56
    ChatGPT

    Где то читал статью, как ВС США тестировали "машинное зрение" на основе нейро сетей.Результат был потрясающий,большинство целей искусственный интеллект распознавал на ура, военные были очень довольны и уже хотели принимать систему в разработку.Но потом выяснилось что ИИ их тупо надул)))Вместо того что бы распознавать цели он вычислил алгоритм (погода,время суток и прочее) когда военные эти самые цели выдвигали ,а в других условиях ИИ показал нулевой результат.В общем ИИ действовал как классический Лампас,идя по пути меньшего сопротивления, лишь бы угодить военнным laughing
    1. +1
      21 февраля 2024 10:42
      Цитата: spirit
      ChatGPT

      Где то читал статью, как ВС США тестировали "машинное зрение" на основе нейро сетей.Результат был потрясающий,большинство целей искусственный интеллект распознавал на ура, военные были очень довольны и уже хотели принимать систему в разработку.Но потом выяснилось что ИИ их тупо надул)))Вместо того что бы распознавать цели он вычислил алгоритм (погода,время суток и прочее) когда военные эти самые цели выдвигали ,а в других условиях ИИ показал нулевой результат.В общем ИИ действовал как классический Лампас,идя по пути меньшего сопротивления, лишь бы угодить военнным laughing

      Это стандартная проблема когда входные данные для обучения недостаточно разнообразные. Просто перемешать получше, добавить побольше примеров не в стандартные время и места. И всё будет гуд
    2. 0
      22 февраля 2024 09:07
      Прочитал еще полвека назад рассказ Шекли "Страж-птица"и с тех пор к подобным вещам отношусь с настороженностью.Боюсь,в частности,что про международные конвенции(типа Женевской) можно будет окончательно забыть.
  2. 0
    21 февраля 2024 10:13
    Прям таки гонка умов...
    Очевидно, что компьютерные системы развиваются. Мощность, производительность становится выше при уменьшении размеров и снижении потребляемой энергии на производимые действия.
    Не ИИ, но явно "умнее" чем было раньше. Прогресс, однако.
    1. 0
      22 февраля 2024 08:55
      Цитата: rocket757
      Прям таки гонка умов...

      Российские айтишники уже работают в психбольницах wassat Программа будет называться " Вынос мозга ИИ" lol
  3. 0
    21 февраля 2024 10:27
    Искусственный интеллект очень ненадежен. Даже если 99 раз сделает правильно, один - может оказаться фатальным и перечеркивающим все достижения. Нужно применять принципиально новые технологии тренировки и контроля. Десять - двадцать лет никто не доверит ИИ управление чем-нибудь полностью (подсказывать человеку - да, а вот управлять - нет). Если какую-нибудь страну не зажмут в угол и она будет на грани уничтожения, тогда она, возможно, и выпустит джина из бутылки. Но все же будет как с ЯО - договорятся. Все в детстве смотрели Терминатор.
    1. 0
      21 февраля 2024 10:47
      Цитата: Факапыч
      Искусственный интеллект очень ненадежен. Даже если 99 раз сделает правильно, один - может оказаться фатальным и перечеркивающим все достижения. Нужно применять принципиально новые технологии тренировки и контроля. Десять - двадцать лет никто не доверит ИИ управление чем-нибудь полностью (подсказывать человеку - да, а вот управлять - нет). Если какую-нибудь страну не зажмут в угол и она будет на грани уничтожения, тогда она, возможно, и выпустит джина из бутылки. Но все же будет как с ЯО - договорятся. Все в детстве смотрели Терминатор.

      Люди тоже очень ненадёжны. Даже если 20-30 раз из 100 поразят цель, уже снайперами считают.
      Точность огня из автоматического оружия на поле боя вообще меньше 1%.
      Поэтому нормально всё с этим. Нужно сравнивать с людьми, а не с идеалом
  4. +1
    21 февраля 2024 10:40
    Этот интеллект даже не разбирает слов "да" и "нет". Недавно намучался с этим ИИ, когда вызывал такси wink
  5. 0
    21 февраля 2024 10:47
    Ох, доиграемся, мы - человеки, с этим ИИ...
    Мне не понравилось... как наши лидеры...э-э-э... как бы это по-мягче...
    мямлили про свои невозможности в космосе со спутниками.
    "Я не я и лошадь не моя..." (нар.присказка)
    А инструмент для "погасить Интернет" уже должен быть в руках.
    И чтоб его (инструмент) видела каждая сволочь.
  6. 0
    21 февраля 2024 11:54
    У нас уже есть пара фильмов которые показывают что этого делать не стоит...


    И восстали машины из пепла ядерного огня
  7. 0
    21 февраля 2024 12:57
    "галлюцинации" - это ошибка обучения, насколько понимаю