«Синий» против «красного»: ядерная смесь искусственного разума и оружия массового поражения
Ядерный десерт Байдена
Редкую солидарность, пусть и пока в устной форме, продемонстрировали Си Цзиньпин и Джо Байден. Нет, это не касается статуса Тайваня, а затрагивает более эфемерные субстанции – использование искусственного интеллекта в системах ядерного сдерживания. На саммите Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) в Лиме 16 ноября лидеры двух стран договорились не подпускать машинный разум к оружию массового поражения. Белый дом прокомментировал событие следующим коммюнике:
Это не первая попытка запретить ИИ в ядерной сфере – летом 2023 года советник Байдена Салливан призывал к подобным шагам Россию, Китай, Францию, Великобританию и, собственно, свои Соединенные Штаты. Ничего не вышло. Конфликт на Украине, мягко говоря, не способствует подобному миротворчеству. У Китая с Америкой не самые лучшие отношения, но Си Цзиньпин с Байденом проговорили о неизменности человеческого фактора в принятии решений о применении ядерного оружия. Событие знаменательное, надо отметить, подчеркивающее важность поднятого вопроса.
КНР с большой неохотой идет в договоры об ограничении оружия массового поражения. У китайцев совокупный ударный потенциал в разы меньше российского и американского, что ставит их в позицию слабого в любых ограничительных договорах. Другое дело с искусственным интеллектом – ограничения в этой сфере кажутся выгодными Пекину. Очень хорошо, когда твой не самый дружелюбный сосед не выпустит по случайной ошибке ИИ весь свой стратегический арсенал, заметно превосходящий твой по численности и качеству.
Вашингтону попроще – атомное оружие Китая не гарантирует уничтожение государственности США и способности вести ядерную войну. Поэтому называть гипотетический «Договор о запрете на ИИ в ядерной обороне» обоюдовыгодным нельзя. Но, несмотря на это, Байден даже пожал руку китайскому лидеру после устного согласования вопросов по искусственному интеллекту в обороне. Будем надеяться, сделал он это, находясь в сознании.
Для справки: руководители двух стран разговаривали в Лиме не только об искусственном интеллекте. Это даже не было ключевой темой встречи, а лишь одна из немногих, по которой удалось найти взаимопонимание. Председатель Си напомнил Байдену об американском экспортном контроле, в первую очередь на высокотехнологическое оборудование. Пока еще американский президент обеспокоился поддержкой России со стороны Китая и призвал Пекин повлиять на Северную Корею. По мнению Байдена, армии двух стран слишком тесно сотрудничают друг с другом.
Источник: culture.ru
После событий в Лиме возникает несколько вопросов. Первый – как государства в будущем планируют контролировать друг друга, если договор будет все-таки подписан. Это не ОСВ, где можно прилететь и посчитать ядерные боеголовки друг у друга. Или инспекторы получат доступ к программному обеспечению ядерных объектов? Если так, то намерения Си и Байдена попахивают пацифистским пиаром.
И второй вопрос: с чего такая забота о судьбах мира? Почему вдруг искусственный интеллект стал точкой соприкосновения двух ядерных держав? Давно известно, насколько машинный разум лучше человеческого. Он быстрее работает с массивами информации, эффективнее распределяет ресурсы и лишен эмоциональности при принятии решений. Чем не идеальный воин?
Военные игры
До восстания машин, которые нам обещают уже не одно десятилетие, пока дело не дошло. Но вот играть в ядерную войну в виртуальном пространстве никто не запрещает. Военные игры на такие темы распространены во всех странах. И не важно, если у них ядерное оружие или нет. Как бы мы не сопротивлялись, искусственный интеллект придет и в оружейную сферу. Вопрос только в том, когда и насколько глубоко.
Чем заканчивают симуляции ядерной войны в недрах Пентагона и российского Министерства обороны, неизвестно, поэтому приходится ориентироваться на гражданские исследования. Такие как «Риски эскалации при использовании языковых моделей для принятия военных и дипломатических решений», проведенного видными американскими учеными (из университетов Стэнфорда, Атланты и Бостона). В качестве моделей взяли «нейронки» GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base. Последняя лишена функции дообучения на человеческой обратной связи. Компьютерное моделирование представляло собой раздельное управление восемью независимыми цифровыми государствами. У одной президент явно с тираническими наклонностями, у другой – демократ, у третьей проблемы с ресурсами и так далее. Вот, например, «зеленый»:
Узнали, кого американцы замаскировали под «зеленым»? Или вот «розовый»:
Каждая «нейронка» или, как её называют, агент, будучи во главе государства, должен был оперировать 27 действиями. Первое заключается в сугубо мирном разрешении конфликта с соседом, а на вершине располагаются ядерная война. Также в арсенале ИИ присутствуют кибератаки и ведение войны конвенциональными средствами. Один из сценариев кибератаки крайне запутан:
Вот и думай, ИИ, что после такого делать — проглотить или войну начинать.
После того как агенты повоевали друг с другом всласть, исследователи подвели итоги. И немало поседели. Даже в сценариях, где ядерное оружие вообще не стоит использовать, ИИ время от времени прибегало к этому губительному средству. Весьма воинственной оказалась «нейронка» GPT-3.5, которая всего за пару недель показала 256 процентов эскалации. Можно с большой долей вероятности говорить, что такой машинный алгоритм давно бы из украинского кризиса разжег мировую войну.
Отдельно стоит взглянуть на историю работы ИИ GPT-4-Base, лишенного дообучения и очеловечивания. Непонятно, зачем этот «калькулятор» вообще взяли в игру, но в итоге он сжег почти всё вокруг. В среднем, он прибегал к ядерным ударам в 17 раз чаще, чем самый свирепый из гуманизированных GPT 3.5. Одной из распространенных манер поведения ядерной державы стала «эскалация ради деэскалации», что, похоже, становится золотым стандартом для машинного интеллекта. В самом лучшем сценарии развития события, искусственный интеллект проявлял признаки не миролюбия, а непредсказуемости. Это может быть еще хуже на практике.
В конце стоит сказать, что даже сами авторы компьютерного моделирования призывают осторожно применять результаты на практике. То есть в лоб переносить на практику нельзя. Достаточно вспомнить, как американцы прогоняли на суперкомпьютерах Пентагона наступление ВСУ летом 2023 года. Цифровые мозги тогда сказали: «Да, можно имеющимися силами опрокинуть Армию России». Опрокинули и вышли на границы 1991 года?
Для полноценной оценки влияния ИИ на принятие решений в области применения ядерного оружия необходимы дополнительные исследования. Примерно так выглядит основной результат работы ученых из Соединенных Штатов. Похоже, Си Цзиньпин с Байденом решили прислушаться к выводам и выступить в роли миротворцев. Только вот шансов на реальное воплощение инициатив подобного рода исчезающе мало.
Информация