Новые ИИ‑модели могут использоваться для финансового мошенничества

Повсеместное внедрение искусственного интеллекта во все большие сферы жизнедеятельности человека несет не только существенную пользу, но и создает новые глобальные угрозы, которых ранее просто не существовало. Одну из таких опасностей при использовании мошенниками новых ИИ-моделей в финансовой сфере на полях весенних встреч МВФ и Всемирного банка в Вашингтоне обсудили министры финансов, главы центральных банков и представители профильных регуляторов.
Изначально эта тема не была внесена в повестку мероприятия. Однако, как пишет британская газета Financial Times (FT), участники форума пришли к ее обсуждению в ходе традиционных дискуссий на темы геополитики и долговых рисков.
Акцент с привычных тем был смещен при обсуждении экспериментальной языковой модели искусственного интеллекта общего назначения Claude Mythos Preview, разработанной Anthropic. Новая модель ИИ была анонсирована 7 апреля 2026 года в рамках проекта Glasswing.
Хотя разработчик и заявил, что пока что не намерен выпускать «слишком мощный» инструмент в широкий доступ, эксперты, инженеры и СМИ пытаются ответить на один вопрос: насколько новая нейросеть действительно опасна? Еще в ходе бета-тестирования нейросеть продемонстрировала способность находить тысячи уязвимостей высокой критичности во всех ключевых операционных системах и браузерах.
Многие из этих ошибок существовали в течение десятилетий и оставались незамеченными в результате повторных тестов, проведенных людьми. Причем сделал это Mythos полностью автономно — без помощи человека. В Anthropic предупреждают: Mythos настолько мощная, что даже неспециалисты могут воспользоваться ее возможностями.
Кажется, в этом нет ничего плохого, очень даже полезный функционал. Однако все зависит от того, кто и с какой целью будет применять на практике столь мощный инструмент. И речь не только о новой разработке Anthropic, проблему использования моделей ИИ в финансовой сфере следует рассматривать гораздо шире и с более далекой перспективой. Вот что об этом говорят участники международного финансового форума.
Президент Европейского центробанка Кристин Лагард отметила подход Anthropic как пример «ответственной разработки», которая тем не менее при попадании «в неправильные руки» может иметь катастрофические последствия. Это лишь вопрос времени, когда аналогичные возможности станут доступны гораздо более широкому кругу игроков, включая тех, кто не связан никакими обязательствами по безопасному применению ИИ.
Управляющий Банком Англии и председатель Совета по финансовой стабильности (FSB) Эндрю Бейли назвал ситуацию «очень серьезным вызовом» и подчеркнул, что регуляторам придется в ускоренном порядке оценить кибернетические риски для глобальной финансовой системы.
Пока Mythos тестируется в узком кругу примерно из 40 крупных компаний, среди которых Amazon, Apple и JPMorgan Chase, также его применяет ряд крупнейших американских банков. Руководители JPMorgan, Morgan Stanley, BNY и Citigroup подтверждают, что работают с бета‑версией, одновременно фиксируя «массу уязвимостей, которые нужно исправить».
Одновременно политики и финансовые аналитики высказывают опасения по поводу слишком жесткого регулирования в сфере широкого применения моделей ИИ. Такой подход может затормозить развитие технологии, которая сулит и значительные экономические выгоды, считает управляющий Банком Англии.
Некоторые регуляторы при этом скептически относятся к возможности скоординированного глобального ответа на угрозу ИИ, учитывая нынешнюю геополитическую напряженность и конфликт на Ближнем Востоке.
Что касается Claude Mythos, то появление релиза этой ИИ-модели не на шутку всполошило американские власти. Министру финансов США Скотту Бессенту и главе Федеральной резервной системы Джерому Пауэллу пришлось 13 апреля экстренно собрать руководителей крупнейших американских банков по этому поводу. На совещании представители Anthropic признали нейросеть настолько продвинутой и опасной, что полностью отменили ее публичный релиз. Американские власти всерьез опасаются, что если технологии такого уровня попадут в руки хакеров, финансовая система окажется под сокрушительным ударом.
На закрытой встрече в Вашингтоне присутствовали главы Bank of America, Citigroup, Goldman Sachs и других гигантов Уолл-стрит, которых призвали срочно укреплять киберзащиту. Сама Anthropic сейчас согласилась предоставить доступ к модели только избранным техногигантам, включая Apple, Microsoft, Amazon и CrowdStrike, чтобы использовать ее исключительно для создания новейших защитных алгоритмов.
Между тем, искусственный интеллект все более активно «подсиживает» даже своих разработчиков. В октябре 2025 года компания Amazon объявила о масштабном увольнении 14 000 офисных сотрудников, включая специалистов по маркетингу, IT, бухгалтеров и HR. Многие из этих уволенных работников ранее участвовали в разработке систем искусственного интеллекта, которые теперь выполняют их обязанности быстрее и с меньшими затратами. В планах Amazon заменить на ИИ минимум 75% своих сотрудников.

Информация