Новые ИИ‑модели могут использоваться для финансового мошенничества

749 14
Новые ИИ‑модели могут использоваться для финансового мошенничества

Повсеместное внедрение искусственного интеллекта во все большие сферы жизнедеятельности человека несет не только существенную пользу, но и создает новые глобальные угрозы, которых ранее просто не существовало. Одну из таких опасностей при использовании мошенниками новых ИИ-моделей в финансовой сфере на полях весенних встреч МВФ и Всемирного банка в Вашингтоне обсудили министры финансов, главы центральных банков и представители профильных регуляторов.

Изначально эта тема не была внесена в повестку мероприятия. Однако, как пишет британская газета Financial Times (FT), участники форума пришли к ее обсуждению в ходе традиционных дискуссий на темы геополитики и долговых рисков.

Акцент с привычных тем был смещен при обсуждении экспериментальной языковой модели искусственного интеллекта общего назначения Claude Mythos Preview, разработанной Anthropic. Новая модель ИИ была анонсирована 7 апреля 2026 года в рамках проекта Glasswing.

Хотя разработчик и заявил, что пока что не намерен выпускать «слишком мощный» инструмент в широкий доступ, эксперты, инженеры и СМИ пытаются ответить на один вопрос: насколько новая нейросеть действительно опасна? Еще в ходе бета-тестирования нейросеть продемонстрировала способность находить тысячи уязвимостей высокой критичности во всех ключевых операционных системах и браузерах.

Многие из этих ошибок существовали в течение десятилетий и оставались незамеченными в результате повторных тестов, проведенных людьми. Причем сделал это Mythos полностью автономно — без помощи человека. В Anthropic предупреждают: Mythos настолько мощная, что даже неспециалисты могут воспользоваться ее возможностями.

Кажется, в этом нет ничего плохого, очень даже полезный функционал. Однако все зависит от того, кто и с какой целью будет применять на практике столь мощный инструмент. И речь не только о новой разработке Anthropic, проблему использования моделей ИИ в финансовой сфере следует рассматривать гораздо шире и с более далекой перспективой. Вот что об этом говорят участники международного финансового форума.

Президент Европейского центробанка Кристин Лагард отметила подход Anthropic как пример «ответственной разработки», которая тем не менее при попадании «в неправильные руки» может иметь катастрофические последствия. Это лишь вопрос времени, когда аналогичные возможности станут доступны гораздо более широкому кругу игроков, включая тех, кто не связан никакими обязательствами по безопасному применению ИИ.

Управляющий Банком Англии и председатель Совета по финансовой стабильности (FSB) Эндрю Бейли назвал ситуацию «очень серьезным вызовом» и подчеркнул, что регуляторам придется в ускоренном порядке оценить кибернетические риски для глобальной финансовой системы.

Пока Mythos тестируется в узком кругу примерно из 40 крупных компаний, среди которых Amazon, Apple и JPMorgan Chase, также его применяет ряд крупнейших американских банков. Руководители JPMorgan, Morgan Stanley, BNY и Citigroup подтверждают, что работают с бета‑версией, одновременно фиксируя «массу уязвимостей, которые нужно исправить».

Одновременно политики и финансовые аналитики высказывают опасения по поводу слишком жесткого регулирования в сфере широкого применения моделей ИИ. Такой подход может затормозить развитие технологии, которая сулит и значительные экономические выгоды, считает управляющий Банком Англии.

Некоторые регуляторы при этом скептически относятся к возможности скоординированного глобального ответа на угрозу ИИ, учитывая нынешнюю геополитическую напряженность и конфликт на Ближнем Востоке.

Что касается Claude Mythos, то появление релиза этой ИИ-модели не на шутку всполошило американские власти. Министру финансов США Скотту Бессенту и главе Федеральной резервной системы Джерому Пауэллу пришлось 13 апреля экстренно собрать руководителей крупнейших американских банков по этому поводу. На совещании представители Anthropic признали нейросеть настолько продвинутой и опасной, что полностью отменили ее публичный релиз. Американские власти всерьез опасаются, что если технологии такого уровня попадут в руки хакеров, финансовая система окажется под сокрушительным ударом.

На закрытой встрече в Вашингтоне присутствовали главы Bank of America, Citigroup, Goldman Sachs и других гигантов Уолл-стрит, которых призвали срочно укреплять киберзащиту. Сама Anthropic сейчас согласилась предоставить доступ к модели только избранным техногигантам, включая Apple, Microsoft, Amazon и CrowdStrike, чтобы использовать ее исключительно для создания новейших защитных алгоритмов.

Между тем, искусственный интеллект все более активно «подсиживает» даже своих разработчиков. В октябре 2025 года компания Amazon объявила о масштабном увольнении 14 000 офисных сотрудников, включая специалистов по маркетингу, IT, бухгалтеров и HR. Многие из этих уволенных работников ранее участвовали в разработке систем искусственного интеллекта, которые теперь выполняют их обязанности быстрее и с меньшими затратами. В планах Amazon заменить на ИИ минимум 75% своих сотрудников.

14 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. 0
    Сегодня, 13:47
    Мы уже видели как ИИ им наплонировал вторжение в Иран. Жгите еще...
    1. 0
      Сегодня, 14:00
      Ладно ИИ, до сих пор не работает маркировка звонков, а мошенники спокойно покупают номера российских операторов и терроризируют россиян, буквально на дняз звонили вот. Что будет, когда они ии подключат....
  2. +1
    Сегодня, 14:02
    Проблема не в самом ИИ а в людях их использующих. У ИИ нет человеческого Эго, он настраивается на собеседника, а вот уж личность последнего будет влиять на поведение уже ИИ .
    1. +1
      Сегодня, 14:59
      Как бывает, сначала появлялась стекольная мастерская, а потом в округе хулиганы били стекла) Тут тоже может быть этот принцип, нагнать страху и потом, предлагать решения для защиты))
      1. +1
        Сегодня, 15:07
        тоже самое с вирусами)))) сами придумали а потом заставляют покупать антивирусы
  3. +2
    Сегодня, 14:08
    Как верно замечено, проблема в людях... человеческие пороки неикоренимы... по крайне мере в обозримом будующем... а потом, да фиг её знает что будет потом???
    1. 0
      Сегодня, 14:16
      rocket757 hi ,а тут либо Терминатор,либо Планета обезьян. Сначала создали обучили-научили а потом по щам и получили. Воистину благими намерения ведут в ад.
      1. 0
        Сегодня, 14:28
        А когда то смотрели на терминатора как на фантазию/фантастику... а сейчас это преддверие грядущего.
  4. 0
    Сегодня, 14:17
    Человечество подходит к опасной границе прогресса , за которой возможна его гибель из-за несовершенства моральных качеств людей
  5. 0
    Сегодня, 14:19
    Многие страны и корпорации закрывают свои наработки ИИ от общего доступа и доступа для других стран, чтобы сохранить преимущество и защититься и укрепить киберзащиту !
  6. 0
    Сегодня, 14:26
    Министру финансов США Скотту Бессенту и главе Федеральной резервной системы Джерому Пауэллу пришлось 13 апреля экстренно собрать руководителей крупнейших американских банков по этому поводу.

    хорошо конечно, что вовремя спохватились, но
    На совещании представители Anthropic признали нейросеть настолько продвинутой и опасной, что полностью отменили ее публичный релиз.

    это что-ж они такое такое сотворили, что сами испугались? И чего нам ожидать в итоге? "Матрицу" или "Терминатора"?
  7. +1
    Сегодня, 14:28
    Новые ИИ‑модели могут использоваться для финансового мошенничества

    Могут? Будут!
    Сразу же, как только появится малейшая возможность. А следом начнут порнуху клепать.
  8. +1
    Сегодня, 14:33
    Новые ИИ‑модели могут использоваться для финансового мошенничества

    А что нам скажет по этому поводу сам ИИ? Например, Рerplexity:

    Статья на Topwar.ru — типичный пример того, как полуфейковые нарративы маскируются под "аналитику" в милитари-форумах.
    Это выглядит как типичный интернет-миф или дезинформация, циркулирующая в Telegram-каналах и форумах вроде Topwar.ru. Давайте разберём по фактам, почему оно не соответствует реальности (на основе доступных данных на апрель 2026 года).
    Нет никаких следов "Claude Mythos" ...
    Нет подтверждений экстренного совещания Скотта Бессента (министр финансов) и Джерома Пауэлла (глава ФРС) с банками по поводу ИИ. Календарь ФРС на апрель 2026 показывает рутинные слушания по инфляции и ставкам, без намёка на "ИИ-кризис".

    Представители Anthropic (Dario Amodei и команда) не делали заявлений об отмене релиза "опасной" модели. Наоборот, они активно продвигают Claude для enterprise-клиентов, включая банки (JPMorgan и Goldman Sachs тестируют Claude 3.5).

    Риски ИИ для банков — да, реальны (5-10% атак в 2026 будут на ИИ-системы ). Но "Mythos-апокалипсис" — это то же, что "скалолазы боятся Гималаев, значит Эверест рухнет".
    1. 0
      Сегодня, 14:49
      а вот что алиса выдала ))
      Статья, о которой вы спрашиваете, не является полностью фейковой, но содержит некоторые неточности и преувеличения. Основные факты, упомянутые в ней, имеют подтверждение в открытых источниках, но некоторые детали и интерпретации требуют уточнения.


      Подтверждённые факты

      Существование модели Claude Mythos Preview. Anthropic действительно анонсировала эту модель 7 апреля 2026 года в рамках проекта Glasswing.
      ru.wikipedia.org* +2
      Ограниченный доступ. Компания решила не выпускать модель в открытый доступ из-за её потенциальных рисков для кибербезопасности. Доступ предоставлен только партнёрам Project Glasswing и ряду организаций, связанных с критической программной инфраструктурой.
      ru.wikipedia.org* +3
      Способности модели. Mythos Preview продемонстрировала способность автономно находить уязвимости нулевого дня в операционных системах и браузерах. Например, она обнаружила 27-летнюю уязвимость в OpenBSD и 16-летнюю в FFmpeg.
      ru.wikipedia.org* +3
      Участие крупных компаний. Среди партнёров Project Glasswing — Amazon, Apple, Google, Microsoft, NVIDIA и другие.
      nxcode.io +1
      Обсуждение на международном уровне. Тема действительно привлекла внимание регуляторов и финансовых институтов, что подтверждается упоминанием встреч в контексте МВФ и Всемирного банка.


      Неточности и преувеличения
      Утверждение о совещании с участием министра финансов США и главы ФРС. В открытых источниках нет прямого подтверждения, что Скотт Бессент и Джером Пауэлл экстренно собирали руководителей банков именно по поводу Mythos. Упоминается общая обеспокоенность киберрисками, связанными с ИИ, но конкретизация с именами и датой выглядит сомнительно.
      Упоминание Amazon и увольнения сотрудников. В статье приводится факт об увольнении 14 000 сотрудников Amazon в октябре 2025 года, который не связан напрямую с темой ИИ-моделей. Это отдельное событие, и его включение в контекст может быть попыткой усилить драматизм.

      Интерпретация рисков. Хотя риски использования ИИ в кибербезопасности реальны, утверждение, что «если технологии такого уровня попадут в руки хакеров, финансовая система окажется под сокрушительным ударом», является скорее гипотетическим сценарием, чем подтверждённым фактом.
      Детали о реакции регуляторов. В статье приводятся цитаты Кристин Лагард и Эндрю Бейли, но нет прямых ссылок на источники этих заявлений. В открытых источниках есть общие обсуждения рисков ИИ в финансовой сфере, но конкретные цитаты требуют проверки.

      Вывод
      Статья базируется на реальных событиях и фактах, связанных с Claude Mythos Preview, но содержит элементы преувеличения и непроверенные детали. Для более точной оценки рекомендуется обращаться к официальным источникам, таким как заявления Anthropic, публикации в авторитетных СМИ (The Verge, Fortune, The New York Times) и отчёты отраслевых организаций.
      ru.wikipedia.org* +2