-
Mythos развенчал банковскую защиту
21 апреля 2026 года | Разное |
-
Почему ИИ-модель от Anthropic вызывает опасения у мировых финансовых регуляторов
Революционная модель искусственного интеллекта Mythos создает большие риски для мировой финансовой кибербезопасности. Такие выводы сделали сразу несколько национальных регуляторов, включая Банк Англии, Банк Сингапура и американскую Федеральную резервную систему.
Как пишет Reuters, регуляторы рекомендовали участникам финансового рынка приостановить внедрение модели от Anthropic. При этом сама Mythos разработана как раз для поиска уязвимостей в защитном контуре банков. В частности, нейросеть всего за несколько недель нашла тысячи ранее неизвестных критических ошибок. Если такой мощный инструмент попадет в руки преступников, коллапс мировой финансовой системы неизбежен, объясняет независимый эксперт по кибербезопасности Мона Архипова:
«Mythos сам по себе эволюционировал в цепочку атак, которая позволяет не просто находить уязвимость и эксплуатировать ее, но и выявлять более сложные последовательности. Опасения регуляторов связаны именно с этим. Не секрет, что это технология двойного назначения. С одной стороны — благородная цель: поиск уязвимостей. С другой — инструмент кибератак на уровне государства.
Очень надеюсь, что доступ к этой модели будет ограничен для экспертов в области информационной безопасности и представителей банков. Если российским банкам не дадут доступ к Mythos, банковская отрасль РФ не сможет предотвратить угрозу. У нас есть санкционные ограничения, а Anthropic — это американская компания, и они сейчас не выдают доступ экспертам по кибербезопасности в России».
Anthropic предоставила ограниченный доступ к Mythos лишь нескольким IT-компаниям. Среди них, например, Amazon, Apple, Microsoft. Из банков модель пока использует только JPMorgan. Но протестировать технологию хотят и другие финансовые организации, пишет Reuters. Несмотря на активное сопротивление регуляторов, разработку Mythos все равно продолжат, уверен глава аналитического центра Zecurion Владимир Ульянов:
«Опасения, которые высказывают участники рынка, необходимо воспринимать и в соответствии с ними корректировать разработку. Я не думаю, что проектирование модели будет свернуто, но изменено — безусловно. Так происходило и со многими другими ИИ-агентами, которые изначально казались небезопасными или не отвечающими определенным требованиям. Возможно, это позволит направить вектор развития в нужное русло».
В начале апреля 2026 года Anthropic по ошибке опубликовала около 500 тыс. строк исходного кода ассистента Claude. В результате хакеры получили информацию, которая позволит им проводить более эффективные кибератаки, отмечает The Wall Street Journal.





Оставить комментарий
Вы должнывойти чтобы комментировать..