Глава Минфина США Скотт Бессент и председатель Федеральной резервной системы Джером Пауэлл провели во вторник экстренную встречу с руководителями банков. Поводом стали опасения, связанные с киберрисками, которые могут быть связаны с последней разработкой компании Anthropic в сфере искусственного интеллекта. Разговоры носили предупредительный характер: участникам напомнили о необходимости оценить уязвимости и заранее подготовиться к возможным атакам.
Почему банки вновь оказались в фокусе
По информации из деловой среды, встреча прошла в здании Казначейства США в Вашингтоне. Ее цель — добиться, чтобы финансовые организации четко понимали потенциальные угрозы, возникающие при активном использовании современных ИИ-моделей, и своевременно принимали меры защиты. Подчеркивалось, что речь идет не только о прямых технических рисках, но и о сценариях, которые могут появиться вокруг новых инструментов — от злоупотреблений до атак с использованием знаний и возможностей, заложенных в модели.
Что именно обсуждали: Mythos и «схожие модели»
В ходе обсуждения внимание было сосредоточено на модели Anthropic под названием Mythos, а также на возможных рисках, которые могут возникать у банков при взаимодействии с другими аналогичными системами. В подобных контекстах под «рисками» обычно понимают несколько категорий проблем:
- Уязвимости в цепочке использования ИИ — например, когда компании интегрируют модели в свои процессы через сторонние сервисы, API или внутренние системы.
- Техники злоупотребления — когда злоумышленники пытаются использовать возможности ИИ для получения конфиденциальной информации, обхода правил или генерации вредоносного контента.
- Риски для инфраструктуры — включая вероятность атак на каналы связи, учетные записи и автоматизированные контуры, где ИИ задействован.
- Системные последствия — от сбоев в работе до репутационных потерь и регуляторных претензий, если инцидент повлечет ущерб клиентам.
К чему призвали участников встречи
Сообщалось, что на встрече намеревались удостовериться: банки не просто осведомлены о потенциальных угрозах, но и реально предпринимают шаги для защиты своих систем. В практическом смысле это может включать пересмотр политик доступа, усиление мониторинга, тестирование устойчивости к атакам и обновление процедур реагирования на инциденты. Отдельный акцент делается на том, чтобы оценка рисков была не разовой, а регулярной — особенно в период, когда ИИ-модели быстро развиваются и меняют способы применения в бизнесе.
Почему важно уточнять детали
Отдельно отмечалось, что информация о проведении встречи и ее содержании не была оперативно подтверждена независимой проверкой на момент публикации. Это означает, что окончательные выводы о конкретных технических угрозах и их масштабах, как правило, требуют дополнительных данных — например, результатов внутренних оценок кибербезопасности и официальных разъяснений регуляторов.
Справка: что такое киберриски в контексте ИИ
Когда говорят о киберрисках, связанных с ИИ, обычно имеют в виду не только «взлом модели» как таковой. Чаще речь идет о том, что ИИ может стать инструментом в руках злоумышленников, а также о том, что внедрение таких технологий в корпоративные процессы создает новые точки входа для атак. Даже если сама модель защищена, угрозы могут возникнуть на этапе интеграции, передачи данных, управления доступом и эксплуатации.
Встреча Бессента и Пауэлла с банковскими руководителями в Вашингтоне подчеркивает: тема безопасности в финансовом секторе все чаще связывается с технологическими трендами. И чем активнее банки используют современные ИИ-инструменты, тем выше потребность в прозрачной оценке угроз и в строгой киберзащите на всех уровнях — от инфраструктуры до процессов принятия решений.
