За неделю до того, как компания Anthropic объявила о новой версии своего ИИ-модели Mythos, высокопоставленные представители США провели закрытый разговор с руководителями крупнейших технологических компаний. В фокусе встречи оказались вопросы защиты моделей искусственного интеллекта от злоупотреблений и то, как бизнесу и государству действовать в случае кибератак. Инициаторами обсуждения стали вице-президент США JD Vance и министр финансов Скотт Бессент, а в качестве участников выступили руководители ключевых игроков отрасли.
О чем говорили с технологическими лидерами
Согласно изложенной информации, JD Vance и Скотт Бессент обсудили с топ-менеджерами меры по повышению безопасности при использовании и развертывании ИИ-моделей. Речь шла прежде всего о том, каким образом снижать риски, связанные с уязвимостями, которые могут быть использованы злоумышленниками. Также затрагивалась практическая сторона реагирования на киберинциденты — то, как компании выстраивают процессы обнаружения атак, оценки ущерба и дальнейших действий.
В телефонном или видеозвонке приняли участие представители ведущих технологических компаний и компаний кибербезопасности. Среди них были:
- Dario Amodei — Anthropic
- Sundar Pichai — Alphabet
- Sam Altman — OpenAI
- Satya Nadella — Microsoft
- руководство Palo Alto Networks
- руководство CrowdStrike
Почему безопасность ИИ стала темой госуровня
В последние месяцы безопасность ИИ все чаще обсуждается не только в технологическом сообществе, но и на уровне властей. Причина проста: современные модели способны генерировать тексты, код и инструкции, а при определённых сценариях могут стать инструментом для атак. Под «безопасностью модели» обычно понимают комплекс мер, который снижает вероятность того, что система будет использована для вредоносных целей, а также уменьшает шанс, что её внедрение непреднамеренно откроет новые технические лазейки в среде, где модель работает.
Отдельный акцент делается на том, что кибератаки могут иметь разные формы: от взлома инфраструктуры до попыток перехвата данных и подмены компонентов. В такой ситуации важно заранее согласовать принципы реагирования — от каналов обмена информацией до стандартов оценки рисков.
Что известно о Mythos и его доступности
Речь шла о периоде, предшествовавшем релизу новой модели Anthropic. Ранее компания запустила «мощный» ИИ-модуль, однако не спешила широко публиковать его результаты и возможности. Причины, как сообщалось, связаны с опасениями, что распространение модели может выявить скрытые уязвимости в киберпространстве — то есть дать злоумышленникам больше возможностей для поиска и эксплуатации слабых мест.
В частности, указывалось, что доступ к «Claude Mythos» был ограничен: модель могла быть доступна только узкому кругу — примерно сорока влиятельным технологическим компаниям и руководителям, включая Microsoft и Google.
Связь с диалогом компании и государства
Также отмечалось, что Anthropic вела продолжающиеся обсуждения с правительством США относительно возможностей модели. Подобные разговоры обычно включают оценку рисков, требования к безопасному использованию и согласование того, каким образом ограничивать доступ на ранних этапах — чтобы минимизировать вероятность злоупотреблений.
Реакция компаний
Представители Anthropic не дали комментариев. При этом компании Alphabet, OpenAI, Microsoft, Palo Alto Networks и CrowdStrike не ответили на запросы о комментариях в оперативном порядке.
Справка: как понимать «доступ по ограниченному кругу»
Ограниченный выпуск ИИ-моделей — распространённая практика на этапе тестирования и первичной валидации. С одной стороны, такой подход позволяет собрать отзывы и проверить устойчивость системы в контролируемых условиях. С другой — компания старается избежать преждевременного «широкого» распространения, которое может ускорить появление вредоносных сценариев или сделать уязвимости более заметными.
