Крупнейшие технологические игроки — Microsoft, принадлежащая Alphabet компания Google и стартап xAI, связанный с Илоном Маском — договорились о предоставлении американским властям «раннего доступа» к новым моделям искусственного интеллекта до того, как они станут доступны широкой публике. Такая мера призвана дать государству дополнительное время для проверок на предмет угроз национальной безопасности.
О соглашении во вторник объявил Центр по стандартам и инновациям в сфере ИИ при Министерстве торговли США. По заявлению ведомства, формат взаимодействия предполагает предварительные технические проверки и проведение отдельных исследований, ориентированных на то, как именно оцениваются возможности систем ИИ и какие риски могут возникнуть при их развертывании.
Что означает «ранний доступ» и зачем власти вмешиваются до релиза
Под «ранним доступом» обычно понимают возможность для регуляторов и экспертов ознакомиться с новыми моделями или их ключевыми характеристиками до публичного выпуска. В контексте безопасности это важно потому, что многие риски от ИИ проявляются не только в теории, но и в том, как система ведёт себя в практических сценариях — например, при генерации контента, автоматизации действий или работе с чувствительными данными.
Предварительные проверки позволяют властям заранее оценить потенциальные уязвимости и определить, какие меры защиты следует внедрить до того, как продукт окажется в открытом доступе.
Какие проверки планирует Минторг
Согласно объявлению, Центр по стандартам и инновациям в сфере ИИ будет выполнять две основные задачи:
- Предварительные оценки перед развертыванием (pre-deployment evaluations) — то есть анализ моделей и их поведения до того, как они начнут использоваться в реальных условиях.
- Целенаправленные исследования — работа, направленная на более точное понимание того, на что способны новые системы ИИ, и каким образом эти способности могут быть связаны с рисками безопасности.
Отдельный акцент сделан на повышении уровня ИИ-безопасности. Под этим в данном случае подразумевается комплекс мер и практик, которые помогают снизить вероятность вредного применения технологий, а также выявить сценарии, где модель может действовать непредсказуемо или создавать нежелательные последствия.
Кто участвует в соглашении
В договоренности участвуют три структуры, представляющие разные направления в экосистеме ИИ:
- Microsoft — крупный разработчик корпоративных продуктов и инфраструктуры для работы с ИИ.
- Google, принадлежащая Alphabet — один из ключевых игроков в области моделей машинного обучения и инструментов для их использования.
- xAI — компания, связанная с Илоном Маском, которая активно развивает собственные подходы к созданию ИИ-систем.
Реакция компаний
На момент публикации объявления компании не дали оперативных комментариев в ответ на запросы.
Почему это важно именно сейчас
Вопрос контроля за ИИ в последние годы стал одним из приоритетов для правительств: технологии развиваются быстрее, чем успевают формироваться универсальные правила. Поэтому соглашения в формате «до публичного релиза» рассматриваются как способ совместить инновации и проверку рисков — чтобы новые модели проходили оценку на безопасность в момент, когда у разработчиков ещё есть возможность оперативно внести изменения.
