Сразу сотни сотрудников исследовательских подразделений искусственного интеллекта в Google — компании Alphabet Inc. — обратились к руководству с публичным требованием не допускать использование корпоративных ИИ-систем в интересах американских военных задач, относящихся к категории «классифицированных». Письмо адресовано генеральному директору Sundar Pichai и, по сообщениям о подготовке обращения, призвано остановить возможное расширение сотрудничества с ведомствами обороны США.
Что именно просят сотрудники Google
Авторы письма выступают против предоставления разработок Google для «классифицированных рабочих нагрузок» (то есть задач, которые связаны с государственными сведениями ограниченного доступа и требуют особого режима безопасности). В таком контексте речь обычно идет о применении ИИ в оборонных проектах, где критичны требования к контролю данных, верификации результатов и управлению рисками.
В обращении, которое направили в понедельник лично Сундару Пичаи, сотрудники подчеркивают несколько ключевых опасений. По их словам, как специалисты, занятые в разработке ИИ, они видят, что подобные технологии способны концентрировать влияние и при этом неизбежно допускают ошибки. Именно сочетание «усиления» и «неточностей» сотрудники считают проблемой, особенно когда речь заходит о военных сценариях и системах принятия решений.
Сколько людей поставили подписи и как они решили себя обозначить
По данным организаторов, письмо уже собрало более 580 подписей. Примечательно, что примерно две трети участников согласились, чтобы их имена были указаны, тогда как около трети предпочли сохранить анонимность.
Такой формат отражает внутренний баланс между публичной позицией и личными рисками: в крупных технологических компаниях сотрудники часто учитывают возможные последствия для карьеры и отношений с работодателем, особенно когда речь идет о чувствительных темах, связанных с контрактами и государственными заказами.
Предыстория: спор Пентагона и Anthropic вокруг военного применения ИИ
Протест сотрудников Google возник на фоне параллельного развития событий в сфере оборонных технологий. В центре внимания находится юридический конфликт между Пентагоном и компанией Anthropic PBC по вопросу использования ИИ в военных проектах.
Согласно описанию ситуации, Пентагон пытается исключить Anthropic и ее модель Claude из цепочек поставок технологий для оборонного ведомства США. Одновременно рассматривается поиск новых крупных технологических партнеров — то есть компаний, которые могут стать альтернативными поставщиками ИИ-решений.
В такой момент любое участие ведущих игроков рынка, включая Google, становится особенно чувствительным: государственные закупки и требования к безопасности повышают ставки и ускоряют вовлечение технологий в практические сценарии.
Почему тема вызывает внутренние разногласия
Для понимания сути претензий сотрудников важно различать два аспекта: «доступ к инструментам» и «доступ к задачам». Даже когда речь идет о поставке технологий или инфраструктуры, вопрос заключается не только в том, можно ли использовать ИИ, но и в том, как он будет применяться — в системах, где ошибки могут иметь последствия для людей и где результаты требуют надежной интерпретации.
Сами авторы письма также указывают, что ИИ может менять баланс сил: в военной сфере это означает ускорение процессов, усиление возможностей автоматизации и потенциальное влияние на то, как принимаются решения.
Обращение продолжает линию, начатую ранее
Это не первый случай, когда сотрудники Google поднимают тему рисков «ИИ-войны». В 2018 году работники компании уже выражали обеспокоенность возможными последствиями применения технологий искусственного интеллекта в военных целях. Тогда их позиция привела к тому, что Google ограничила свою деятельность в оборонном направлении.
Теперь новое письмо выглядит как попытка вернуть компанию к более осторожному подходу — особенно в ситуации, когда вокруг оборонных контрактов и поставок ИИ идет острая конкуренция и параллельно развивается юридический спор между крупными игроками.
Что означает требование «отказаться»
Фраза «отказаться от предоставления для классифицированных задач» в реальном измерении обычно предполагает отказ от конкретных форм участия: от передачи определенных инструментов и моделей до доступа к вычислительным мощностям и обработке данных, подпадающих под режим секретности.
Именно поэтому сотрудники настаивают не на абстрактной дискуссии, а на конкретном решении руководства — не включать ИИ-системы Google в оборонные сценарии, где требуются специальные режимы безопасности и где цена ошибок особенно высока.
