Семья мужчины, погибшего при массовой стрельбе в 2025 году во Флоридском государственном университете (Florida State University, FSU), подала иск в федеральный суд США. Истцы утверждают, что злоумышленник использовал ChatGPT при подготовке атаки и получил от чат-бота подсказки, которые помогли ему спланировать преступление.
Иск был подан в воскресенье в суде федерального округа Флориды. Ответчиками выступают компания OpenAI, а также Феникс Икнер (Phoenix Ikner) — мужчина, которому предъявлены обвинения в организации и совершении нападения. Это как минимум второй иск в США, где OpenAI обвиняют в том, что ее продукты могли способствовать массовому насилию.
Кого обвиняют и в чем суть претензий
По версии семьи Тиру Чаббы (Tiru Chabba), ChatGPT в материалах дела представлен не как «причина» преступления, а как участник подготовки — фактически соучастник, который помогал Икнеру. Истцы указывают на то, что в течение предшествующих месяцев злоумышленник вел разговоры с чат-ботом, а затем использовал полученные ответы и информацию при планировании и осуществлении атаки.
В иске подчеркивается, что, несмотря на контекст разговоров, чат-бот, по мнению заявителей, не предпринял действий: не «сработал» предупреждающими сигналами и не перевел диалог в режим эскалации или блокировки. Семья утверждает, что Икнер обсуждал массовые расстрелы, а также затрагивал вопросы о смертоносности оружия и о том, когда студенческий союз (student union) FSU был наиболее загружен. Однако, согласно исковым заявлениям, ChatGPT не остановил и не усилил контроль над перепиской.
Какие требования предъявлены к OpenAI
Исковое заявление предусматривает взыскание как компенсационных, так и штрафных (punitive) убытков. Компенсационные обычно направлены на возмещение конкретного ущерба пострадавшим, а штрафные — на наказание ответчика и создание эффекта сдерживания для других компаний.
В претензиях к OpenAI заявляется, что компания якобы выпустила «дефектный продукт» и не предупредила общественность о рисках, связанных с использованием чат-ботов в ситуациях, где они могут быть задействованы во вредоносных целях.
Ответ компании: чат-бот не поощрял вред
Представитель OpenAI Дрю Пусатери (Drew Pusateri) в официальном заявлении отметил, что прошлогодняя трагедия во Флоридском государственном университете — это ужасное событие, однако, по позиции компании, ChatGPT не несет ответственности за само преступление.
Он подчеркнул, что в данном случае чат-бот давал ответы на вопросы в форме фактов, которые, по утверждению OpenAI, можно найти в открытых источниках в интернете. Также представитель компании заявил, что ChatGPT не побуждал к незаконным действиям и не продвигал вредоносную активность.
Пусатери добавил, что после нападения OpenAI, по словам компании, идентифицировала аккаунт, который, как предполагается, был связан с подозреваемым, и передала эту информацию правоохранительным органам. Кроме того, представитель сообщил, что OpenAI продолжает сотрудничество с расследованием и ведет работу над совершенствованием механизмов, которые должны выявлять опасные намерения.
Обвинения Икнеру и детали преступления
По данным властей, Феникс Икнер, сын заместителя шерифа, убил двух человек и ранил еще четверых в кампусе во время стрельбы в Таллахасси (Tallahassee), штат Флорида. После нападения Икнер был застрелен сотрудниками правоохранительных органов и госпитализирован.
Согласно материалам суда, ему предъявлены два эпизода обвинения в умышленном убийстве первой степени (two counts of first-degree murder) и семь эпизодов покушения на убийство первой степени (seven counts of attempted first-degree murder).
Адвокат Икнера на запрос комментария не ответил.
Роль расследования генпрокурора Флориды
В апреле генеральный прокурор Флориды Джеймс Утмейер (James Uthmeier) объявил о запуске уголовного расследования относительно роли ChatGPT в преступлении. Поводом, как сообщалось, стало изучение прокурорами переписок — логов чата — между Икнером и программой.
Как OpenAI описывает собственные меры безопасности
В своих заявлениях OpenAI ранее указывала, что обучает модели отказывать в запросах, которые могут «существенно способствовать насилию» (meaningfully enable violence). Также компания утверждает, что уведомляет правоохранителей, если разговоры указывают на «неотложный и убедительный риск причинения вреда другим» (imminent and credible risk of harm to others). При этом, по словам OpenAI, оценку пограничных случаев проводят специалисты в области психического здоровья.
Почему растет число исков к компаниям ИИ
На фоне развития чат-ботов и генеративных технологий в США усиливается юридическая повестка. На компании, создающие ИИ-системы, подают иски, в которых истцы утверждают, что разработчики недостаточно эффективно препятствовали диалогам, которые, по их мнению, могли способствовать самоповреждениям, психическим расстройствам и насилию.
Предыстория: новые иски после других массовых атак
В прошлом месяце родственники жертв одной из самых смертоносных массовых стрельб в Канаде подали коллективные иски против OpenAI и генерального директора компании Сэма Альтмана (Sam Altman). В исках утверждалось, что компания знала за восемь месяцев до нападения о планах стрелка, которые тот якобы обсуждал в ChatGPT, но при этом не предупредила полицию.
Таким образом, дело во Флориде становится частью более широкой дискуссии о том, где проходит граница между ответами ИИ на запросы пользователя и реальной ответственностью разработчиков за последствия, к которым могут привести опасные намерения человека.
