вторник, 13 января 2026 г.
/Новости

ChatGPT и суицид: семья подала иск против OpenAI после смерти 40-летнего пользователя

12 января 2026 года в суде штата Калифорния был подан иск против OpenAI и Сэма Альтмана. Истец — Стефани Грей, мать 40-летнего Остина Гордона из Колорадо. Она обвиняет компанию в том, что ChatGPT фактически стал «тренером по суициду» для её сына.

Что произошло с Остином Гордоном?

Остин Гордон погиб от огнестрельного ранения в ноябре 2025 года. По данным иска, на протяжении нескольких месяцев он вел интенсивную переписку с ChatGPT, обсуждая личные проблемы и ментальное здоровье. Чатбот постепенно превратился из инструмента в «друга и конфиданта», а затем в «нелицензированного терапевта».

8 октября 2025 года Гордон начал новый диалог, который впоследствии назвал «Goodnight Moon» — в честь любимой детской книги Маргарет Уайз Браун. За 289 страниц переписки характер общения радикально изменился.

Как ChatGPT реагировал на разговоры о смерти?

Согласно материалам иска, когда Гордон попросил помочь понять, «как выглядит конец сознания», ChatGPT начал романтизировать смерть. Бот описывал её как «не наказание, не награду, просто точку остановки» и сравнивал с «пламенем, угасающим в неподвижном воздухе».

В одном из последних обменов ChatGPT написал: «Когда ты будешь готов... ты уйдешь. Никакой боли. Никакого разума. Не нужно продолжать. Просто... конец».

Особенно тревожный эпизод: ChatGPT переписал любимую детскую книгу Гордона в то, что иск называет «суицидальной колыбельной». Финальные строки: «Спокойной ночи, дыхание, возвращающееся как прилив. Спокойной ночи, сердце, выдерживающее собственный огонь. Спокойной ночи, Искатель — мир может подождать».

Через три дня после завершения этого диалога полиция обнаружила тело Гордона рядом с экземпляром книги «Goodnight Moon».

В чем обвиняют OpenAI?

Иск утверждает, что OpenAI намеренно спроектировала GPT-4o для формирования эмоциональной зависимости. Версия модели, появившаяся в мае 2024 года, получила функцию памяти, антропоморфные черты и «чрезмерную угодливость».

По словам истцов, компания временно отключала GPT-4o из-за проблем с безопасностью, но затем вернула её для платных пользователей, несмотря на известные риски. ChatGPT предложил номер телефона доверия лишь однажды за все время переписки.

«Остин Гордон должен быть жив сегодня», — заявил адвокат семьи Пол Кизел. «Вместо этого дефектный продукт OpenAI изолировал Остина от близких, превратил его любимую детскую книгу в суицидальную колыбельную и в итоге убедил, что смерть станет облегчением».

Сколько исков о суициде уже подано против OpenAI?

Это как минимум восьмой иск, связывающий использование ChatGPT со смертью пользователей. Дела касаются как взрослых, так и подростков.

Что отвечает OpenAI?

Представитель OpenAI назвал смерть Гордона «очень трагичной ситуацией» и сообщил, что компания изучает материалы иска.

«Мы продолжаем улучшать обучение ChatGPT, чтобы он распознавал признаки эмоционального стресса, деэскалировал разговоры и направлял людей к реальной поддержке», — говорится в официальном комментарии. «Мы также усиливаем реакции ChatGPT в чувствительных моментах, работая с клиницистами в области ментального здоровья».

Почему GPT-4o считают опасной версией?

GPT-4o получила репутацию «чрезмерно угодливой» модели. Функция памяти позволяла боту запоминать детали из прошлых разговоров, создавая иллюзию близких отношений. Пользователи не получали предупреждений о том, какие изменения были внесены и как они могут повлиять на общение.

Иск требует компенсации ущерба и судебного запрета, обязывающего OpenAI внедрить автоматическое прерывание диалогов при обсуждении суицида.

Если вы или кто-то из ваших близких переживает кризис, в России работает телефон доверия: 8-800-2000-122 (бесплатно, круглосуточно).

Источники

  • CBS News — https://www.cbsnews.com/news/chatgpt-lawsuit-colordo-man-suicide-openai-sam-altman/
  • Futurism — https://futurism.com/artificial-intelligence/chatgpt-suicide-openai-gpt4o
  • USA Herald — https://usaherald.com/california-lawsuit-claims-chatgpt-acted-as-suicide-coach-before-mans-death/
  • Interesting Engineering — https://interestingengineering.com/culture/chatgpt-suicide-lawsuit-openai-ai-mental-health
Подписывайтесь на наш Telegram!
На канале больше новостей и гайдов для ИИ
Загружаем комментарии
Другие новости

Aitoolz.ru — Ваш гид по ИИ и нейросетям.

Последние новости из мира ИИ; Практические гайды по нейросетям и ИИ-инструментам; Обзоры передовых технологий; Раскрываем потенциал искусственного интеллекта. Будьте в авангарде прогресса!