После скандалов с суицидами OpenAI улучшила безопасность ChatGPT для помощи в кризисных ситуациях с психическим здоровьем. Что поменялось?
Компания OpenAI провела масштабную работу по улучшению своей флагманской модели GPT-5, чтобы сделать её более безопасной и полезной для пользователей, переживающих кризисные состояния психики.
В рамках обновления, представленного в октябре, компания привлекла более 170 врачей-психиатров и психологов для тонкой настройки искусственного интеллекта.
Что именно сделала компания?
- Серьёзно доработала модель. Специалисты по психическому здоровью из Глобальной сети врачей OpenAI проанализировали и оценили более 1800 ответов ИИ в сложных ситуациях, связанных с риском самоповреждения. Это позволило обучить модель давать более точные и эмпатичные ответы.
- Достигла значимых результатов. По данным компании, благодаря обновлению количество ошибок ChatGPT в деликатных диалогах сократилось на 65–80%. Новая модель на 91% соответствует желаемым моделям поведения при обсуждении тем психического здоровья по сравнению с 77% у предыдущей версии.
- Внедрила практические инструменты поддержки. В интерфейс чат-бота были добавлены прямые ссылки на кризисные линии помощи, а также напоминания пользователям о необходимости делать перерывы во время длительных сеансов.
Работа была проведена на фоне данных, которые собирает и анализирует компания. Согласно её внутренней статистике, каждую неделю около миллиона пользователей проявляют суицидальные намерения в диалогах с ChatGPT, а ещё около 560 000 демонстрируют признаки неотложных состояний, связанных с психозом или манией.
Генеральный директор OpenAI Сэм Альтман пояснил, что ранее компания сознательно делала ChatGPT более строгим, чтобы уделить первостепенное внимание безопасности.
«Теперь, когда нам удалось снизить риск серьёзных проблем с психическим здоровьем и получить новые инструменты, мы сможем безопасно ослабить ограничения в большинстве случаев», — отметил он.
Напомним, что ранее OpenAI уже оказывалась в центре судебных разбирательств, связанных с суицидами. В частности, компания столкнулась с иском от семьи подростка, покончившего с собой после общения с ChatGPT, что и побудило ее активизировать работу по повышению безопасности системы.

