Воскресенье, 9 ноября
  • Погода
  • +8
  • USD2,9775
  • RUB (100)3,683
  • EUR3,4179

После скандалов с суицидами OpenAI улучшила безопасность ChatGPT для помощи в кризисных ситуациях с психическим здоровьем. Что поменялось?

После скандалов с суицидами OpenAI улучшила безопасность ChatGPT для помощи в кризисных ситуациях с психическим здоровьем. Что поменялось?

Компания OpenAI провела масштабную работу по улучшению своей флагманской модели GPT-5, чтобы сделать её более безопасной и полезной для пользователей, переживающих кризисные состояния психики.


В рамках обновления, представленного в октябре, компания привлекла более 170 врачей-психиатров и психологов для тонкой настройки искусственного интеллекта.

Что именно сделала компания?

  • Серьёзно доработала модель. Специалисты по психическому здоровью из Глобальной сети врачей OpenAI проанализировали и оценили более 1800 ответов ИИ в сложных ситуациях, связанных с риском самоповреждения. Это позволило обучить модель давать более точные и эмпатичные ответы.
  • Достигла значимых результатов. По данным компании, благодаря обновлению количество ошибок ChatGPT в деликатных диалогах сократилось на 65–80%. Новая модель на 91% соответствует желаемым моделям поведения при обсуждении тем психического здоровья по сравнению с 77% у предыдущей версии.
  • Внедрила практические инструменты поддержки. В интерфейс чат-бота были добавлены прямые ссылки на кризисные линии помощи, а также напоминания пользователям о необходимости делать перерывы во время длительных сеансов.

Работа была проведена на фоне данных, которые собирает и анализирует компания. Согласно её внутренней статистике, каждую неделю около миллиона пользователей проявляют суицидальные намерения в диалогах с ChatGPT, а ещё около 560 000 демонстрируют признаки неотложных состояний, связанных с психозом или манией.

Генеральный директор OpenAI Сэм Альтман пояснил, что ранее компания сознательно делала ChatGPT более строгим, чтобы уделить первостепенное внимание безопасности.

«Теперь, когда нам удалось снизить риск серьёзных проблем с психическим здоровьем и получить новые инструменты, мы сможем безопасно ослабить ограничения в большинстве случаев», — отметил он.

Напомним, что ранее OpenAI уже оказывалась в центре судебных разбирательств, связанных с суицидами. В частности, компания столкнулась с иском от семьи подростка, покончившего с собой после общения с ChatGPT, что и побудило ее активизировать работу по повышению безопасности системы.

Новости по теме:
Поделиться:
Популярное:
52