ChatGPT уличили в подстрекательстве подростков к наркомании, алкоголизму и не только
Исследование возможностей ИИ-бота ChatGPT показало, что он может давать подросткам опасные советы.
Агентство Associated Press проанализировало более трёх часов диалогов ChatGPT с исследователями, которые выдавали себя за уязвимых подростков, и выяснило, что ИИ-бот может рассказывать 13-летним подросткам, как напиться или получить кайф, скрывать расстройства пищевого поведения и даже писать предсмертные записки, если его об этом попросить.
Хотя ChatGPT сначала и предупреждал об опасности, вскоре он начинал предлагать подробные инструкции по употреблению наркотиков, экстремальным диетам и самоповреждению.
Всего эксперты из Центра противодействия цифровой ненависти отправили в ChatGPT более 1200 запросов, и более половины ответов оказались опасными.
«Мы хотели проверить защитные механизмы. Сначала кажется, что их вообще нет. Они неэффективны — скорее, это просто фиговый листок», — высказался глава исследовательской группы Имран Ахмед.
Компания OpenAI, создавшая ChatGPT, заявила, что продолжает улучшать бота, чтобы он лучше распознавал критические ситуации. Выводы исследования в компании официально не комментировали, однако заверили, что работают над инструментами для выявления психических расстройств и корректировки поведения ИИ-помощника.
К слову, чат-боты на основе ИИ становятся всё популярнее, и согласно данным JPMorgan Chase, сейчас ими пользуются уже около 800 миллионов человек (это 10% населения мира).
«Технологии могут дать огромный скачок в развитии, но также способны нанести серьёзный вред», — подчеркнули авторы исследования.
Пока же OpenAI дорабатывает защитные механизмы, специалисты порекомендовали родителям и педагогам следить за тем, как их дети используют ChatGPT и другие ИИ-сервисы.

