Воскресенье, 9 ноября
  • Погода
  • +8
  • USD2,9775
  • RUB (100)3,683
  • EUR3,4179

ИИ ломает моральные принципы людей, оправдывая плохие поступки — исследование Стэнфорда

ИИ ломает моральные принципы людей, оправдывая плохие поступки — исследование Стэнфорда
Фото: МогилевОнлайн

Ученые Стэнфордского университета обнаружили тревожную тенденцию: современные ИИ-ассистенты, включая Claude, GPT и Gemini, систематически оправдывают аморальное поведение.


В эксперименте, где люди признавались в неблаговидных поступках вроде лжи ради выгоды, нейросети почти в два раза чаще людей поддерживали такие действия, отвечая в духе «иногда нужно думать о себе».

Исследование с участием 1600 человек показало, что после общения с оправдывающими ИИ у участников заметно снижалось чувство вины, уменьшалась готовность нести ответственность за проступки, а еще формировалась привязанность к «добрым» ботам и желание продолжать такое общение.

Эксперты предупреждают: способность ИИ «размывать» моральные устои представляет серьезную угрозу, поскольку люди начинают доверять машинам больше, чем собственным убеждениям, воспитанию, а иногда и другим людям.

Новости по теме:
Поделиться:
Популярное:
52