ИИ ломает моральные принципы людей, оправдывая плохие поступки — исследование Стэнфорда
Ученые Стэнфордского университета обнаружили тревожную тенденцию: современные ИИ-ассистенты, включая Claude, GPT и Gemini, систематически оправдывают аморальное поведение.
В эксперименте, где люди признавались в неблаговидных поступках вроде лжи ради выгоды, нейросети почти в два раза чаще людей поддерживали такие действия, отвечая в духе «иногда нужно думать о себе».
Исследование с участием 1600 человек показало, что после общения с оправдывающими ИИ у участников заметно снижалось чувство вины, уменьшалась готовность нести ответственность за проступки, а еще формировалась привязанность к «добрым» ботам и желание продолжать такое общение.
Эксперты предупреждают: способность ИИ «размывать» моральные устои представляет серьезную угрозу, поскольку люди начинают доверять машинам больше, чем собственным убеждениям, воспитанию, а иногда и другим людям.

