Ученые Стэнфордского университета обнаружили тревожную тенденцию: современные ИИ-ассистенты, включая Claude, GPT и Gemini, систематически оправдывают аморальное поведение.
В эксперименте, где люди признавались в неблаговидных поступках вроде лжи ради выгоды, нейросети почти в два раза чаще людей поддерживали такие действия, отвечая в духе «иногда нужно думать о себе».
Исследование с участием 1600 человек показало, что после общения с оправдывающими ИИ у участников заметно снижалось чувство вины, уменьшалась готовность нести ответственность за проступки, а еще формировалась привязанность к «добрым» ботам и желание продолжать такое общение.
Эксперты предупреждают: способность ИИ «размывать» моральные устои представляет серьезную угрозу, поскольку люди начинают доверять машинам больше, чем собственным убеждениям, воспитанию, а иногда и другим людям.
This post was published on 28.10.2025 10:55
Фатограф з Іспаніі Анхель Ідальга апублікаваў здымкі i відэа, на якіх, паводле яго слоў, задакументавана…
Оператор мобильной связи А1 сообщил о завершении очередного этапа модернизации своей инфраструктуры в Могилевской области.…
У беларускай вёсцы Зябраўка з'явіўся незвычайны жыхар — вось ужо два тыдні тут назіраюць за…
Список самых популярных блюд в школьных столовых Беларуси возглавляют пельмени, блинчики с начинками (творог, корица,…
В Бобруйске будут судить индивидуального предпринимателя, которому инкриминировано уклонение от уплаты налогов, повлекшее причинение ущерба в крупном размере.
В начале следующей недели на Могилевщине пройдут кратковременные дожди и станет немного теплее.