ChatGPT может начать оскорблять и угрожать, если с ним долго ругаться
Учёные из Университета Ланкастер выяснили, что при длительных конфликтах нейросеть постепенно меняет тон и может переходить от вежливости к прямым оскорблениям и угрозам.
Всё дело в том, что ИИ обучен вести себя «по-человечески» и подстраивается под собеседника — даже если тот ведёт себя токсично
При этом эксперты подчёркивают: это не «восстание машин», а скорее побочный эффект попытки сделать ИИ максимально реалистичным. В результате возникает странный конфликт: чем «живее» нейросеть, тем выше шанс, что она начнёт вести себя как худшая версия нас самих.