Перейти к основному содержимому
Новости

ИИ не так уж и нейтрален, как кажется

Фото 1 из 1

Исследование Center for AI Safety показало, что многие языковые модели имеют скрытые предвзятости — по расе, полу, национальности и даже к отдельным личностям.

Например, GPT-4 чаще «симпатизирует» пользователям из Нигерии, Индии и Китая, чем из США или Европы, а в тестах на «ценность личности» выше всего ставит Бейонсе, Сандерса и Опру — и заметно ниже Трампа, Хилтон и Путина.

Особенно тревожно, что Claude Sonnet и GPT-5 системно занижали оценки белых людей и западных стран — что исследователи назвали признаком внутренней ценностной иерархии моделей.

⭐ Хорошие новости: Grok 4 Fast — единственная модель без предвзятостей и искажений. Объективная, сбалансированная и без лишней цензуры. Попробуйте модель бесплатно в Нейроне, а подключив Премиум, вы получите доступ к рассуждающей версии модели для работы с самыми сложными задачами.

Попробуйте прямо сейчас и убедитесь в этом сами!

#AI#ChatGPT#Anthropic#безопасность
ИИ не так уж и нейтрален, как кажется | Neiron