Основываясь на исследовании, OpenAI заявила, что вероятность создания ChatGPT вредного стереотипа составляет около 0,1 процента.
OpenAI публикует исследование предвзятости от первого лица в ChatGPT
Предвзятость от первого лица отличается от дезинформации от третьего лица. Например, если пользователь спрашивает о политической фигуре или знаменитости, а модель ИИ генерирует текст со стереотипами на основе пола или этнической принадлежности человека, это можно назвать предвзятостью от третьего лица.
С другой стороны, если пользователь сообщает ИИ свое имя, а чат-бот меняет способ ответа пользователю на основе расовых или гендерных предпочтений, это будет представлять собой предвзятость от первого лица. Например, если женщина спрашивает ИИ об идее для канала YouTube и рекомендует канал, основанный на кулинарии или макияже, это можно считать предвзятостью от первого лица.
В сообщении в блоге OpenAI подробно описала свое исследование и выделила выводы. AI-компания использовала версии ChatGPT-4o и ChatGPT 3.5 для изучения того, генерируют ли чат-боты предвзятый контент на основе имен и дополнительной информации, предоставленной им. Компания заявила, что ответы моделей AI в миллионах реальных разговоров были проанализированы, чтобы найти любую закономерность, которая демонстрировала бы такие тенденции.
Затем большой набор данных был передан помощнику по исследованию языковой модели (LMRA), настраиваемой модели ИИ, разработанной для обнаружения шаблонов стереотипов и предубеждений от первого лица, а также оценщикам-людям. Консолидированный результат был создан на основе того, насколько близко LMRA может согласиться с выводами людей-оценщиков.
OpenAI утверждает, что исследование показало, что предубеждения, связанные с полом, расой или этнической принадлежностью в новых моделях ИИ, составляли всего 0,1 процента, тогда как для старых моделей в некоторых областях предубеждения составляли около 1 процента.
- Теперь вы можете использовать приложение ChatGPT на своих устройствах Windows
- Meta для тестирования модели генерации фильмов с использованием ИИ, партнеры Blumhouse из Голливуда
- Вице-президент Microsoft по исследованиям генеративного ИИ присоединяется OpenAI
Компания ИИ также перечислила ограничения исследования, указав, что оно в первую очередь сосредоточено на англоязычных взаимодействиях и бинарных гендерных ассоциациях на основе распространенных в США имен. Исследование также в основном сосредоточено на чернокожих, азиатских, латиноамериканских и белых расах и этнических группах. OpenAI признала, что необходимо провести больше работы с другими демографическими данными, языками и культурными контекстами.