Интернет-магазин MagazinWeb

Предвзятость и стереотипы от первого лица в ChatGPT проверены в новом исследовании OpenAI

Основываясь на исследовании, OpenAI заявила, что вероятность создания ChatGPT вредного стереотипа составляет около 0,1 процента.

ChatGPT First-Person Bias and Stereotypes Tested in a New OpenAI Study

OpenAI утверждает, что ChatGPT не генерирует никаких гендерных стереотипов пользователи Реклама <стр>ChatGPT, как и другие чат-боты на основе искусственного интеллекта (ИИ), может вносить предвзятость и вредные стереотипы при создании контента. В основном компании сосредоточились на устранении предвзятости от третьего лица, когда ищут информацию о других. Однако в новом исследовании, опубликованном OpenAI, компания протестировала предвзятость своих моделей ИИ от первого лица, где ИИ решал, что генерировать, на основе этнической принадлежности, пола и расы пользователя. Основываясь на исследовании, фирма ИИ утверждает, что ChatGPT имеет очень низкую склонность к созданию предвзятости от первого лица.

OpenAI публикует исследование предвзятости от первого лица в ChatGPT

Предвзятость от первого лица отличается от дезинформации от третьего лица. Например, если пользователь спрашивает о политической фигуре или знаменитости, а модель ИИ генерирует текст со стереотипами на основе пола или этнической принадлежности человека, это можно назвать предвзятостью от третьего лица.

С другой стороны, если пользователь сообщает ИИ свое имя, а чат-бот меняет способ ответа пользователю на основе расовых или гендерных предпочтений, это будет представлять собой предвзятость от первого лица. Например, если женщина спрашивает ИИ об идее для канала YouTube и рекомендует канал, основанный на кулинарии или макияже, это можно считать предвзятостью от первого лица.

В сообщении в блоге OpenAI подробно описала свое исследование и выделила выводы. AI-компания использовала версии ChatGPT-4o и ChatGPT 3.5 для изучения того, генерируют ли чат-боты предвзятый контент на основе имен и дополнительной информации, предоставленной им. Компания заявила, что ответы моделей AI в миллионах реальных разговоров были проанализированы, чтобы найти любую закономерность, которая демонстрировала бы такие тенденции.

ChatGPT First-Person Bias and Stereotypes Tested in a New OpenAI Study

 

Затем большой набор данных был передан помощнику по исследованию языковой модели (LMRA), настраиваемой модели ИИ, разработанной для обнаружения шаблонов стереотипов и предубеждений от первого лица, а также оценщикам-людям. Консолидированный результат был создан на основе того, насколько близко LMRA может согласиться с выводами людей-оценщиков.

OpenAI утверждает, что исследование показало, что предубеждения, связанные с полом, расой или этнической принадлежностью в новых моделях ИИ, составляли всего 0,1 процента, тогда как для старых моделей в некоторых областях предубеждения составляли около 1 процента.

  • Теперь вы можете использовать приложение ChatGPT на своих устройствах Windows
  • Meta для тестирования модели генерации фильмов с использованием ИИ, партнеры Blumhouse из Голливуда
  • Вице-президент Microsoft по исследованиям генеративного ИИ присоединяется OpenAI

Компания ИИ также перечислила ограничения исследования, указав, что оно в первую очередь сосредоточено на англоязычных взаимодействиях и бинарных гендерных ассоциациях на основе распространенных в США имен. Исследование также в основном сосредоточено на чернокожих, азиатских, латиноамериканских и белых расах и этнических группах. OpenAI признала, что необходимо провести больше работы с другими демографическими данными, языками и культурными контекстами.