Интернет-магазин MagazinWeb

Алгоритмы социальных сетей настраивают мужчин против нас?

Are social media algorithms turning men against us?

Новый документальный фильм BBC Panorama предполагает, что мужчинам и мальчикам навязывают жестокий и женоненавистнический контент – без намеренного поиска или взаимодействия с ним.

Эта функция ссылается на графические изображения насилия и смерти.

Когда Элли*, руководитель социальных сетей из Лондона, просматривала свои личные аккаунты в социальных сетях сегодня утром, она не заметила ничего необычного. Ее лента состоит из «создателей моды и рекламы моды/одежды, рецептов и рекомендаций по питанию в Лондоне, мемов об отношениях и комедийных сценок, левой политики и истории чернокожих».

Но когда ее партнер, Роб*, инженер, заходит в социальные сети, это уже другая история. Он описывает, как видел «графический контент с травмами людей», включая людей, которых сбили или которым отрубили пальцы. Особенно плохо обстоят дела на канале X, где он регулярно видит кадры, на которых, как ему кажется, убивают людей. «Люди с вывалившимися кишками… людей расстреливают», — объясняет он. Порнография, включая видео, на которых заключённые, по-видимому, занимаются сексом с охранниками, также регулярно встречается в его ленте «For You».

Роб — не единственный мужчина, которого бомбардируют таким экстремальным контентом. Новый BBC PanoramaДокументальный фильм предполагает, что мужчины и мальчики подвергаются насилию и мизогинному контенту в Instagram и TikTok — без намеренного поиска или взаимодействия с ним.

BBC Panorama поговорила с Каем, которому сейчас 18 лет, о его опыте с этим тревожным контентом в социальных сетях. Он говорит, что это появилось «из ниоткуда», когда ему было 16: видео людей, сбиваемых машинами, инфлюенсеры, произносящие мизогинные речи, и жестокие драки.

Это происходит на фоне растущих опасений, что мальчики и молодые люди подвергаются радикализации в Интернете со стороны «мизогинных инфлюенсеров», таких как Эндрю Тейт. Одно дело, когда мальчики активно взаимодействуют с жестоким и женоненавистническим контентом, но на что надеяться, если их подталкивают к этому их собственные алгоритмы социальных сетей?

Давайте отмотаем на секунду назад. Что такоеАлгоритмы социальных сетей и как они работают? «Алгоритмы социальных сетей определяют, какой контент вы видите в своей ленте, анализируя ваше поведение и взаимодействия на платформе. Они собирают данные о том, что вам нравится, чем вы делитесь и что комментируете, на кого вы подписаны и как долго вы просматриваете контент. Эти данные помогают алгоритму ранжировать контент на основе вероятности того, что он вас заинтересует», — объясняет доктор Швета Сингх, доцент Университета Уорика.

По сути, ваш алгоритм социальных сетей должен направлять вас к контенту, который вы фактически хотите видеть, основываясь на контенте, с которым вы ранее взаимодействовали. Итак, теория гласит, что когда кто-то «лайкает» или смотрит жестокий или женоненавистнический контент, его алгоритм социальных сетей реагирует соответствующим образом — часто направляя пользователей к более экстремальному контенту, чтобы поддерживать интерес пользователя.

Доктор Брит Дэвидсон, доцент кафедры аналитики Института цифрового поведения и безопасности Школы менеджмента Университета Бата, объясняет: «Любая группа, которая может подвергаться дискриминации, может быть еще больше маргинализирована в Интернете, поскольку эти предубеждения, обнаруженные в данных и поведении пользователей, по сути, усиливают алгоритмы».

«Это может создавать самовоспроизводящиеся эхо-камеры, в которых пользователи подвергаются воздействию большего количества контента, который укрепляет и развивает их убеждения. Например, тот, кто взаимодействует с контентом «пикаперов» (PUA) (контент, созданный, чтобы помочь мужчинам «снимать» женщин, известный своей женоненавистничеством и манипуляцией), может продолжать просматривать женоненавистнический контент и даже подвергаться воздействию крайне женоненавистнического контента, такого как группы принудительного воздержания, «инцелы», что может привести к опасному поведению как в сети, так и за ее пределами. <стр>Но эта теория опирается на мужчин и молодых мальчиков, которые в первую очередь активно ищут или взаимодействуют с этим контентом — то, что многие из них отрицают.

Возможно, проблема заключается не в том, как алгоритмы работают, а в том, как они создаются. Я спрашиваю доктора Дэвидсона, возможно ли, чтобы мужчины и мальчики получали женоненавистнический контент через алгоритм социальных сетей — даже если они раньше не взаимодействовали с таким контентом.

«Теоретически это возможно», — объясняет доктор Дэвидсон. «Однако это зависит от того, как был построен и обучен сам алгоритм. Проблема в том, что эти алгоритмы и то, как они работают, не прозрачны, поэтому трудно сказать, как контент продвигается (или нет).”

«Если алгоритм должен полагаться на демографические данные аудитории, — продолжает она, — вполне вероятно, что контент будет предлагаться отдельным лицам на основе поведения других людей со схожими демографическими данными (например, мужчины в возрасте от 16 до 25 лет и т. д.). Имея это в виду, если этим похожим пользователям понравился определенный тип контента, то он может быть передан другим, которые ранее не взаимодействовали с этим контентом».

Если алгоритм нацеливает контент на одного мужчину на основе того, с чем взаимодействовали другие мужчины его возраста, легко увидеть, как женоненавистнический и жестокий контент может быть им навязан.

Однако доктор Дэвидсон предупреждает, что это сложная проблема, которую «трудно диагностировать из-за отсутствия прозрачности в отношении того, как работают эти алгоритмы (например, как они явно программируются и обучаются?), а также отсутствия прозрачности в отношении используемых пользовательских данных, что особенно важно, если рассматривать крупные корпорации, которые имеют доступ к данным с нескольких платформ».

Эта концепция рассматривается в документальном фильме BBC Panorama. Эндрю Куанг, который ранее работал аналитиком по безопасности пользователей в TikTok, рассказал, как он заметил, что девочки-подростки и мальчики смотрят совершенно разный контент: в то время как 16-летней девочке могут рекомендовать «поп-певцов, песни и макияж», подростку может быть рекомендован «контент с ножами, поножовщиной… иногда сексуальный контент».

Когда люди впервые регистрируются в TikTok, у них есть возможность указать некоторые из своих интересов, исходя из того, какой контент они хотели бы видеть в приложении. Хотя TikTok утверждает, что алгоритмы не подстраиваются под пользователей, пол, Куанг говорит, что эти предпочтения в любом случае группируют их по половому признаку — и что подростки могут столкнуться с жестоким контентом «сразу», если другие пользователи-подростки с похожими предпочтениями проявят интерес к этому типу контента.

В документальном фильме сообщается, что TikTok заявил: «40 000 сотрудников службы безопасности работают вместе с инновационными технологиями, и в этом году компания планирует инвестировать в безопасность более 2 миллиардов долларов».

TikTok заявил (через BBC Panorama), что он «не использует пол для рекомендации контента, имеет настройки для подростков, чтобы блокировать контент, который может быть неподходящим, и устанавливать 60-минутные ограничения по времени, а также не допускает крайнего насилия или женоненавистничество».

Meta, которой принадлежат Instagram и Facebook, утверждает, что у нее есть более «50 различных инструментов, ресурсов и функций», чтобы дать подросткам «позитивный и соответствующий возрасту опыт».

Мы знаем, что гендерные различия в алгоритмах социальных сетей могут еще больше отдалить мужчин и женщин. Элли размышляет: «Когда Роб показывает мне странное видео, на котором мужчину разрезает пополам машина, или женщина-охранница занимается сексом с заключенным, я не чувствую ничего, кроме благодарности за то, что мой алгоритм защищает меня от большого количества грустного, мерзкого и уродливого контента, распространяемого в сети».

Элли говорит, что этот графический контент «сделал» ее партнера «десенсибилизированным» к тому виду насилия, к которому она, как женщина, «чрезвычайно чувствительна». Роб соглашается, отмечая, что контент заставляет его чувствовать себя «мерзко», прежде чем добавить, что теперь он «довольно невосприимчив» к нему.

Доктор Брит Дэвидсон подчеркивает необходимость дополнительных исследований того, как алгоритмы адаптируют контент для мужчин и женщин. «Эта сложная динамика поведения пользователей и платформ создает пробелы и неравенство, которые создают социальную и этическую ответственность, которую платформы социальных сетей должны решать», — объясняет она.

«Сюда входят вопросы, связанные с потребностью в большем количестве женщин и представителей всех полов в сфере технологий, проектированием для инклюзивности, тем, как курировать и данными, чтобы минимизировать дискриминацию и предвзятость — ни один из которых не является простым».

*Имена были изменены.

В ответ на BBC Panorama TikTok заявляет, что использует «инновационные технологии» и предоставляет «лидирующие в отрасли» настройки безопасности и конфиденциальности для подростков, включая системы для блокировки контента, который может быть неприемлемым, и что он не допускает крайнего насилия или женоненавистничество.

Meta, которой принадлежат Instagram и Facebook, утверждает, что у нее есть более «50 различных инструментов, ресурсов и функций», чтобы дать подросткам «позитивный и соответствующий возрасту опыт».

Чтобы узнать больше о Люси Морган из Glamour UK, подпишитесь на нее в Instagram @lucyalexxandra.