Согласно анализу американской правозащитной группы GLAAD, крупные компании социальных сетей делают недостаточно для защиты пользователей ЛГБТ+ потребителей своей продукции.
Речь идет о злоупотреблении полной свободой выражения публичного мнения, особенно, если мы говорим о ксенофобии и различных формах гомофобных высказываний. Без преследований и подставных свиданий также не обходится, что естественно не делает жизнь квир сообщества легче.
В исследовании были проанализированы пять ведущих платформ — Instagram, Twitter, Facebook, YouTube и TikTok, — каждая из перечисленных были оценены, как принимающие недостаточные меры по поддержке и защите пользователей ЛГБТ+ сообщества. Каждая площадка набрала менее 50 баллов из 100 возможных.
“Платформы и компании социальных сетей ставят прибыль выше безопасности квир людей”, — сказала Сара Кейт Эллис, президент GLAAD, подводя итоги аналитики по безопасности социальных сетей.
У всех рассмотренных компаний из списка есть политика предотвращения дискриминационных действий и высказываний. Платформы заявили, что они постоянно пересматривают правила и развивают свои стратегии для удаления вредоносного контента.
Что же было обнаружено в отчете и как соцсети могут наилучшим образом защитить своих пользователей от вредоносного контента?
Была проанализирована работа перечисленных выше платформ в 12 областях, от обязательств по защите ЛГБТ+ пользователей от дискриминации. До важных деталей самоопределения, где соцсети предлагают пользователям выбирать варианты местоимений и быть уверенными в безопасности данных об их сексуальности, которые собираются и используются для внутренней статистики и работы платформ.
В отчете говорится, что у всех пяти компаний есть политика, которая защищает пользователей от дискриминационных действий на основе их пола и сексуальной идентичности, но настоящая их реализация по факту отсутствует.
Было обнаружено, что модерация контента была неадекватной на всех пяти платформах, при этом автоматизированные системы не могли перехватить все случаи, а модераторы-люди иногда реагировали медленно.
Платформы заявили, что они постоянно работают над разработкой и улучшением своих систем борьбы с различными формами дискриминации.
В отчете также была выражена обеспокоенность по поводу отсутствия выстроенной политики в отношении обращений к трансгендерам по их прежним именам, существовавшим до перехода. В разговорной форме подобные имена еще называют “мертвые имена”.
Для трансгендерных людей обращение по их прежним именам, это острая форма дискриминации, которая нарушает их комфортное эмоциональное состояние. При этом гомофобно настроенные пользователи допускают подобные выходки время от времени и соцсети на это практически не реагируют. Из пяти платформ только TikTok и Twitter имеют специально запрещающие “мертвые имена” или намеренное обращение к людям не того пола, говорится в отчете GLAAD.
Как соцсети влияют на квир людей?
Согласно исследованию 2019 года, ЛГБТ+ молодежь проводили в интернете в среднем больше времени, чем их гетеросексуальные сверстники. Исследователи обнаружили, что они обращаются к соцсетям, чтобы подробнее исследовать свою идентичность и общаться с близкими по духу людьми.
Четверо из десяти взрослых ЛГБТ+ людей не чувствуют себя желанными гостями и в безопасности, находясь в соцсетях. GLAAD также отметили, что ненависть в интернете подпитывают физические и моральные домогательства в реальной жизни. А дезинформация о квир сообществе способствует росту гомофобных законов во многих штатах США. Например, закон штата Флорида, который в народе прозвали “Не говори слово “гей””.
Писательница и активистка движения за права трансгендеров, Кристин Бернс, заявила, что заблокировала более 6000 пользователей Twitter за гомофобную риторику и оскорбления в сторону трансгендеров.
“Это может быть плохой новостью для всех нас, но…это слишком большое количество шума, для такой небольшой группы людей”
Помогает ли искусственный интеллект в модерации соцсетей?
Большинство компаний, занимающихся социальными сетями, по крайней мере частично полагаются на автоматизированные системы и системы, управляемые искусственным интеллектом, для выявления контента, который является оскорбительным или иным образом нарушает их правила.
Поскольку сотни миллионов пользователей ежедневно заходят на платформы, автоматизированные системы могут собирать огромные массивы данных, чтобы быстро выявлять ксенофобию и гомофобию по отношению к разным социальным группам.
“Модерация контента с помощью искусственного интеллекта может сильно помочь в ускорении процесса принятия окончательных решений человеком”, — сказал Абдулвхаб Альхараши, исследователь компьютерных наук из Университета Глазго.
Однако некоторые пользователи нашли способы обойти системы искусственного интеллекта.
“Например, если вы говорите что-то по-настоящему радостным тоном, и все это о любви, а затем добавляете что-то оскорбительное в свои сообщения, ИИ может пропустить это мимо. У него есть некоторые проблемы с сарказмом, впрочем, как и у людей”, — сказала Эффи Пол, экспертка по социальным сетям.
Искусственный интеллект пока что может выявлять только стандартизированные и прямолинейные оскорбления, распознавая образцы речи или смайлики на основе машинного обучения.
“Эту систему можно обмануть или обойти, используя сложные синонимы или символы, которые будут обозначать очень тонкий сленг. Люди бесконечно гибки и изобретательны в использовании языка, в то время как компьютеры полагаются на механически четкий анализ сообщений. Это означает, что ИИ пока не способен поспеть за человечеством в нашем искусстве использования тонкостей языка”, — сказал Дэвид Берри, профессор цифровых гуманитарных наук в Университете Сассекса.
И все же, как решить проблему дискриминации в соцсетях?
В отчете говорится, что все платформы обязаны проработать и улучшить структуру алгоритмов, чтобы предотвратить распространение дискриминационного контента. Также стоит много работать над политикой безопасности каждой из соцсетей и обучать сотрудников модераторов больше понимать потребности пользователей ЛГБТ+ сообщества.
GLAAD также дали конкретные рекомендации для каждой из пяти проанализированных платформ, призвав Instagram, Facebook и YouTube принять политику, защищающую пользователей от целенаправленных нецензурных слов и стигматизирующих сообщений.
А что на это отвечают сами соцсети?
Twitter, YouTube и TikTok — все они постоянно работают с GLAAD над улучшением своих платформ по отношению к разным социальным группам людей и дали несколько комментариев специально для отчета.
1. Twitter заявил, что внедрил функции, помогающие защитить пользователей от необдуманных сообщений. То есть предоставили возможность сохранять черновики и редактировать их для финальной публикации. В том числе добавили функцию, позволяющую пользователям удалять свои никнеймы из разговоров с другими людьми для более безопасного формата общения.
“Несмотря на то, что мы добились недавних успехов в предоставлении людям большего контроля над своей безопасностью, мы знаем, что еще многое предстоит сделать”, — сказал представитель компании.
2. TikTok заявил, что платформа стремится к тому, чтобы их политика была справедливой и равноправной. Они постоянно предпринимают шаги по усилению защиты квир людей и других уязвимых социально сообществ.
“Площадка стремится поддерживать и предоставляет возможность открыто высказываться представителям ЛГБТ+ сообщества. Мы прилагаем все усилия, чтобы создать инклюзивную среду для процветания ЛГБТ+ людей”, — заявил представитель компании.
3. Представители YouTube отметили, что компания добилась значительного прогресса в своей способности быстро удалять ненавистный и оскорбительный контент.
Facebook и Instagram, оба из которых принадлежат Meta Platforms, не ответили на запросы GLAAD о комментариях по данным отчета. В сентябре 2021 года Facebook заявили, что с 2016 года потратили более 13 миллиардов долларов на меры безопасности.