Генералы ментальных войн: Почему алгоритмы YouTube в России могут подвергнуть цензуре
نشرت 15 11, 2022 مؤلف CEO
Как депутаты намерены отрегулировать алгоритмы рекомендательных интернет-сервисов, соцсетей и других площадок.
Иллюзорное зомбирование и фейки
Пропаганда видеохостинга YouTube действует на неподготовленного пользователя Сети как галлюциноген и стимулятор одновременно, и у российской власти пока нет аргументов, чтобы ответить на этот тотальный прессинг. Медиамашина Запада готова искалечить любого, неважно, ребёнок это или больной человек, что и показывают последние ЧП в регионах.
Проанализировав за последние дни сообщения о двух важных для российского общества событиях, Лига безопасного интернета выявила в Сети 4,2 миллиона фейков о частичной мобилизации в России и порядка двух миллионов о референдумах по присоединению к России Луганской и Донецкой народных республик, Херсонской и Запорожской областей, отмечает директор лиги, член Общественной палаты (ОП) РФ Екатерина Мизулина.
По её словам, площадка YouTube занимает второе место после телеграм-каналов, где экстремистский контент и фейки распространяются в неимоверных количествах. И цели у этих манипуляций далеко не маркетинговые, а политические. И с такой атакой давно пора что-то делать.
Как алгоритмы YouTube игнорируют пожелания пользователей
О психологической обработке аудитории говорят исследования и тестирования сервиса видеохостинга рядом компаний. Команда Mozilla решила исследовать YouTube и изучила работу его алгоритмов. Выяснилось, что система выдачи в лучшем случае показывает пользователю ролики, половина которых ему неинтересна. Тестируя кнопки "Не нравится", "Не интересует", "Не рекомендовать видео с этого канала", специалисты пришли к выводу, что как минимум в каждом втором показе пожелания пользователя не срабатывают либо он вообще практически не чувствует эффекта.
Кнопка "Не нравится" влияла на результаты в выдаче в 12% случаев, а "Не интересует" — в 11%, "Не рекомендовать видео с этого канала" и "Удалить из истории просмотра" оказались чуть эффективнее — 43 и 29% соответственно. В YouTube раскритиковали исследование Mozilla, подчеркнув, что оно не учитывает, как на самом деле работают алгоритмы. Однако никаких объяснений IT-гигант не предоставил.
Недавно аспирант Швейцарского федерального технологического института Мануэль Рибейро опубликовал работу, в которой он и его соавторы отслеживали, как пользователи YouTube подвергались радикализации под влиянием крайне правого контента на онлайн-платформе. Исследователи просматривали комментарии, чтобы отследить, на какие каналы переходили пользователи, и выяснили, что ничего не подозревающих людей заманивали на каналы сторонников радикальных идей с помощью инфлюенсеров.
В России есть приложение для детей, чтобы просматривать YouTube, которое ограничивает контент видеохостинга. То есть подобные варианты уместны для учебных заведений, однако пользоваться популярностью будут вряд ли, полагает генеральный директор агентства разведывательных технологий "Р-Техно" Роман Ромачев.
— У меня есть несколько закрытых видео, которые можно посмотреть, только распространяя ссылку, то есть они не видны через поиск. В последнее время у меня участились удаления подобного видеоконтента, который, по мнению видеохостинга, может не соответствовать его политике, хотя эти видео, повторюсь, закрыты. Поэтому даже если сделать некую оболочку, которая будет фильтровать выдачу контента, то YouTube пойдёт дальше и будет по-прежнему блокировать любой загруженный видеоконтент. Проблема в загрузке контента, а не только в том, какие рекомендации выдаёт система, — считает Роман Ромачев.
Новый закон для алгоритмов
В России активно разрабатывается законопроект о работе рекомендательных алгоритмов. Его автор — депутат ГД РФ, зампред Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин — считает, что американские власти фактически признали, что выстроили систему, напрямую влияющую на работу рекомендательных алгоритмов соцсетей. По мнению Горелкина, искусственный интеллект действительно определяет посты, которые могут понравиться пользователю, однако у администрации всегда есть возможность повлиять на эту выдачу.
Политик обратил внимание на термин algorithmic anxiety, что можно перевести как алгоритмическая тревожность. Его всё чаще используют на Западе, называя психологическое состояние, которое провоцируют рекомендательные алгоритмы. Когда человек начинает испытывать раздражение, беспокойство и даже тревогу от рекомендаций и не понимает, как они формируются и как от них избавиться. Этот феномен подробно описан в статье The Age of Algorithmic Anxiety в The New Yorker.
— В попытках повлиять на алгоритм людям приходится теперь совершать какие-то неочевидные действия вроде проматывания ненужных постов, отказа от желания поставить лайк или написать комментарий. А кто-то просто переходит на те сервисы, которые практикуют отказ от рекомендательных алгоритмов, — объясняет Горелкин.
Вред, который наносят обществу рекомендательные алгоритмы (вернее, их непрозрачное применение), с каждым днём становится всё более очевидным. Суть регулирования в том, чтобы сделать работу рекомендательных сервисов прозрачной для общества.
— Никто сейчас не понимает, как это работает. Почему шестилетнему ребёнку вдруг показывают острое политическое шоу? — задаётся вопросом парламентарий.
— Непрозрачные алгоритмы рекомендательных сервисов несут риски. Очевидно, регуляторика будет двигаться в сторону прозрачности. Тот же YouTube предлагает нам просто поверить ему на слово. В эпоху информационной войны необходимо, чтобы эта отрасль работала по правилам, чтобы человек мог отключить все рекомендации и понимал, как они работают. Почему пессимизируются альтернативные позиции и продвигается лишь точка зрения американского правительства? Алгоритмы помогают разгонять фейковую информацию. Таких кейсов много, — говорит Горелкин. По его словам, скоро этот закон после длительных обсуждений с профильной индустрией будет внесён в Госдуму.
Источник: life.ru/p/1527268