Алгоритмическая радикализация

Материал из Циклопедии
Перейти к навигации Перейти к поиску

Алгоритмическая радикализация — концепция, согласно которой рекомендательные алгоритмы со временем склоняют пользователей к все более экстремальному контенту, что приводит к формированию у них радикальных, экстремистских политических взглядов.

Это происходит на популярных социальных сетях, таких как YouTube и Facebook. Алгоритмы отслеживают действия пользователей, от отметок «нравится» и «не нравится» до времени, потраченного на публикации, чтобы создать бесконечный поток медиа, предназначенный для удержания внимания пользователей. Через эхо-камеры потребители медиа посредством предпочтений и самоподтверждения становятся более склонными к поляризации[1][2][3][4].

Алгоритмическая радикализация остается спорным явлением, поскольку удаление эхо-камер часто не соответствует интересам компаний социальных сетей[5][6]. Хотя компании социальных сетей признают существование алгоритмической радикализации, неясно, как каждая из них будет справляться с этой растущей угрозой.

Эхо-камеры и фильтрующие пузыри[править]

Социальные сети, изучая интересы и предпочтения пользователя, меняют опыт в их лентах, чтобы удержать их вовлеченными и на платформе. Эхо-камера создается, когда пользователи сталкиваются с убеждениями, которые усиливают или укрепляют их собственные взгляды, и формируют группу единомышленников в закрытой системе[7]. Проблема с эхо-камерами заключается в том, что они распространяют информацию без каких-либо противоречивых убеждений и, как предполагается, могут привести к предвзятости подтверждения. Согласно теории групповой поляризации, эхо-камеры потенциально могут привести пользователей и группы к более экстремальным радикальным позициям[8]. По данным Национальной библиотеки медицины США: «Онлайн-пользователи предпочитают информацию, соответствующую их мировоззрению, игнорируя отличающуюся информацию и создавая поляризованные группы вокруг общих историй. Кроме того, когда поляризация высока, дезинформация распространяется быстро»[9].

Facebook[править]

Алгоритм Facebook в основном фокусируется на рекомендации контента, который побуждает пользователей к взаимодействию. Они ранжируют контент, отдавая предпочтение популярным публикациям от друзей, вирусному контенту и иногда спорному контенту. Каждая лента настраивается в соответствии с конкретными интересами пользователя, и это иногда может привести пользователей в эхо-камеру проблемного контента[10]. Пользователи могут найти список интересов, которые использует алгоритм, перейдя на страницу «Настройки рекламы». Согласно исследованию Pew Research, 74 % пользователей Facebook не знали о существовании этого списка до того, как им указали на эту страницу в исследовании[11]. Facebook также относительно часто назначает политические метки своим пользователям. В 2020-х годах Facebook начал использовать искусственный интеллект для изменения контента, который пользователи видят в своих лентах, и того, что им рекомендуется. Документ, известный как «The Facebook Files», показал, что их система искусственного интеллекта ставит вовлечение пользователей выше всего остального. «The Facebook Files» также доказал, что управление системами искусственного интеллекта является сложной задачей[12].

Обвинения

В 2021 году Facebook признал в утечке внутренней записки от августа 2019 года, что «механика их платформ не является нейтральной»[13][14], заключив, что оптимизация для вовлечения необходима для максимизации прибыли. Было обнаружено, что алгоритмы играют важную роль в применении ненависти, дезинформации и политической деятельности для повышения вовлеченности[15]. Как упоминается в записке, «Чем более зажигателен материал, чем больше он вовлекает пользователей, тем больше алгоритм усиливает его»[13]. Согласно исследованию, проведенному в 2018 году, «ложные слухи распространяются быстрее и шире, чем правдивая информация… Они обнаружили, что ложь на 70 % чаще ретвитят в Twitter и она достигает первых 1500 человек в 6 раз быстрее. Это больше всего заметно в политических новостях, чем в других категориях»[16].

YouTube[править]

YouTube функционирует с 2005 года и имеет более 2,5 миллиарда пользователей в месяц. Системы обнаружения контента YouTube фокусируются на личной активности пользователя (просмотренные, избранное, лайки) для направления пользователя к рекомендуемому контенту. Алгоритм YouTube ответственен за то, что около 70 % пользователей смотрят рекомендованные видео, и за то, что побуждает людей смотреть определённый контент. Согласно исследованию 2023 года, пользователи имеют очень мало возможностей для исключения нежелательных видео из рекомендуемого контента. Сюда входят видео о разжигании ненависти, прямых трансляциях и т. д[17].

Обвинения

YouTube был определён как влиятельная платформа для распространения радикального контента. «Аль-Каида» и подобные экстремистские группы связаны с использованием YouTube для вербовки с помощью видео и для связи с международными СМИ. В исследовании, опубликованном журналом American Behavioral Scientist Journal, они исследовали, «возможно ли определить ряд атрибутов, которые могли бы помочь объяснить часть процесса принятия решений алгоритмом YouTube[18]. Результаты исследования показали, что для экстремистского контента на «YouTube» алгоритм рекомендаций учитывает наличие радикальных ключевых слов в названии видео. В феврале 2023 года в судебном иске Гонсалеса против Google возник вопрос о том, защищена ли компания Google, материнская компания YouTube, от судебных исков, утверждающих, что алгоритмы сайта помогли террористам, рекомендуя пользователям видео, связанные с ИГИЛ. Известно, что раздел 230 в целом защищает онлайн-платформы от гражданской ответственности за контент, размещенный их пользователями[19].

Примечания[править]

  1. What is a Social Media Echo Chamber? | Stan Richards School of Advertising англ.. advertising.utexas.edu. Архивировано из первоисточника 18 октября 2022. Проверено 2 ноября 2022.
  2. The Websites Sustaining Britain's Far-Right Influencers (en-GB). bellingcat (2021-02-24). Архивировано из первоисточника 24 февраля 2021. Проверено 10 марта 2021.
  3. Camargo, Chico Q. YouTube's algorithms might radicalise people – but the real problem is we've no idea how they work англ.. The Conversation (January 21, 2020). Архивировано из первоисточника 8 марта 2021. Проверено 10 марта 2021.
  4. E&T editorial staff Facebook did not act on own evidence of algorithm-driven extremism (en-US). eandt.theiet.org (2020-05-27). Архивировано из первоисточника 2 марта 2021. Проверено 10 марта 2021.
  5. How Can Social Media Firms Tackle Hate Speech? (en-US). Knowledge at Wharton. Архивировано из первоисточника 22 ноября 2022. Проверено 22 ноября 2022.
  6. Internet Association - We Are The Voice Of The Internet Economy. | Internet Association (2021-12-17). Архивировано из первоисточника 17 декабря 2021. Проверено 22 ноября 2022.
  7. What is a Social Media Echo Chamber? | Stan Richards School of Advertising англ.. advertising.utexas.edu. Архивировано из первоисточника 18 октября 2022. Проверено 12 апреля 2023.
  8. (2021-03-02) «The echo chamber effect on social media». Proceedings of the National Academy of Sciences of the United States of America 118 (9): –2023301118. DOI:10.1073/pnas.2023301118. ISSN 0027-8424. PMID 33622786. Bibcode2021PNAS..11823301C.
  9. (January 14, 2021) «The echo chamber effect on social media». Proceedings of the National Academy of Sciences of the United States of America 118 (9): e2023301118. DOI:10.1073/pnas.2023301118. ISSN 0027-8424. PMID 33622786. Bibcode2021PNAS..11823301C.
  10. Oremus, Will. How Facebook shapes your feed, The Washington Post (октябрь 2021 года).
  11. Atske, Sara Facebook Algorithms and Personal Data (en-US). Pew Research Center: Internet, Science & Tech (2019-01-16). Архивировано из первоисточника 12 апреля 2023. Проверено 12 апреля 2023.
  12. Korinek, Anton Why we need a new agency to regulate advanced artificial intelligence: Lessons on AI control from the Facebook Files (en-US). Brookings (2021-12-08). Архивировано из первоисточника 12 апреля 2023. Проверено 12 апреля 2023.
  13. 13,0 13,1 Disinformation, Radicalization, and Algorithmic Amplification: What Steps Can Congress Take? (en-US). Just Security (2022-02-07). Архивировано из первоисточника 7 октября 2022. Проверено 2 ноября 2022.
  14. Isaac, Mike. Facebook Wrestles With the Features It Used to Define Social Networking (en-US), The New York Times (25 октября 2021 года).
  15. Little, Olivia TikTok is prompting users to follow far-right extremist accounts англ.. Media Matters for America (March 26, 2021). Архивировано из первоисточника 7 октября 2022. Проверено 2 ноября 2022.
  16. Study: False news spreads faster than the truth англ.. MIT Sloan. Архивировано из первоисточника 21 ноября 2022. Проверено 2 ноября 2022.
  17. Hated that video? YouTube's algorithm might push you another just like it. англ.. MIT Technology Review. Архивировано из первоисточника 12 апреля 2023. Проверено 11 апреля 2023.
  18. Murthy, Dhiraj (2021-05-01). «Evaluating Platform Accountability: Terrorist Content on YouTube». American Behavioral Scientist 65 (6): 800–824. DOI:10.1177/0002764221989774.
  19. Root, Damon (April 2023). «Scotus Considers Section 230's Scope». Reason 54 (11): 8. ISSN 0048-6906.
Руниверсалис

Одним из источников, использованных при создании данной статьи, является статья из википроекта «Руниверсалис» («Руни», руни.рф) под названием «Алгоритмическая радикализация», расположенная по адресу:

Материал указанной статьи полностью или частично использован в Циклопедии по лицензии CC BY-SA.

Всем участникам Руниверсалиса предлагается прочитать «Обращение к участникам Руниверсалиса» основателя Циклопедии и «Почему Циклопедия?».