Как работают алгоритмы TikTok? Почему это беспокоит экспертов и сотрудников соцсети?

13.12.2021

Как работают алгоритмы TikTok? Почему это беспокоит экспертов и сотрудников соцсети?

Источник: tass.ru @ Анастасия Акулова
Журналисты получили доступ к внутреннему документу соцсети, где довольно подробно объясняется, как работают её алгоритмы. Сотрудник TikTok, передавший этот документ прессе, поддерживает ранее высказанные опасения экспертов о том, что они могут усиливать депрессию у пользователей.

В The New York Times (NYT) вышла статья под названием «Как TikTok читает ваши мысли», основанная на выводах из ознакомления с внутренним документом соцсети. Алгоритмы TikTok нацелены на то, чтобы побудить пользователей оставаться на платформе подольше и почаще возвращаться туда. В общем-то, цели неоригинальны, любая соцсеть продумана таким образом, чтобы получать как можно больше нашего внимания. Недавняя утечка ценна тем, что дает больше информации о том, как устроен один из самых обсуждаемых «черных ящиков» в интернете — пугающе проницательные рекомендательные алгоритмы TikTok. Как конкретно соцсеть решает, какое видео вы посмотрите следующим? Мы собрали главное из статьи NYТ и вспомнили выводы других расследований об алгоритмах TikTok.

Что показала недавняя утечка?

  • TikTok оценивает то, насколько видео будет интересно пользователю, основываясь на четырех показателях: лайки, комментарии, тот факт, было ли воспроизведено видео, время просмотра. Эти показатели суммируются, и каждому видео назначается рейтинг. Пользователи видят в ленте рекомендаций тиктоки, набравшие максимальное количество баллов. Лента рекомендаций — это главная и самая популярная функция TikTok, в ней вам показывают ролики незнакомых пользователей, а не тех, на кого вы подписаны. Благодаря такому устройству вчерашние ноунейм-пользователи могут заработать многотысячную аудиторию одним роликом, залетевшим в рекомендации. Собственно, если вы иногда заходите посидеть в TikTok, то видите именно ленту рекомендаций, а не ленту подписки.
  • Видео назначаются специфические фильтры. Если автор снимает серию роликов на одну тему и ему, чтобы понять один ролик, надо быть в курсе предыдущих, то ему назначают фильтр same_author_seen.
  • Если алгоритм замечает, что пользователю становится скучно в TikTok, то отменяет некоторые фильтры, в результате которых пользователь видит однотипный контент. Чтобы этого не произошло, пользователь периодически видит в ленте «принудительную рекомендацию» — тиктоки на тему, которой он ранее не интересовался.
  • То, насколько автор контента популярен на площадке, то есть как хорошо смотрят его ролики, их качество, частота публикаций и частота возвратов, также влияет на рекомендательные алгоритмы.
  • NYТ сообщает, что модераторы имеют доступ к любому контенту, загруженному на площадку, включая неопубликованные черновики и видео только для друзей — взаимных подписок.
  • По мнению основателя исследовательской группы Algo Transparency Гийома Шасло, которому журналисты NYТ показали внутренний документ TikTok, алгоритмы площадки «скорее пытаются вызвать у пользователей цифровую зависимость, нежели предложить ему то, что он на самом деле хочет». Другой эксперт, профессор Калифорнийского университета в Сан-Диего Джулиан Маколи, говорит, что «точность алгоритмов достигается за счет огромного набора данных и вовлеченности пользователей, а не какой-то магии».

Почему то, как работают алгоритмы TikTok, важно?

У экспертов вызывает беспокойство рекомендательная лента, которая, по некоторым мнениям, загоняет пользователей в «кроличью нору». «Кроличья нора» — это то, куда погружается пользователь сайта, переходя от темы к теме. Феномен изначально стал известен как «черная дыра Википедии». Вы заходите посмотреть биографию актера из нового фильма, оттуда идете читать, где он ещё снимался. Один из фильмов посвящен, скажем, Вьетнамской войне, вот вы уже читаете про войну Вьетнама и США и так далее. TikTok обвиняют в том, что он загоняет в «кроличью нору», но по одной тематике: пользователю присваивают интерес к теме и «варят» его в нем. Алгоритмы TikTok пугающе умны и очень быстро схватывают, что человеку интересно. Один пользователь рассказал, как TikTok догадался о его бисексуальности и стал показывать ему соответствующие видео ещё до того, как он сам определил это для себя. Таким же образом алгоритмы могут загонять в «кроличью нору» с депрессивным контентом. Такой вывод сделали авторы расследования The Wall Street Journal (WSJ).

Действительно TikTok ухудшает психическое здоровье?

Пока TikTok не обвиняли практически ни в чем таком, в чем ранее не обвиняли другие социальные сети. Наверняка у площадки, где можно «вывезти внешностью» и есть сотни фильтров, меняющих лицо до идеала, все впереди. Ранее главным злом для социальных исследователей считался Instagram, популяризирующий «Instagram-внешность» — высокие скулы, пухлые губы, маленький аккуратный нос, длинные ресницы, миндалевидный разрез глаз, гладкую белую кожу. Множество исследований содержат выводы, что Instagram может провоцировать тревогу, депрессию. В 2018 году, по данным Американской ассоциации пластических хирургов, пишет The New Yorker, жители страны потратили $16,5 млрд на операции и уколы красоты, большинство из них — девушки, которые желали приблизить свою внешность к стандартам, популяризированным Ким Кардашьян, Беллой Хадид, Эмили Ратаковски.

В чем ещё уличали TikTok?​​​​​​

В прошлом и позапрошлом годах в результате некоторых утечек стало известно, что модераторы TikTok ограничивали продвижение контента «некрасивых» пользователей, «с лишним весом», физическими недостатками, тех, кто снимает «в бедных интерьерах». На момент, когда журналисты обнаружили это, руководство соцсети заявило, что это старые правила, которые больше не применяются и были созданы, чтобы уберечь пользователей от сетевой травли. Но в утекших внутренних документах такая цель не указывалась.

 

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

КОММЕНТАРИИ

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: