Расследования
Репортажи
Аналитика
  • USD78.96
  • EUR90.97
  • OIL62.49
Поддержите нас English
  • 1495
Новости

Алгоритмы персонализации контента внушают людям уверенность в наличии у них знаний, которыми они не обладают — исследование

Исследователи из Университета Вандербильта и Университета штата Огайо выяснили, что алгоритмы персонализации контента — например, те, которые подбирают для пользователя видео на YouTube или посты в соцсетях — могут серьезно навредить способности людей учиться новому. Эксперимент показал: когда алгоритм отбирает информацию «под конкретного человека», он начинает изучать мир однобоко, но при этом чувствует себя экспертом даже в тех областях, о которых почти ничего не знает. Результаты опубликованы в журнале Journal of Experimental Psychology: General.

В эксперименте участникам предложили изучить восемь категорий вымышленных инопланетян, каждый из которых обладал шестью признаками — формой, цветом, яркостью и так далее. Одни испытуемые видели все категории равномерно, другие получали информацию через алгоритм персонализации, который подстраивался под их выбор. Оказалось, что «персонализированные» участники сосредоточились всего на двух-трех категориях из восьми, игнорируя остальные. При этом они исследовали меньше признаков инопланетян — в среднем три из шести вместо почти всех.

Когда после обучения участников попросили классифицировать новых инопланетян, группа, информация для которой проходила персонализацию, допустила гораздо больше ошибок. Более того, они часто неправильно относили существ к тем категориям, которых вообще не видели во время обучения. Вместо того чтобы колебаться, люди уверенно применяли свои ограниченные знания к незнакомым случаям.

Авторы исследования подчеркивают: проблема состоит не в том, что люди сами выбирают, что изучать (контрольная группа с полной свободой выбора училась хорошо), а в том, что алгоритм незаметно ограничивает разнообразие информации. Участники, которые сами решали, каких инопланетян изучать, продолжали исследовать все шесть признаков равномерно. Но стоило алгоритму начать «помогать» — и люди быстро сужали фокус внимания, даже не осознавая этого.

Таким образом, пишут исследователи, персонализация контента может не только создавать «информационные пузыри» в политике и новостях, но и фундаментально искажать процесс познания мира, делая людей одновременно менее информированными и более самоуверенными. Они подчеркивают, что когда алгоритмы решают, что показывать человеку, он рискует попасть в ловушку ограниченного понимания, которое само себя усиливает.

Ранее голландская служба защиты данных (AP) заявила, что AI-чат-боты «ненадежны и явно предвзяты» при предоставлении рекомендаций по голосованию, предупредив о такой угрозе для демократии за восемь дней до национальных выборов, которые состоялись в октябре. Четыре протестированных ведомством чат-бота «часто предлагают одни и те же две партии, независимо от вопроса или запроса пользователя».

Подпишитесь на нашу рассылку

К сожалению, браузер, которым вы пользуйтесь, устарел и не позволяет корректно отображать сайт. Пожалуйста, установите любой из современных браузеров, например:

Google Chrome Firefox Safari