Facebook сохраняет Вас в политическом пузыре?

facebook

Facebook делает его тяжелее для либералов и консерваторов для обхождений? В течение многих лет политологи задавались вопросом, подает ли служба рассылки новостей сети социальных связей выборочно идеологически наполненные новости при отфильтровывании содержания от противоположных политических лагерей.

Теперь, исследование внутренних социологов Facebook находит, что это действительно происходит, хотя результат является очень маленьким.Исследователи называют его пузырем фильтра: персонализированное представление Интернета создается через технические алгоритмы компании. Когда Вы сделаете поиск на Google, например, результаты, которые Вы возвращаете, будут отличаться в зависимости от того, что компания знает о Вас.

По большей части та фильтрация полезна — геологи и музыканты получают совсем другие результаты поиска для «типов камня», например. Но некоторые результаты пузырей фильтра могут быть менее мягкими, такой как тогда, когда онлайновым покупателям предлагают различные цены на основе данных, собранных о них без их ведома или согласия.Исследовательская группа Facebook, сосредоточенная на проблеме политической поляризации, спрашивая, сколько их внесенного алгоритма службы рассылки новостей.

Несмотря на то, что посты, завивающиеся вдоль службы рассылки новостей места, могут походить на прямую трансляцию от Ваших друзей, компания использует алгоритм, чтобы отфильтровать и оценить те посты, прежде чем они достигнут Вас. И тот алгоритм постоянно развивается. Это раньше связывалось к, «любит» и щелкает, но после обширного исследования в области того, как отловить более глубокие интересы людей, алгоритм щипнули для ранжирования содержания «счетом уместности».

Этот счет — связанный с «человеком», которого говорят разработчики, отсутствовал ранее — определяет то, что пользователи в конечном счете видят в их службах рассылки новостей. Например, вирусный пост о восхитительных котятах может генерировать много из, любит, но потому что люди становятся утомленными от этого вида clickbait, это теперь имеет более низкий счет уместности.Но даже если алгоритм приводит к более приятному опыту для пользователей Facebook, они могли бы терпеть неудачу на больше, чем просто милых фотографиях кошки.

Например, либералы и консерваторы могут редко узнавать о проблемах, касающихся другой стороны просто, потому что те проблемы никогда не превращают ее в свои службы рассылки новостей. В течение долгого времени это могло вызвать политическую поляризацию, потому что люди не выставлены темам и идеям от противоположного лагеря.

Не было трудно определить, кем либералы и консерваторы были для исследования: Люди могут объявить свое политическое присоединение на их профилях Facebook. Бригада нанесла на карту те политические организации к идеологическому масштабу на 5 пунктов — от –2 для очень консервативного к +2 для очень либерального — на основе данных об обзоре.

После ограничения популяции американским взрослым, регистрирующимся по крайней мере за 4 дня в неделю, у исследователей было чуть более чем 10 миллионов испытуемых. Для содержания они сосредоточились на новостях.Определение политического аромата того содержания было более хитрым. Вместо того, чтобы пытаться измерить политический уклон новостей на основе семантического анализа, бригада использовала намного более целесообразный метод: «политическое выравнивание» каждой истории было определено средним политическим выравниванием всех пользователей, отправивших по почте ссылку на ту историю.

Например, политический счет выравнивания средней истории в Нью-Йорк Таймс вошел в –0.62 (несколько либеральный), тогда как средняя история Fox News была +0.78 (несколько консервативна). Истории, имевшие значение для этого исследования, были «поперечными сокращающимися», новостными статьями с либеральным уклоном, появляющимся в службе рассылки новостей консервативного человека или наоборот.

Вооруженный всеми этими метриками, исследователи произвели подсчеты для каждого газетного сообщения — и те, которые закончили на службах рассылки новостей людей и тех, которые были отфильтрованы алгоритмом — между 2011 и 2012.Путем сравнения двух групп историй исследователи нашли, что алгоритм службы рассылки новостей Facebook действительно создает результат камеры эха.

Но это не столь сильно, как критики боялись. Алгоритм сделал его только на 1% менее вероятно для пользователей, чтобы быть выставленным политическому поперечному сокращению историй, сообщает бригада онлайн сегодня в Науке. «Сила выставить себя перспективам с другой стороны в социальных медиа заключается прежде всего с людьми», бригада завершает.

Результаты, «конечно, хороши относительно проблем пузыря фильтра», говорит Синэн Арал, политолог в Массачусетском технологическом институте в Кембридже, «но я не уверен, что ‘Мы не должны быть взволнованы’, история». Например, исследование не изменяет нахождение 3 года назад, что Facebook создает «сильный уклон пасения» в том, как люди голосуют, говорит он.

Таким образом по вопросу о том, является ли Facebook силой в беде и радости для демократии, Арал говорит, «жюри все еще отсутствует».


Блог Александрии