Предоставление пользователям социальных сетей возможности оценивать контент помогает бороться с дезинформацией

  • Пользователь Алексей Коровин опубликовал
  • 23 декабря 2022 г., 13:51:32 MSK
  • 0 комментариев
  • 57 просмотров
Исследователи создали прототип платформы социальных сетей для изучения эффектов предоставления пользователям большей свободы действий для оценки контента на предмет точности и контроля за публикациями, которые они видят, на основе оценок точности от других. Пользователи смогли проводить точные оценки, несмотря на отсутствие предварительной подготовки, и они оценили и использовали разработанные ими инструменты оценки и фильтрации.

Борясь с распространением дезинформации, платформы социальных сетей обычно помещают большинство пользователей на пассажирское сиденье. Платформы часто используют алгоритмы машинного обучения или человеческие средства проверки фактов, чтобы помечать ложный или дезинформирующий контент для пользователей.

"То, что таков статус-кво, не означает, что это правильный или единственный способ сделать это", - говорит Фарназ Джаханбахш, аспирант Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL).

Она и ее коллеги провели исследование, в котором вместо этого передали эту власть в руки пользователей социальных сетей.

Сначала они опросили людей, чтобы узнать, как они избегают или фильтруют дезинформацию в социальных сетях. Используя свои выводы, исследователи разработали прототип платформы, которая позволяет пользователям оценивать точность контента, указывать, каким пользователям они доверяют оценивать точность, и фильтровать сообщения, появляющиеся в их ленте, на основе этих оценок.

В ходе полевого исследования они обнаружили, что пользователи способны эффективно оценивать дезинформирующие сообщения без какой-либо предварительной подготовки. Кроме того, пользователи оценили возможность оценивать публикации и просматривать оценки структурированным образом. Исследователи также увидели, что участники по-разному использовали фильтры контента - например, некоторые блокировали весь дезинформирующий контент, в то время как другие использовали фильтры для поиска таких статей.

Эта работа показывает, что децентрализованный подход к модерации может привести к повышению надежности контента в социальных сетях, говорит Джаханбахш. Этот подход также более эффективен и масштабируем, чем централизованные схемы модерации, и может понравиться пользователям, которые не доверяют платформам, добавляет она.


"Многие исследования дезинформации предполагают, что пользователи не могут решить, что является правдой, а что нет, и поэтому мы должны им помочь. Мы этого вообще не видели. Мы увидели, что люди действительно внимательно относятся к контенту, а также пытаются помочь друг другу. Но эти усилия в настоящее время не поддерживаются платформами", - говорит она.

Джаханбахш написал статью вместе с Эми Чжан, доцентом Школы компьютерных наук и инженерии Университета Вашингтона Аллена; и старшим автором Дэвидом Каргером, профессором компьютерных наук в CSAIL. Исследование будет представлено на конференции ACM по совместной работе с компьютерной поддержкой и социальным вычислениям.

Борьба с дезинформацией

Распространение дезинформации в Интернете является широко распространенной проблемой. Однако современные методы, используемые платформами социальных сетей для маркировки или удаления дезинформирующего контента, имеют и недостатки. Например, когда платформы используют алгоритмы или средства проверки фактов для оценки сообщений, это может создать напряженность среди пользователей, которые, помимо прочего, интерпретируют эти усилия как посягательство на свободу слова.

"Иногда пользователи хотят, чтобы дезинформация появлялась в их ленте, потому что они хотят знать, чему подвергаются их друзья или семья, чтобы они знали, когда и как поговорить с ними об этом", - добавляет Джаханбахш.

Пользователи часто пытаются самостоятельно оценить и пометить дезинформацию, и они пытаются помочь друг другу, прося друзей и экспертов помочь им разобраться в том, что они читают. Но эти усилия могут иметь неприятные последствия, потому что они не поддерживаются платформами. Пользователь может оставить комментарий к вводящему в заблуждение сообщению или отреагировать сердитым смайликом, но большинство платформ считают эти действия признаками вовлеченности. На Facebook, например, это может означать, что дезинформирующий контент будет показан большему количеству людей, включая друзей и подписчиков пользователя - полная противоположность тому, чего хотел этот пользователь.

Чтобы преодолеть эти проблемы и подводные камни, исследователи стремились создать платформу, которая дает пользователям возможность предоставлять и просматривать структурированные оценки точности сообщений, указывать других, которым они доверяют оценивать сообщения, и использовать фильтры для управления контентом, отображаемым в их ленте. В конечном счете, цель исследователей состоит в том, чтобы облегчить пользователям помощь друг другу в оценке дезинформации в социальных сетях, что снижает нагрузку на всех.

Исследователи начали с опроса 192 человек, набранных с помощью Facebook и списка рассылки, чтобы выяснить, оценят ли пользователи эти функции. Опрос показал, что пользователи очень хорошо осведомлены о дезинформации и пытаются отслеживать ее и сообщать о ней, но опасаются, что их оценки могут быть неверно истолкованы. Они скептически относятся к усилиям платформ по оценке контента для них. И, хотя им хотелось бы, чтобы фильтры блокировали ненадежный контент, они не стали бы доверять фильтрам, управляемым платформой.

Используя эти идеи, исследователи создали прототип платформы, похожей на Facebook, под названием Trustnet. В Trustnet пользователи публикуют и делятся актуальными, полными новостными статьями и могут подписываться друг на друга, чтобы видеть контент, который публикуют другие. Но прежде чем пользователь сможет опубликовать какой-либо контент в Trustnet, он должен оценить этот контент как точный или неточный или запросить его достоверность, которая будет видна другим.

"Причина, по которой люди делятся дезинформацией, обычно заключается не в том, что они не знают, что правда, а что ложь. Скорее всего, во время обмена их внимание неверно направлено на другие вещи. Если вы попросите их оценить контент, прежде чем делиться им, это поможет им быть более разборчивыми", - говорит она.

Пользователи также могут выбирать доверенных лиц, оценки контента которых они будут видеть. Они делают это частным образом, на случай, если они подписаны на кого-то, с кем они связаны в социальном плане (возможно, друга или члена семьи), но кому они не доверили бы оценивать контент. Платформа также предлагает фильтры, которые позволяют пользователям настраивать свою ленту на основе того, как и кем были оценены публикации.

Тестирование сети доверия

Как только прототип был завершен, они провели исследование, в ходе которого 14 человек пользовались платформой в течение одной недели. Исследователи обнаружили, что пользователи могут эффективно оценивать контент, часто основываясь на опыте, источнике контента или оценивая логику статьи, несмотря на отсутствие обучения. Они также могли использовать фильтры для управления своими каналами, хотя они использовали фильтры по-разному.

"Даже в такой небольшой выборке было интересно увидеть, что не все хотели читать свои новости одинаково. Иногда люди хотели размещать дезинформирующие посты в своих лентах, потому что видели в этом выгоду. Это указывает на тот факт, что это агентство сейчас отсутствует на платформах социальных сетей, и его следует вернуть пользователям", - говорит она.

Пользователям иногда было трудно оценить контент, когда он содержал несколько утверждений, некоторые из которых были правдивыми, а некоторые ложными, или если заголовок и статья были разрозненными. Это показывает необходимость предоставить пользователям больше вариантов оценки - возможно, заявив, что статья правдива, но вводит в заблуждение, или что она содержит политический уклон, говорит она.

Поскольку пользователям Trustnet иногда было трудно оценить статьи, содержание которых не соответствовало заголовку, Джаханбахш запустил еще один исследовательский проект по созданию расширения для браузера, которое позволяет пользователям изменять заголовки новостей, чтобы они больше соответствовали содержанию статьи.

Хотя эти результаты показывают, что пользователи могут играть более активную роль в борьбе с дезинформацией, Джаханбахш предупреждает, что предоставление пользователям такой возможности не является панацеей. Во-первых, такой подход может создать ситуации, когда пользователи видят информацию только из источников единомышленников. Однако, по ее словам, фильтры и структурированные оценки могут быть перенастроены, чтобы помочь смягчить эту проблему.

В дополнение к изучению усовершенствований Trustnet, Джаханбахш хочет изучить методы, которые могли бы побудить людей читать оценки контента от тех, у кого разные точки зрения, возможно, с помощью геймификации. И поскольку платформы социальных сетей могут неохотно вносить изменения, она также разрабатывает методы, которые позволяют пользователям публиковать и просматривать оценки контента с помощью обычного просмотра веб-страниц, а не на платформе.

Эта работа была частично поддержана Национальным научным фондом.

Комментарии

0 комментариев