[ad_1]
Он начинается с суперраспространителя и проходит через сеть взаимодействий, в конечном итоге никого не оставив равнодушным. Те, кто подвергался воздействию ранее, могут испытывать только легкие эффекты.
Нет, это не вирус. Это заразное распространение дезинформации и дезинформации — дезинформации, полностью предназначенной для обмана.
Исследователи из Университета Тафтса разработали компьютерную модель, которая замечательно отражает то, как дезинформация распространяется в реальной жизни. Исследователи говорят, что работа может дать представление о том, как защитить людей от нынешнего распространения дезинформации, которая угрожает общественному здоровью и здоровью демократии.
«Наше общество борется с широко распространенными убеждениями в заговорах, усилением политической поляризации и недоверием к научным открытиям», — сказал Николас Рэбб, доктор философии. студент компьютерных наук в Инженерной школе Тафтса и ведущий автор исследования, опубликованного 7 января в журнале Публичная научная библиотека ONE. «Эта модель может помочь нам понять, как распространяются дезинформация и теории заговора, чтобы разработать стратегии противодействия им».
Ученые, изучающие распространение информации, часто берут пример с эпидемиологов, моделируя распространение ложных представлений о том, как болезнь распространяется через социальную сеть. Большинство этих моделей, однако, рассматривают людей в сетях так, как будто все они одинаково принимают любые новые убеждения, передаваемые им через контакты.
Вместо этого исследователи Тафтса основывали свою модель на представлении о том, что наши ранее существовавшие убеждения могут сильно влиять на то, принимаем ли мы новую информацию. Многие люди отвергают фактическую информацию, подкрепленную доказательствами, если она уводит их слишком далеко от того, во что они уже верят. Медицинские работники прокомментировали силу этого эффекта, заметив, что некоторые пациенты, умирающие от COVID, цепляются за веру в то, что COVID не существует.
Чтобы учесть это в своей модели, исследователи присвоили «веру» каждому человеку в искусственной социальной сети. Для этого исследователи представили убеждения людей в компьютерной модели числом от 0 до 6, где 0 означает сильное недоверие, а 6 — сильное убеждение. Цифры могут представлять спектр убеждений по любому вопросу.
Например, можно подумать, что цифра 0 представляет сильное неверие в то, что вакцины против COVID помогают и безопасны, а цифра 6 может означать твердую веру в то, что вакцины против COVID на самом деле безопасны и эффективны.
Затем модель создает обширную сеть виртуальных лиц, а также виртуальные институциональные источники, которые генерируют большую часть информации, которая каскадно проходит через сеть. В реальной жизни это могут быть средства массовой информации, церкви, правительства и влиятельные лица в социальных сетях — в основном суперраспространители информации.
Модель начинается с институционального источника, вводящего информацию в сеть. Если человек получает информацию, близкую к его убеждениям, например, 5 по сравнению с текущими 6, у него больше шансов обновить это убеждение до 5. Если поступающая информация сильно отличается от его нынешних убеждений, скажите 2. по сравнению с 6 — они, скорее всего, полностью отвергнут его и будут придерживаться своего убеждения 6-го уровня.
Другие факторы, такие как доля их контактов, которые посылают им информацию (в основном, давление сверстников) или уровень доверия к источнику, могут влиять на то, как люди обновляют свои убеждения. Затем сетевая модель этих взаимодействий для всего населения обеспечивает активное представление о распространении и стойкости дезинформации.
Будущие улучшения модели будут учитывать новые знания как из науки о сетях, так и из психологии, а также сравнение результатов модели с реальными опросами общественного мнения и сетевыми структурами с течением времени.
В то время как текущая модель предполагает, что убеждения могут меняться только постепенно, можно смоделировать и другие сценарии, вызывающие более значительный сдвиг в убеждениях — например, скачок с 3 до 6, который может произойти, когда с влиятельным лицом происходит драматическое событие, и он умоляет своих последователи, чтобы изменить свое мнение.
Со временем компьютерная модель может стать более сложной, чтобы точно отражать то, что происходит на земле, говорят исследователи, в число которых помимо Рэбба входит его научный руководитель Ленор Коуэн, профессор компьютерных наук; ученый-компьютерщик Матиас Шойц; и Дж. П. де Руитер, профессор психологии и компьютерных наук.
«Становится слишком ясно, что простого распространения фактической информации может быть недостаточно, чтобы повлиять на общественное мнение, особенно среди тех, кто заперт в системе убеждений, не основанной на фактах». — сказал Коуэн. «Наша первоначальная попытка включить это понимание в наши модели механики распространения дезинформации в обществе может научить нас, как вернуть публичный разговор к фактам и доказательствам».
Связанный
[ad_2]
Source