Jakub Dymek: Gorsi od robotów?

Ludzie w większym stopniu przyczynili się do popularności fałszywych informacji niż boty.

fot. reo.pl

W 2013 roku dwójka badaczy z MIT – Massachusetts Institute of Technology – pilnie śledziło, jak tysiące innych bostończyków i dziesiątki milionów Amerykanów, zamach bombowy na bostoński maraton i dramatyczne wydarzenia po tragedii. Ich uwagę zwróciło to, że podstawowym źródłem informacji stał się serwis Twitter, którego niewątpliwą zaletą było to, że użytkownicy dzielili się wiedzą na bieżąco. Zarazem jednak nikt nijak nie weryfikował – bo i jak? – czy tysiące i miliony tweetów w dniu zamachu mają jakiekolwiek oparcie w faktach. A może przeciwnie, służą celowo rozprowadzanej przez kogoś dezinfromacji czy panice? Nietrudno sobie przecież to wyobrazić: jeśli celem zorganizowanej siatki terrorystycznej czy bojówki jest zasianie strachu, to współcześnie najlepszym kanałem do tego są właśnie media społecznościowe.

Naukowcy – jeden z nich pracował wówczas również dla Twittera – zaczęli się zastanawiać nad modelem badawczym, który pozwoliłby w zrozumiały sposób zmierzyć i oszacować relatywną popularność nieprawdziwych informacji i to, jak się rozchodzą za pomocą platformy. Zespół – ostatecznie w trzyosobowym składzie – zaczął konsultować metodologię i po ponad czterech latach od oryginalnego pomysłu Sinan Aral, Deb Roy i Soroush Vosoughi opublikowali wyniki badań w amerykańskim Science.

jeśli celem zorganizowanej siatki terrorystycznej czy bojówki jest zasianie strachu, to współcześnie najlepszym kanałem do tego są właśnie media społecznościowe.

Tekst jest interesujący z kilku powodów, ale pierwsza zaleta badań wynika z banalnego faktu: pomysł na ich przeprowadzanie i zakres czasowy, jakim zajmują się w nim naukowcy, uprzedził globalną panikę na temat fejk niusów, która wybuchła w połowie 2016 roku. – Zajęcie się popularnością fałszywych wiadomości w mediach społecznościowych i zaangażowanie do badania nowych, zaawansowanych algorytmów – na długo zanim prawdziwość informacji w sieci była globalnym tematem – to był jeden z najlepszych pomysłów, jaki usłyszałem w ciągu ostatnich paru lat – tłumaczył Sinan Aral w wywiadzie.

Aral, Roy i Vosoughi zaczęli pracę z materiałem źródłowym, na który składało się ponad 120 tysięcy doniesień medialnych – zbadanych przez sześć odrębnych stron fact-checkingowych – które przez ostatnią dekadę udostępnili, komentowali i podawali dalej użytkownicy Twittera. Dzięki analizie słów kluczy, emotikon i odnośników do materiałów źródłowych badacze przyporządkowali do tych 120 tysięcy newsów 4,5 miliona reakcji na Twitterze z trzech milionów różnych kont. Ponieważ każdy materiał źródłowy – news, plotka, doniesienie czy wypowiedź polityka – były już uprzednio zaklasyfikowane przez niezależne od badaczy zespoły fact-checkerów jako prawdziwe, częściowo prawdziwe lub fałszywe, naukowcy prześledzili wyłącznie, co dzieje się z materiałami z każdej z tych trzech kategorii, jakie wywołują reakcje i jakie są ich dalsze losy w odmętach platformy społecznościowej. A potem porównali wyniki i – jak sami przyznają – wpadli w osłupienie.

Fałszywe wiadomości mają 70% większą szansę na retweet, a czas dotarcia do 1500 użytkowników jest sześciokrotnie mniejszy dla fejk niż autentycznego newsa.

Jaką wiedzę przynosi artykuł naukowców z MIT? Fałsz rozchodzi się szybciej, dalej, głębiej i szerzej niż prawda we wszystkich kategoriach informacji, a wskazania są bardziej wyraźne w przypadku fałszywych wiadomości z dziedziny polityki niż informacji dotyczących terroryzmu, katastrof naturalnych, legend miejskich czy wiadomości finansowych – ogłosili w podsumowaniu. Fałszywe wiadomości mają 70% większą szansę na retweet, a czas dotarcia do 1500 użytkowników jest sześciokrotnie mniejszy dla fejk niż autentycznego newsa. Fałszywkami dzielono się szerzej wśród użytkowników niezależnie od tego, czy były to arcypopularne historie czy pogłoski, które cieszyły się dużo mniejszym zainteresowaniem.

Aral, Roy i Vosoughi postanowili też sprawdzić, czy wpływ na te tendencje ma aktywność botów i doszli do wniosku… że nie.

Analizę przeprowadzono w dwóch wariantach: najpierw z badanego zbioru usunięto wszystkie konta, które zostały zidentyfikowane jako fałszywe, prowadzone przez automaty dokładnie w celu rozprowadzania konkretnych treści. Potem, w wariancie numer dwa, do zbioru dodano na powrót te konta. – Gdy dodaliśmy ruch wygenerowany przez boty do naszej pierwotnej analizy, stwierdziliśmy, że żadna z naszych głównych konkluzji nie została podważona – fałszywe informacje wciąż szerzyły się szybciej. […] Wyniki pozostały bez zmian także gdy usunęliśmy wszystkie wątki [na Twitterze] zainicjowane przez boty. […] Udział botów co prawda przyspieszał szerzenie się zarówno fałszywych, jak i prawdziwych informacji, ale wpływ na ich zasięg był porównywalny dla obu tych kategorii.

Wniosek: to ludzie – ich poznawcze uprzedzenia i pogoń za nowością – a nie boty i fałszywe konta w największym stopniu odpowiadają za lawinową popularność fałszywych wiadomości.

Przy tym jednak należy pamiętać że, nawet imponujące badanie ilościowe nie może być traktowane jako źródło ostatecznych odpowiedzi. Najbardziej wyrafinowany model statystyczny nie wyjaśni całej mozaiki ludzkich motywacji, odruchów i przyzwyczajeń, które warunkują naszą relację z mediami i wpływają na taką nie inną dietę informacyjną. Aktualnie spożywamy niebezpiecznie dużo śmieci, ale nie jest to sytuacja historycznie wyjątkowa – nawet jeśli ze słusznych powodów niepokoi badaczy i obserwatorki.

Wniosek: to ludzie, a nie boty i fałszywe konta, w największym stopniu odpowiadają za lawinową popularność fałszywych wiadomości.

Ta ludzka strona badań naukowców z MIT stanowi przecież zaledwie (i aż) osadzone w bardzo konkretnej metodologii badań potwierdzenie intuicji, jakie od dawna miały antropolożki, medioznawcy, dziennikarze. Zdroworozsądkowo patrząc, nie od wczoraj mamy słuszne podstawy, aby podejrzewać, że sensacyjne, zmyślone i obrazoburcze treści – nie tylko w internecie – wywołają większe zaciekawienie i mocniejszą reakcję niż czasem nudna, a czasem nieprzyjemna prawda.

Najciekawsze – i zarazem najbardziej frustrujące – jest w tym zaś to, że infrastruktura informacyjna oparta na wolnej i nieskrępowanej wymianie informacji w sieci, która miała służyć budowie bardziej otwartego, poinformowanego i wykształconego społeczeństwa, już dawno wynaturzyła się i dziś stanowi często zaprzeczenie tego ideału. Jak można zresztą było spodziewać się, że system który wynagradza po równo wszystkie reakcje – także więc oburzenie, niesmak, złość – jak Twitter, posłuży czemuś innemu? Dotychczas jedynym hakerem, któremu udało się przełamać ten trend, jest Janusz Piechociński, ale pan wicepremier stanowi wyjątek, nie regułę.

Platformy społecznościowe stawiają prawdę na przegranej pozycji – pisała już w 2016 roku redaktor naczelna Guardiana”Katherine Viner. Nic dodać, nic ująć.

ZOSTAW ODPOWIEDŹ

Please enter your comment!
Please enter your name here