Nauka dla Społeczeństwa

28.04.2024
PL EN
25.09.2023 aktualizacja 25.09.2023

Badanie: Facebook nie jest w stanie kontrolować dezinformacji

Fot. Adobe Stock Fot. Adobe Stock

Polityka Facebooka, której celem było zwalczanie dezinformacji związanej ze szczepieniami przeciwko COVID-19, była nieskuteczna. Wysiłki platformy zostały zniwelowane przez samą jej architekturę - ustalili badacze.

Z powodu gwałtownego nasilenia się problemu dezinformacji w czasie pandemii COVID-19 wiele platform internetowych ogłosiło zasady i praktyki mające na celu zwalczanie tego zjawiska. Badacze z George Washington University postanowili sprawdzić, czy wysiłki te przyniosły oczekiwany skutek. Okazało się, że w przypadku Facebooka tak się nie stało, a powodem była sama architektura platformy.

„Obecnie dużą uwagę poświęca się platformom mediów społecznościowych i zarządzaniu sztuczną inteligencją. Jednak cały czas dyskusja koncentruje się głównie na treści lub algorytmach - mówi prof. David Broniatowski, główny autor badania, które ukazało się w czasopiśmie „Science Advances” (http://dx.doi.org/10.1126/sciadv.adh2132). - Aby skutecznie walczyć z dezinformacją i innymi szkodliwymi zjawiskami w internecie, musimy wyjść poza te elementy i skupić się również na projekcie i architekturze”.

„Nasze wyniki pokazały, że usuwanie niepożądanych treści czy opracowanie algorytmów mogą być zupełnie nieskuteczne, jeśli nie zmieni się tego, do czego została zaprojektowana dana platforma. Facebook stworzono po to, by umożliwiał członkom społeczności nawiązywanie kontaktów w oparciu o wspólne zainteresowania. Jeśli jest nimi chęć uchylania się od szczepień, oni także się odnajdują i nawiązują współpracę” - dodaje naukowiec.

Aby platforma mogła realizować swój główny cel, jakim jest budowanie społeczności wokół pewnych zagadnień, wyposażono ją w kilka kluczowych elementów architektonicznych. Są to m.in. fanpage promujące marki i znane osoby oraz grupy powstające wokół pewnych tematów. Członkowie takich społeczności mogą wymieniać między sobą informacje - nie tylko te jawne; przekazują sobie również wiedzę na temat tego, jak uzyskać dostęp do różnych treści, np. dezinformacji, poza platformą. Administratorzy grup mogą następnie skorzystać z algorytmów kanału aktualności Facebooka, aby ułatwiać zamieszczanym na ich profilach wpisom docieranie do tych, którzy chcą je zobaczyć.

Zespół prof. Broniatowskiego odkrył, że chociaż Facebook dołożył znacznych starań, aby usunąć wiele antyszczepionkowych treści podczas pandemii COVID-19, to ogólne zaangażowanie w tego typu tematy nie spadło, a wręcz wzrosło w porównaniu do wcześniejszych tendencji.

„Odkrycie, że ludzie tak samo intensywnie angażowali się w szerzenie dezinformacji o szczepionkach przed i po szeroko zakrojonych działaniach Facebooka w zakresie usuwania takich rzeczy, jest niezwykle niepokojące. Pokazuje, jak trudne będzie dla nas jako społeczeństwa usuwanie dezinformacji na temat zdrowia z przestrzeni publicznej” – podkreśla współautorka badania prof. Lorien Abroms.

Dezinformacyjne treści, których liczba znacznie wzrosła mimo nowej polityki Facebooka, to przede wszystkim linki do zewnętrznych witryn o niskiej wiarygodności oraz do niszowych, słabiej kontrolowanych, platform mediów społecznościowych, takich jak Gab i Rumble. Także same antyszczepionkowe wpisy na Facebooku stały się - co ustalili badacze - bardziej, a nie mniej, dezinformacyjne.

Naukowcy twierdzą, że doszło również do „szkód ubocznych” - w wyniku zaostrzenia przepisów dotyczących treści związanych ze szczepieniami mogło zostać usuniętych wiele wpisów proszczepionkowych, popartych dowodami naukowymi.

Wyliczono też, że twórcy treści antyszczepionkowych korzystali z platformy skuteczniej niż twórcy treści proszczepionkowych - częściej i bardziej regularnie zamieszczali wpisy na należących do nich stronach, grupach i tablicach użytkowników.

Autorzy publikacji podkreślają, że nieskuteczna polityka zwalczania niepopartych dowodami treści antyszczepionkowych w główniej mierze wynika z samej architektury, w oparciu o którą stworzono Facebooka.

Broniatowski uważa, że twórcy silników, w oparciu o które działają platformy mediów społecznościowych, powinni podjąć wspólne kroki na rzecz opracowania swoistego kodeksu zasad, opartych na dowodach naukowych. Tylko takie działanie ma szanse ograniczyć dezinformację w internecie.

„Architekci budynków muszą równoważyć cele projektowe ze zgodnością z wytycznymi dotyczącymi ochrony użytkowników – wyjaśnia naukowiec. - Projekt musi wspierać bezpieczeństwo publiczne poprzez zgodność z przepisami dotyczącymi pożarów, powodzi, zanieczyszczeń, trzęsień ziemi. Osiąga się to dzięki różnym ważnym elementom konstrukcyjnym, takim jak dobrze oznakowane, łatwo dostępne wejścia i wyjścia, które pozwalają na ucieczkę w razie zbiorowej paniki, ataków terrorystycznych itp. Budynki uwzględniają także odpowiednie przepisy związane z instalacjami wodno-kanalizacyjnymi, sanitarnymi i wentylacyjnymi oraz tymi lokalne rozporządzenia dotyczące hałasu. Zasady te są zwykle opracowywane w ramach partnerstwa pomiędzy przemysłem, rządem i organizacjami społecznymi, a także opierają się na solidnej wiedzy naukowej i praktyce”. Jego zdaniem takie samo postępowanie konieczne jest w przypadku platform mediów społecznościowych.

Specjaliści podkreślają, że omawiane badanie jest pierwszą i jedyną na razie naukową oceną skuteczności prób blokowania dezinformacji i siejących ją kont, podejmowanych przez największą na świecie platformę mediów społecznościowych.

Nauka w Polsce, Katarzyna Czechowicz

kap/ agt/

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

Copyright © Fundacja PAP 2024