Big Tech wdraża regulacyjny program polityki informacyjnej

Rządy i obserwatorzy z całego świata wielokrotnie wyrażali zaniepokojenie monopolistyczną siłą firm Big Tech oraz rolą, jaką odgrywają one w rozpowszechnianiu dezinformacji. W odpowiedzi na to, firmy z sektora Big Tech próbowały udaremnić regulacje prawne, wdrażając swój program regulacyjny.
Platformy mediów społecznościowych są oparte na ciągłej interakcji, a firmy projektują algorytmy, które określają, które posty ludzie najczęściej oglądają, aby utrzymać zaangażowanie użytkowników.

Badania pokazują, że nieprawda rozprzestrzenia się szybciej niż prawda w mediach społecznościowych często dlatego, że ludzie traktują wiadomości, które wywołują emocje za bardziej angażujące, co zwiększa prawdopodobieństwo, że będą je czytać, reagować na nie i dzielić się nimi. Efekt ten jest wzmacniany przez rekomendacje algorytmów.
Większość platform Big Tech działa bez stróżów i filtrów, które obowiązują w tradycyjnych źródłach wiadomości i informacji. Ich ogromne zasoby drobiazgowych i szczegółowych danych demograficznych dają im możliwość mikrotargetowania określonej liczby użytkowników. To, w połączeniu z algorytmicznym wzmacnianiem treści, mającym na celu zwiększenie zaangażowania, może mieć wiele negatywnych konsekwencji dla społeczeństwa, w tym cyfrowe tłumienie głosów wyborczych, ukierunkowanie na dezinformację i dyskryminacyjne kierowanie reklamami.
Obniżenie priorytetu zaangażowania w rekomendacjach treści powinno zmniejszyć efekt "króliczej nory" w mediach społecznościowych, gdzie ludzie oglądają post za postem, wideo za wideo. Algorytmiczne projektowanie platform Big Tech nadaje priorytet nowym i mikrotargetowanym treściom, co sprzyja niemal niekontrolowanemu rozprzestrzenianiu się dezinformacji.
Firmy technologiczne mogłyby przyjąć system znakowania treści, aby zidentyfikować, czy wiadomość jest zweryfikowana, czy nie. Podczas wyborów Twitter ogłosił politykę uczciwości obywatelskiej, zgodnie z którą tweety oznaczone jako sporne lub wprowadzające w błąd nie będą rekomendowane przez jego algorytmy. Badania pokazują, że etykietowanie działa. Badania sugerują, że oznaczanie etykietami postów z mediów kontrolowanych przez państwo, takich jak rosyjski kanał medialny RT, może złagodzić skutki dezinformacji.

W jednym z eksperymentów badacze zatrudnili anonimowych pracowników tymczasowych do oznaczania wiarygodnych postów. Posty te były następnie wyświetlane na Facebooku z etykietami opatrzonymi adnotacjami pracowników crowdsource'owych. W tym eksperymencie pracownicy z całego spektrum politycznego byli w stanie odróżnić źródła o profilu ogólnoinformacyjnym od skrajnie stronniczych lub fałszywych źródeł, co sugeruje, że użytkownicy często dobrze radzą sobie z odróżnianiem prawdziwych i fałszywych wiadomości.
Firmy technologiczne już stosują takie podejścia. Facebook wykorzystuje kombinację mechanizmów sprawdzania faktów i algorytmów wykrywania podobieństw, aby monitorować dezinformację związaną z COVID-19. Algorytmy te wykrywają duplikaty i zamykają kopie wprowadzających w błąd postów.

Twitter niedawno ogłosił, że uruchamia forum społecznościowe Birdwatch, aby walczyć z dezinformacją. Choć Twitter nie podał szczegółów na temat tego, w jaki sposób będzie to realizowane, mechanizm weryfikacji oparty na publiczności, dodający głosy "w górę" lub "w dół" do trendowych postów i wykorzystujący algorytmy newsfeedu (spływ wiadomości) do obniżania rankingu treści z niewiarygodnych źródeł, mógłby pomóc w ograniczeniu dezinformacji.
Podstawowa idea jest podobna do systemu współtworzenia treści w Wikipedii, gdzie ochotnicy klasyfikują, czy modne posty są prawdziwe czy fałszywe. Wyzwaniem jest uniemożliwienie ludziom głosowania w górę za interesującymi i atrakcyjnymi, ale niezweryfikowanymi treściami, zwłaszcza gdy podejmowane są celowe wysiłki mające na celu manipulowanie głosowaniem.
Innym problemem jest to, jak zmotywować ludzi do dobrowolnego udziału we wspólnym wysiłku, takim jak wspólne wykrywanie fake newsów. Takie wysiłki polegają jednak na ochotniczej weryfikacji poprawności artykułów informacyjnych, podobnie jak w przypadku Wikipedii, a także wymagają udziału zewnętrznych organizacji sprawdzających fakty, które mogą być wykorzystane do wykrycia, czy dana wiadomość nie jest fałszywa.

Model w stylu Wikipedii wymaga jednak solidnych mechanizmów zarządzania społecznością, które zapewnią, że poszczególni wolontariusze będą przestrzegać spójnych wytycznych podczas uwierzytelniania i sprawdzania wpisów. Wikipedia niedawno zaktualizowała swoje standardy społecznościowe specjalnie po to, aby powstrzymać rozprzestrzenianie się dezinformacji. Inna sprawa, czy duże firmy technologiczne dobrowolnie pozwolą na tak przejrzystą weryfikację swojej polityki moderacji treści.
Ostatecznie, firmy z branży mediów społecznościowych mogłyby zastosować kombinację zmiany priorytetów zaangażowania, współpracy z organizacjami informacyjnymi, sztuczną inteligencją i wykrywaniem dezinformacji przez użytkowników. Jest mało prawdopodobne, aby te starania były podejmowane w oderwaniu od siebie i będą musiały być zaprojektowane tak, aby działać razem.
Skoordynowane działania prowadzone przez media społecznościowe mogą zakłócić funkcjonowanie społeczeństwa, od rynków finansowych po politykę. Platformy technologiczne odgrywają niezwykle dużą rolę w kształtowaniu opinii publicznej, co oznacza, że ponoszą odpowiedzialność wobec społeczeństwa za skuteczne administrowanie własnymi zasobami.