Bezpieczeństwo kognitywne
– jak wyjść z chaosu informacyjnego

Wyczyszczenie platform społecznościowych z dezinformacji nie jest realne. Nie oznacza to wszakże, że jesteśmy bezradni, bo – korzystając z prawa unijnego – możemy dość skutecznie wpłynąć na algorytmy wielkich platform. Wymaga to jednak woli politycznej i odwagi.

TEKST/

ILUSTRACJE/ TYMEK JEZIERSKI

REDAKCJA/ WOJCIECH SZACKI

0
Ilustracja

Wyczyszczenie platform społecznościowych z dezinformacji nie jest realne. Nie oznacza to wszakże, że jesteśmy bezradni, bo – korzystając z prawa unijnego – możemy dość skutecznie wpłynąć na algorytmy wielkich platform. Wymaga to jednak woli politycznej i odwagi.

W internecie zawsze były, są i będą treści różnej jakości – od wybitnego dziennikarstwa po intencjonalnie dezinformujące clickbaity oraz wszystko pomiędzy tymi biegunami. Na ile to typ medium wpływa na to, w jakim tempie i jak szeroko rozchodzi się dezinformacja? Według raportu Naukowej i Akademickiej Sieci Komputerowej (NASK) z grudnia 2024 r. głównym źródłem dezinformacji stały się media społecznościowe i komunikatory (szczególnie kontrolowane przez Meta WhatsApp i Messenger). Podobne odczucia mają użytkownicy: w badaniu UNESCO/IPSOS z 2023 r. aż 68 proc. ankietowanych stwierdziło, że media społecznościowe to miejsce, w którym dezinformacji jest najwięcej.

Doświadczenia ostatniej dekady pokazują, że nie jesteśmy w stanie skutecznie wykrywać i neutralizować kampanii dezinformacyjnych w tempie, w jakim działają sieci społecznościowe i komunikatory, nawet przy założeniu najlepszych intencji właścicieli tych kanałów i pełnego zaangażowania instytucji takich jak polska NASK.

Co więcej, w mocno spolaryzowanych społeczeństwach każda odpowiedź na dezinformację o charakterze politycznym niesie ze sobą ryzyko eskalacji. W świecie szybkich mediów elektronicznych nie ma już powszechnie uznawanych arbitrów prawdy i fałszu. Każda ze stron sporu ma swoje racje i swoich mędrców. Ta dynamika sprawia, że media społecznościowe są szczególnie podatne na wykorzystanie w wojnie kognitywnej.

W tych warunkach Świętym Graalem wcale nie jest już moderacja treści. Czas się pogodzić z tym, że wyczyszczenie platform społecznościowych z dezinformacji nie jest realne. Nie oznacza to jednak, że jesteśmy bezradni wobec aktorów rozgrywających polityczne i społeczne konflikty w mediach społecznościowych.

Możemy dość skutecznie przeciwdziałać rozpowszechnianiu i wzmacnianiu polaryzujących narracji, wpływając na logikę systemów rekomendacyjnych wielkich platform. Skoro o tym, jakie treści i w jakim tempie rozchodzą się po sieciach społecznościowych, decydują algorytmy kontrolowane przez właścicieli owych platform, wiemy przynajmniej, pod jaki adres powinien zapukać polski lub europejski regulator tego rynku. Pytanie tylko, czy się na to odważy.

Mark Zuckerberg, Jeff Bezos, Sundar Pichai oraz Elon Musk uczestniczą w inauguracji Donalda Trumpa na kolejnego Prezydenta Stanów Zjednocznonych, Waszyngton, 20 stycznia 2025 r. Pool/ABACA/Abaca Press/Forum
Świętym Graalem wcale nie jest już moderacja treści. Czas się pogodzić z tym, że wyczyszczenie platform społecznościowych z dezinformacji nie jest realne. Nie oznacza to jednak, że jesteśmy bezradni wobec aktorów rozgrywających polityczne i społeczne konflikty w mediach społecznościowych.

W sferze komunikacji społecznej potrzebujemy przywództwa i odważnej strategii, identycznie jak w sferze militarnej, bo ta sama wojna rozgrywa się z użyciem sieci społecznościowych i algorytmów sztucznej inteligencji. A ekosystem mediów elektronicznych nie naprawi się sam. Twierdzę, że można go naprawić dzięki zdecydowanym ruchom europejskiego regulatora i przemyślanym inwestycjom.

Algorytmy lubią skrajności

Wielkie platformy społecznościowe stały się infrastrukturą krytyczną dla dystrybucji wiedzy i politycznej mobilizacji. Trudno mówić o cyfrowej suwerenności i odporności na dezinformację, jeśli prywatna firma – czy to działając w interesie akcjonariuszy, czy ulegając presji obcego rządu – może za pomocą algorytmów sztucznej inteligencji manipulować debatą publiczną i wpływać na procesy demokratyczne.

W obecnej sytuacji geopolitycznej globalne firmy technologiczne, nawet gdyby chciały, nie mogą pozostać neutralne wobec rywalizacji chińsko-amerykańskiej i agresywnych działań Rosji. Tym samym pozostałe państwa nie mogą dłużej udawać, że opierając się na infrastrukturze kontrolowanej przez chińskich czy amerykańskich dostawców, nie podejmują decyzji o wymiarze politycznym. Odkąd szefowie firm z Doliny Krzemowej dołączyli do obozu Donalda Trumpa – licząc na jego protekcję w starciu z europejskim regulatorem – ta technologiczna zależność stała się tematem publicznym.

Mark Zuckerberg tuż po inauguracji nowego prezydenta oświadczył, że jego firma będzie zabiegała o ochronę przed unijnymi regulacjami, odnosząc się do Digital Services Act i Digital Markets Act. Na efekty tych zabiegów nie musieliśmy długo czekać. Egzekwowanie europejskich regulacji od amerykańskich platform stało się przedmiotem negocjacji na równi z wysokością ceł i podatków. W sierpniu Trump kolejny raz przekroczył Rubikon, grożąc sankcjami już nie państwom, lecz konkretnym urzędnikom odpowiedzialnym za egzekwowanie prawa od amerykańskich firm. O ile retoryczne ataki Elona Muska na urzędników na platformie „X” można zbyć ciętą ripostą, o tyle groźby prezydenta zasługują na reakcję dyplomatyczną. Sojusz amerykańskiej administracji i firm technologicznych to wyzwanie rzucone Unii Europejskiej i polskiej racji stanu.

Drugim ważnym powodem, by domagać się od amerykańskich platform stosowania europejskich standardów, jest ich model biznesowy oraz społeczne koszty tego modelu. Podobnie jak ryzyko technologicznej zależności, nie jest to temat nowy, ale otwarte zaangażowanie wielkich platform w wojnę kognitywną uczyniło go bardziej palącym. Już w 2018 r. Zuckerberg, ogłaszając kolejną zmianę w działaniu algorytmu Facebooka, przyznał, że model generowania zysku, na jakim opierają się „darmowe” media społecznościowe, ma wady: „Jednym z największych problemów, przed którymi stoją sieci społecznościowe, jest to, że w naturalny sposób ludzi angażują treści sensacyjne i prowokacyjne. (…) W skali makro może to podważyć jakość dyskursu publicznego i prowadzić do polaryzacji. (…) Nasze badania sugerują, że bez względu na to, gdzie wyznaczymy granice tego, co jest dozwolone na platformie, im bardziej dana treść zbliża się do tej granicy, tym bardziej ludzie będą się nią interesować”.

Pomimo tej wiedzy wszystkie platformy społecznościowe finansowane z przychodów reklamowych tak optymalizują swoje systemy rekomendacyjne, by zwiększać krótkoterminowe zaangażowanie użytkowników. Jednocześnie, projektując algorytmy odpowiedzialne za automatyczną moderację, starają się zmniejszyć prawdopodobieństwo wyników fałszywie dodatnich (tj. treści niesłusznie oznaczonych jako naruszające regulamin platformy). Innymi słowy – w przypadkach wątpliwych stosują swoiste domniemanie niewinności.

Również ten wybór jest podyktowany interesem akcjonariuszy: skoro treści silnie polaryzujące i sensacyjne bardziej angażują użytkowników, to opłaca się opóźnić ich usuwanie do momentu, gdy naruszenie regulaminu lub prawa stanie się ewidentne. Te decyzje, podejmowane na etapie projektowania systemów rekomendacyjnych, przekładają się na efekty, jakie obserwujemy gołym okiem: wzmacnianie sensacyjnych, niesprawdzonych, nierzadko dezinformujących lub intencjonalnie polaryzujących treści.

Priorytetem oraz celem inwestycji publicznych lub publiczno-prywatnych powinno być zreformowanie mediów społecznościowych tak, by przestały być skutecznym i tanim narzędziem w wojnie kognitywnej.

Ten sam mechanizm kreuje superużytkowników w rodzaju Muska i Trumpa, którzy zyskują nieproporcjonalny wpływ na to, jakie treści są rekomendowane pozostałym użytkownikom. Chcąc nie chcąc, również polskie elity polityczne próbują rozgrywać algorytm, dołączając do wyścigu po uwagę wyborców. W napędzanym silnymi emocjami, spolaryzowanym świecie mediów (anty)społecznościowych zanika możliwość wypracowania konsensusu w sprawach publicznych, nawet tak ważnych jak ochrona zdrowia, reforma edukacji, reakcja na kryzys migracyjny, kryzys klimatyczny czy bezpośrednie zagrożenie militarne.

Warto wyregulować platformy

Nie jestem przeciwna inwestowaniu w fact-checking i moderację treści. Uważam jednak, że jest to syzyfowa i bardzo kosztowna praca, której nie powinniśmy dotować z pieniędzy podatników. W idealnym świecie jej koszt powinny ponosić te same firmy, które zarabiają na wyświetlaniu treści na platformach społecznościowych. Natomiast priorytetem oraz celem inwestycji publicznych lub publiczno-prywatnych powinno być zreformowanie mediów społecznościowych tak, by przestały być skutecznym i tanim narzędziem w wojnie kognitywnej. Ten cel można osiągnąć twardymi działaniami regulacyjnymi na poziomie UE, przy jednoczesnym wspieraniu alternatywnej infrastruktury komunikacyjnej i stopniowym wprowadzaniu interoperacyjności dla całego rynku mediów społecznościowych.

Twierdzę, że odpowiedzialnie skalibrowany silnik (system) rekomendacyjny zredukuje ekspozycję użytkowników mediów społecznościowych na dezinformację o wiele skuteczniej niż nowe zastępy moderatorów. Jak przekonać globalne firmy technologiczne do przestawienia wajchy w silnikach rekomendacyjnych wbrew krótkofalowym interesom ich właścicieli? Z całą pewnością nie zadziała tu uległa czy – przywołując określenie często używane przez wicepremiera Krzysztofa Gawkowskiego – kolonialna postawa administracji wobec amerykańskiej administracji i firm technologicznych.

Znacznie rozsądniejsze wydaje się wspieranie twardej polityki Brukseli, której kurs wyznaczył komisarz Thierry Breton przy wsparciu Ursuli von der Leyen w poprzedniej kadencji Komisji Europejskiej.

W obecnym składzie Komisji brakuje liderów tego formatu, a von der Leyen w negocjacjach z USA wydaje się priorytetyzować cele handlowe. Tym większe znaczenie dla kursu, jaki Komisja obierze wobec firm technologicznych, będzie miał nacisk ze strony państw członkowskich.

Twarde egzekwowanie prawa na poziomie Unii trudno pogodzić z klientelizmem na poziomie krajowym – tym mniej dla nas opłacalnym, że na obecnym etapie rozwoju nie potrzebujemy już przyciągać zagranicznych inwestycji za wszelką cenę. Kryterium, od którego polski rząd powinien zacząć uzależniać relacje z firmami technologicznymi, jest możliwość realizacji interesu publicznego. Z tej perspektywy o wiele większy potencjał niż prywatne inwestycje ma wprowadzenie podatku cyfrowego i utworzenie funduszu celowego na rozwój suwerennej infrastruktury.

Gawkowski, który zapoczątkował prace nad takim rozwiązaniem, wydaje się rozumieć rację stanu. Nadal jednak kładzie nacisk na tradycyjnie, wąsko pojmowaną infrastrukturę technologiczną: „Podatek cyfrowy pokaże też troskę o suwerenność technologiczną kraju i dowiedzie, że nie tylko o tym mówimy, ale i działamy. To będą pieniądze na polskie firmy i ludzi, którzy będą je rozwijać. To pieniądze na rozwój mObywatela i e-administracji; na cyberbezpieczeństwo, żeby nam wody czy prądu w gniazdku nie zabrakło na skutek cyberataku” („Gazeta Prawna”, 19 sierpnia 2025 r.).

W tym katalogu celów inwestycyjnych brakuje niezależnej infrastruktury komunikacyjnej – w tym algorytmów sztucznej inteligencji – działającej według zupełnie innej logiki niż rozwiązania komercyjne, na przykład promującej dialog społeczny i jakościowe dziennikarstwo. Polscy decydenci wydają się rozumieć zagrożenia związane z tym, że kilka zagranicznych firm kontroluje wszystkie warstwy naszej komunikacyjnej infrastruktury – od urządzeń końcowych (telefonów) i hostingu danych po regulaminy i algorytmy platform społecznościowych. Nadal jednak brakuje im wyobraźni lub odwagi, by ten stan rzeczy zakwestionować.

Tymczasem robią to politycy francuscy i hiszpańscy, z prezydentem Emmanuelem Macronem i premierem Pedro Sánchezem w rolach głównych. W lutym tego roku francuski rząd i jego partnerzy przeznaczyli 400 milionów dolarów na publiczno-prywatną inicjatywę Current AI. Fundusz ma wspierać „otwartą i godną zaufania technologię, która służy interesowi publicznemu”. Chodzi między innymi o narzędzia open source (otwarte oprogramowanie) i bezpieczną, a zarazem niezależną infrastrukturę technologiczną.

„Suwerenność” jest dziś w Brukseli odmieniana przez wszystkie przypadki, również w odniesieniu do usług komunikacyjnych i mediów społecznościowych. Autorzy koncepcji #EuroStack: European Sovereign Digital Infrastructures, przedstawionej w styczniu tego roku, wezwali Unię do zredukowania „niemal całkowitej zależności na poziomie infrastruktury lub łańcuchów wartości, na których opierają się nasze doświadczenia cyfrowe” poprzez inwestycje w (między innymi) „media społecznościowe nowej generacji, kanały informacyjne służące interesowi publicznemu i skuteczniejszą moderację treści w językach europejskich niedostatecznie obsługiwanych”.

Platforma społecznościowa Blue Sky odnotowała gwałtowny wzrost liczby nowych użytkowników po wyborach w Stanach Zjednoczonych / IStock
Wyobraźmy sobie platformę, na której użytkownik sam decyduje o wyborze dostawcy usług takich jak hosting treści, weryfikacja tożsamości, serwowanie reklam, moderacja czy wreszcie algorytmiczny ranking treści.

Czym mają się różnić owe „media społecznościowe nowej generacji” od obecnych? Przede wszystkim konkurencyjnością i jakością oferowanych usług. Wyobraźmy sobie platformę, na której użytkownik sam decyduje o wyborze dostawcy usług takich jak hosting treści, weryfikacja tożsamości, serwowanie reklam, moderacja czy wreszcie algorytmiczny ranking treści. Na kuratora rekomendowanych treści użytkownik mógłby wybrać dowolne prywatne albo publiczne medium, do którego ma zaufanie. I to nie jedno, ale wiele. Jeśli będzie chciał ograniczyć swój obraz świata do jednej politycznej czy ideologicznej perspektywy, nadal będzie mógł to zrobić. Ale nie będzie do tego zachęcany. Wręcz przeciwnie: w wersji domyślnej algorytmy będą mu podsuwać różnorodne, wyważone i jakościowe treści.

Mniej więcej to obiecuje platforma BlueSky Social, reklamująca się hasłem social media as it should be. Ma już 38,5 miliona zarejestrowanych użytkowników i nadal rośnie. BlueSky wykorzystuje otwarty protokół o nazwie ATProto. Dzięki niemu kluczowe usługi, takie jak weryfikacja tożsamości, moderacja treści i algorytmiczny feed mogą być dostarczane przez różne (niezależne od samej platformy) podmioty. Każdy użytkownik teoretycznie może samodzielnie wybrać odpowiednią dla siebie kombinację usług. BlueSky zapewnia też, że będziemy mogli swobodnie przechodzić między konkurencyjnymi aplikacjami bez utraty obserwujących, wybierać różne reguły moderacji i samodzielnie kalibrować filtry chroniące go przed niechcianymi doświadczeniami (np. dezinformacją czy hejtem).

Ze względu na tę elastyczność ATProto rokuje jako fundament odpornej, pluralistycznej i suwerennej cyfrowej sfery publicznej. Skoro technologia na to pozwala, to jakie względy blokują wprowadzenie interoperacyjności na dominujących, zamkniętych platformach? Odpowiedź, która nasuwa się od razu – niska rentowność w oczach inwestorów – jest tylko częściowo prawdziwa. Krzywa giełdowej wyceny zamkniętych platform pokazuje, że na reklamie behawioralnej i spekulacji danymi da się bardzo dużo zarobić. Ale dałoby się również na jakościowych usługach, zaspokajających potrzeby bogacących się (i starzejących) europejskich użytkowników. Otwarcie platformy na konkurencyjne algorytmy to przede wszystkim początek końca kontroli nad dystrybucją treści, a ta w dzisiejszych czasach ma wartość trudną do oszacowania. Szczególnie w czasach geopolitycznych napięć właściciele platform sami z tej władzy nie zrezygnują. Żeby przełamać ich opór, Unia musiałaby się zdobyć na odważne interwencje regulacyjne. Przy czym nie chodzi o nowe narzędzia, ale o wykorzystanie już istniejących.

Pierwsza niezbędna interwencja to wymuszenie interoperacyjności na wszystkich wielkich platformach społecznościowych. Najbliższą okazją, by to zrobić, będzie nadchodząca rewizja Digital Markets Act. Już obowiązujące przepisy tego rozporządzenia wymusiły interoperacyjność „usług łączności interpersonalnej niewykorzystującej numerów”, czyli aplikacji typu Messenger, jeśli są elementem wielkiej platformy społecznościowej. Zgodnie z art. 53 rozporządzenia po trzech latach Komisja Europejska ma ocenić, czy zasada interoperacyjności nie powinna zostać rozszerzona na internetowe serwisy społecznościowe. Co by to dało w praktyce?

Platformy społecznościowe – jak cały internet – mają warstwy. Na samym dole jest warstwa złożona z kabli, hardware’u i serwerów. Wyżej – warstwa danych, które miliardy ludzi codziennie wrzucają do sieci, czyli hosting, i infrastruktura sieci społecznościowych, dzięki której możemy się komunikować. Najwyższa warstwa to aplikacje z interfejsami i ustawieniami dla użytkowników internetu. Na tych samych kablach i tych samych danych dostarczanych przez tę samą sieć użytkowników można „położyć” aplikacje zaprojektowane tak, by realizowały potrzeby ludzi albo interes społeczny, a nie wąsko pojęty interes akcjonariuszy czy reklamodawców. Innymi słowy, decyzją regulatora można stworzyć konkurencyjny rynek w ramach każdej warstwy platform internetowych.

Jeśli na nowo przyzwyczaimy odbiorców mediów społecznościowych do dłuższych i bardziej wymagających formatów, rynek mediów odpowie nową ofertą.

Wymuszając interoperacyjność nie tylko wybranych usług, lecz także całych serwisów społecznościowych, Unia otworzyłaby drzwi europejskiej konkurencji i zaprosiła do licytacji o uwagę użytkowników społecznie odpowiedzialne modele biznesowe.

Druga interwencja, która nie jest uzależniona od powodzenia pierwszej, ale logicznie ją uzupełnia, to wymuszenie na wielkich platformach (i każdym nowym dostawcy, który zechce z nimi konkurować na polu algorytmicznej kurateli treści) zmiany zasad działania systemów rekomendacyjnych. Podstawę prawną takiej korekty daje Digital Services Act, a konkretnie art. 35, zgodnie z którym Komisja Europejska może wydać wytyczne dotyczące środków zmniejszających ryzyko. Jednym z takich środków – w mojej ocenie najważniejszym z listy zawartej w art. 35 – jest „dostosowywanie systemów algorytmicznych, w tym systemów rekomendacji”, tak, by nie przyczyniały się do systemowych ryzyk (np. nie rozpowszechniały dezinformacji lub innych szkodliwych społecznie treści).

Na czym to „dostosowywanie” mogłoby polegać? Badacze zajmujący się problematyką systemów rekomendacyjnych są zgodni, że te algorytmy powinny:

  • priorytetyzować treści i interakcje reprezentujące konstruktywny dialog lub pozytywne emocje, a dzięki temu budujące zrozumienie ponad podziałami społecznymi;
  • selekcjonować treści, które spełniają określone kryteria jakości i wiarygodności;
  • brać pod uwagę to, czy rekomendowana treść zawiera wulgaryzmy i inne elementy toksycznego języka (jako kryterium negatywne);
  • równoważyć różne sygnały pochodzące z sieci i od konkretnych użytkowników, w szczególności dowartościować bezpośredni feedback (sygnał „nie chcę tego widzieć”).

Od klikalności do jakości

Otwarcie platform społecznościowych na niezależnych dostawców usług tak kluczowych dla ich funkcjonowania, jak systemy rekomendacyjne, w połączeniu ze zmianą logiki tych systemów na prospołeczną, byłoby zmianą o charakterze tektonicznym. Tym ruchem Unia otworzyłaby pole dla europejskich innowatorów, odebrałaby przewagę globalnym graczom, przywróciła sprawczość odbiorcom serwisów społecznościowych i zwiększyła szanse jakościowego dziennikarstwa.

Ani prywatne, ani publiczne misyjne media nie są w stanie konkurować jakością treści, jeśli o zasięgach (a więc i zyskach) decyduje klikalność. Dobre dziennikarstwo nie przebije się przez clickbaitowy zgiełk, bo wymaga od odbiorców dłuższego skupienia i większego wysiłku. Jeśli na nowo przyzwyczaimy odbiorców mediów społecznościowych do dłuższych i bardziej wymagających formatów, rynek mediów odpowie nową ofertą. I nie będzie to oferta luksusowa, ale fundament (dziś zanikającej) demokratycznej debaty i narzędzie społecznego dialogu.

Jeżeli w miejsce zamkniętych platform stworzymy otwarty ekosystem, który dopuści działanie alternatywnych algorytmów, pojawi się również pluralizm w zasadach moderacji treści. W ramach jednej platformy będą mogły funkcjonować różne rzeczywistości, społeczne i biznesowe. Ale pomiędzy nimi nie będzie murów, lecz mosty.

Wreszcie, państwa członkowskie i ich publiczne media zyskałyby algorytmiczne narzędzia do zapobiegania zalewowi dezinformacji i wychodzenia z własną narracją w momentach krytycznych dla bezpieczeństwa państwa. Znaleźliśmy się w momencie, w którym nie kondycja gospodarcza, ale odporność i spójność społeczeństw zadecydują o przyszłości naszego kontynentu. W tych warunkach pytanie, czy stać nas na (politycznie) kosztowną reformę mediów społecznościowych, powinno być retoryczne.

Posłuchaj podcastu
Katarzyna Szymielewicz, prezeska Fundacji Panoptykon i filozof Andrzej Leder dyskutują o dezinformacji w sferze publicznej i zastanawiają się, jak zmienić media społecznościowe, by dezinformacji było mniej. Rozmowę prowadzi Tomasz Sawczuk z Polityki Insight.

PRZECZYTAJ INNE ESEJE Z OBSZARU