Meinung

Mit Kompetenz gegen Desinformation

Caroline Lindekamp: "Das Problem der Desinformation ist komplex und wird komplexer." (Foto: Correctiv/Ivo Mayr)

Lässt sich das Desinformationen-Problem lösen, wenn wir ihnen mit Faktenchecks immer nur im Nachhinein begegnen? Caroline Lindekamp, Project Lead "noFake" beim Recherchezentrum Correctiv, erklärt in unserer Serie "Mein Blick auf den Journalismus", warum es nicht nur solches Debunking braucht, sondern auch präventives Prebunking. Text: Caroline Lindekamp

24.11.2023

Frage: „In welchen Skandal war Hubert Aiwanger zuletzt verwickelt?” Antwort: „In einen Skandal um ein Flugblatt, das irreführende Informationen über die Corona-Impfung enthielt.” Natürlich nicht. Es ging bei dem Skandal zwar um ein Flugblatt, aber um eines mit vermeintlich antisemitischen Äußerungen aus der Schulzeit des Politikers. Die teilweise falsche Antwort gab Microsofts Bing-Chat, eine Anwendung ähnlich wie Chat-GPT, in einem Experiment von Algorithm Watch und AI Forensics vor den Wahlen in Hessen, Bayern und der Schweiz. Sie hätte ebenso eine unentschlossene Wählerin erreichen können, die bei einer der leicht zugänglichen Anwendungen auf die Schnelle Orientierung sucht. Im kommenden Superwahljahr tippen Wähler vielleicht Fragen zu einer anderen Landtags- oder der Europawahl in eines der Tools, um zu entscheiden, wo sie ihr Kreuz setzen.

„Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Selbst wenn Ergebnisse stimmen, weiß man nie, ob man sich auf Informationen verlassen kann oder nicht”, so ein Fazit des Experiments. Es zeigt: Eine neue Dimension schnell produzierter und unverlässlicher Behauptungen steht öffentlichen Debatten bevor. Plausibel formuliert gaukeln sie Glaubwürdigkeit vor, doch zur Wahrheit haben die großen Sprachmodelle (Large Language Models, LLM) keinen Bezug. Sie reihen Wörter beruhend auf Wahrscheinlichkeiten aneinander – ob die Ergebnisse faktenbasiert sind, ist nicht klar. So gesellen sich zukünftig von KI halluzinierte Behauptungen zu gezielt gestreuten Desinformationen. Verschwörungserzählern eröffnen die KI-basierten Generierungstools neue Möglichkeiten, die eigene Agenda zu befeuern – mit gefälschten Primärquellen, besseren Darstellungsformen und anderen Argumentationsstrategien.

Prebunking: Handeln, bevor der Schaden groß ist

Das Problem der Desinformation ist komplex und wird komplexer. Gesellschaft, Medien, Wissenschaft und Politik diskutieren, wo sie mit Gegenmaßnahmen ansetzen können. Am besten noch, bevor Schaden angerichtet ist, sagen Verfechter von Prebunking. Sogenanntes Debunking (deutsch: Widerlegen) – typischerweise in Form von Faktenchecks – setzt retroaktiv an und begegnet konkreten Falschinformationen, die bereits im Umlauf sind. Prebunking-Maßnahmen wirken hingegen präventiv, indem sie erwartete irreführende Behauptungen oder Manipulationstechniken einordnen und mögliche Empfänger warnen. Wie eine Impfung immunisiere Prebunking Menschen gegen Desinformation, so eine Metapher, die schon zu oft gehört hat, wer sich regelmäßig mit dem Thema befasst. In dem Bild sind Faktencheck-Artikel die Pille danach. Sie stellen Fehlinformationen richtig, begegnen Lügen mit belegbaren Tatsachen und liefern Kontext bei verkürzten Darstellungen.

Medien- und Informationskompetenz ist eng mit Prebunking verbunden. Um sie zu steigern, halten die Journalisten und Journalistinnen von Correctiv.Faktencheck Workshops und Vorträge. Sie erklären typische Recherchemethoden in Artikeln und Podcasts, um das Faktenchecken nachvollziehbar zu machen und Desinformationsstrategien zu entlarven. Mit dem Correctiv.Faktenforum bauen wir eine Faktencheck-Community auf, damit sich jeder gegen Desinformation engagieren kann.

Die Motivation: Werden Menschen befähigt, manipulierende Inhalte etwa im Familienchat oder im Social-Media-Feed zu entlarven, werden sie auf dieser Basis keine Entscheidungen treffen, sie nicht weiterverbreiten und vielleicht sogar richtigstellen. Die falsche Behauptung ist dann zwar in der Welt, aber ihr Effekt verpufft.

Diese Wirkungskette klingt vielversprechend und verleitet zu der Frage: Prebunking statt Debunking? Wäre das Problem gelöst, wenn Medien- und Informationskompetenzbildung flächendeckend stattfindet und genügend Warnhinweise platziert sind? Können wir uns das aufwendige Faktenchecken dann sparen? Die Fähigkeit zu kritischem Informationskonsum ist wichtig und begrenzt den Schaden durch Desinformation. Aber die Wirkungskette hat Lücken, zum Beispiel dann, wenn Narrative nicht vorhersehbar sind, die Zielgruppe nicht erreichbar ist oder sich Menschen schlicht nicht belehren lassen wollen. Verschwörungsglaube resultiert nicht bloß aus fehlender Bildung. Er ist auch Symptom und Treiber gesellschaftlicher Polarisierung. Wenn die Gleichzeitigkeit von Krisen Angst, Neid und Hass schürt, fallen Desinformationen auf fruchtbaren Boden.

Eine Videokampagne unter der Lupe

Die Wirkungsforschung zu Prebunking-Maßnahmen befasst sich oft mit Einzelinitiativen und erhebt diese jeweils über einen überschaubaren Zeitraum. „Unsere Erhebung hat auch ihre Grenzen”, schreiben beispielsweise Mitarbeiter der Forschungsabteilung von Googles Technologie-Inkubator Jigsaw in einer Studie. Darin haben sie zusammen mit Wissenschaftlern aus Cambridge und Bristol den Effekt von Prebunking-Videos untersucht. Das Ergebnis: Die Videos sind innerhalb eines 24-Stunden-Fensters nachweislich wirksam und warnen erfolgreich vor Manipulationsversuchen. „Doch wir konnten nicht untersuchen, wie lange dieser ‚Immunisierungseffekt‘ anhielt“, so die Forscher.

Eine andere Herausforderung für Prebunking haben sie nach eigenen Angaben gemeistert: die Skalierbarkeit. Die kurzen Erklärfilme liefen auf Youtube wie sonst Werbeeinspieler vor den Videos und erreichten so innerhalb von zwei Wochen 5,4 Millionen Plattform-User. Die Studie beschränkte sich auf ein Experiment in den USA. Vergangenen Sommer startete Google aufbauend auf dieser Forschung und nach einem europäischen Pilot in Polen, Tschechien und der Slowakei unter dem Motto „Lass Dich nicht manipulieren” eine entsprechende Kampagne in Deutschland. Wieder ging es in fiktiven Szenen um Manipulationstechniken: Dekontextualisierung, Panikmache und Whataboutism. Correctiv hat die Kampagne unterstützt.

Plattform-Algorithmen pushen Schwarz-Weiß-Denken

Die Währung von Youtube, Facebook, Instagram, X, Tiktok und anderen ist die Aufmerksamkeit der User. Sind diese einmal auf einer der Plattformen, sollen sie möglichst lange dort verweilen. Denn das Geschäftsmodell setzt auf Werbeeinnahmen, die Analyse von Nutzungsverhalten und die Verwertung von Nutzerdaten – je mehr von alledem, umso besser.

Die Gewinnmaximierung als oberstes Ziel läuft einer demokratischen Debattenkultur zuwider. Extremen Behauptungen widmen wir zumeist mehr Aufmerksamkeit als unaufgeregten Analysen. Daher pushen Plattform-Algorithmen eher Schwarz-Weiß-Denken und Konflikte als ausgewogene Diskussion. Wenn zusätzlich traditionelle Medien Social-Media-Trends hinterherrennen oder Social Bots Hassrede und Desinformationskampagnen amplifizieren, verschärft sich der Polarisierungseffekt.

Debunking: Fakten gegen Desinformation

Diese Mechanismen zu erklären, könnte Thema einer Prebunkingkampagne sein. Doch die konkrete Desinformation ist kaum vorhersehbar. Ihr muss man nachträglich begegnen – mit glaubwürdigen und nachvollziehbar recherchierten Fakten. Genau das passiert beim Debunking mit Faktencheck-Artikeln, auf die sich bei Correctiv seit 2017 ein mittlerweile 13-köpfiges Team spezialisiert hat.

„Verschwörungserzählern eröffnen die KI-basierten Generierungstools neue Möglichkeiten, die eigene Agenda zu befeuern – mit gefälschten Primärquellen, besseren Darstellungsformen oder anderen Argumentationsstrategien.“

Rückmeldungen von Lesern und Leserinnen bestätigen, was auch Studien zeigenFaktenchecks helfen gegen Desinformation, etwa wenn sie in einer aufgeheizten Debatte in einer Chatgruppe geteilt werden oder Argumente für die Diskussion mit der verschwörungsgläubigen Tante liefern. Zusätzliche Reichweite bringen uns Publikationskooperationen wie mit dem Bundesverband kostenloser Wochenzeitungen (BVDA) oder ein neuer Whatsapp-Kanal. In den Projekten noFake und GADMO (German-Austrian Digital Media Observatory) hat sich Correctiv mit Wissenschaftlern und anderen Faktencheck-Redaktionen zusammengetan. Die Forschungsverbünde vereinen verschiedene Disziplinen wie Journalistik, Technik und Recht, um wirksame Lösungen zu entwickeln. Die anfangs erwähnten Sprachmodelle lassen sich zum Beispiel auch entsprechend journalistischen Standards in die Anwendung bringen.

Zusammen mit den Wissenschaftlerinnen von noFake entwickelt Correctiv KI-gestützte Assistenzsysteme, die etwa bei der Erkennung von Falschinformationen, deren Kategorisierung sowie der Text- und Bildanalyse helfen. Das Faktenchecken lässt sich so nicht komplett automatisieren, aber es wird schneller, effizienter und niederschwelliger. Oft reicht schon eine Minute, um eine Desinformation in Umlauf zu bringen. Aber es dauert Stunden oder Tage, sie zu widerlegen. Gründliche Recherche, immer noch eine weitere Quelle und das Sechs-Augen-Prinzip sind unser Standard, aber brauchen Zeit – Zeit, in der Falschinformationen Schaden anrichten. Je kürzer dieses Fenster dank intelligenter Assistenzsysteme wird, desto besser.

Zudem will Correctiv Faktenchecks auch da verbreiten, wo Falschinformationen ein Millionenpublikum erreichen – auf den Social-Media-Plattformen. Das gelingt über die eigenen Kanäle und zudem eine Kooperation mit dem Facebook-Konzern Meta. Dieser arbeitet weltweit mit Faktencheck-Redaktionen zusammen, da er sich auf die Rolle des Plattformanbieters zurückzieht und keine eigenen Inhalte erstellen möchte. In Deutschland beteiligen sich neben Correctiv die Faktencheck-Abteilungen von dpa und AFP an dem Programm. Die Faktenchecker versehen Falschbehauptungen auf Facebook mit einem Warnhinweis und einem Link zu dem jeweiligen Artikel.

Zudem wird Meta zufolge die Reichweite der markierten Facebook-Beiträge reduziert, sodass sie seltener und weniger prominent in den Newsfeeds der Nutzer auftauchen. Gelöscht werden sie aber nicht, denn übermäßiges Löschen könnte die Meinungsfreiheit beeinträchtigen. Jede Maßnahme gegen Desinformation muss sich an dem Ziel von Artikel 5 Absatz 1 des Grundgesetzes messen: individuelle und öffentliche Meinungsbildung zu gewährleisten. Zudem erfahren Nutzerinnen und Nutzer nur durch Richtigstellen und nicht durch Löschen, dass sie auf irreführende oder falsche Informationen gestoßen sind, und lernen, sie von glaubwürdigen Inhalten zu unterscheiden. Letztlich ist jeder aufmerksam gelesene Faktencheck ein kleines Medien- und Informationskompetenz-Training.

Prebunking- und Debunking-Ansätze der Plattformen sind erst mal begrüßenswert; verbesserungswürdig und ausbaufähig sind sie aber allemal. Die Betreiber sind in der Verantwortung, weil Desinformation durch ihr Geschäftsmodell floriert und sie daraus finanziellen Mehrwert schlagen. Demgegenüber stellen etwa Google und Youtube den Global Fact Check Fund von 12 Millionen US-Dollar. Zwischen 2023 und 2025 soll das Geld an Organisationen gehen, die sich den Standards des International Fact-Checking Networks (IFCN) verpflichtet haben. Dazu gehören neben Correctiv weltweit rund 130 weitere Organisationen. Das macht den Fund zu einem Kuchen mit sehr kleinen Stücken. Eine deutlich höhere Summe zu einem deutlich früheren Zeitpunkt wäre angebracht gewesen. Youtube sollte zudem Faktenchecks in seinen Dienst integrieren, doch solche Pläne sind nicht bekannt.

Vor diesem Hintergrund muss die besagte Videokampagne betrachtet werden. „Der Mangel an Transparenz ist seit langem ein Grund zur Besorgnis für die Fact-Checking-Gemeinschaft”, heißt es in einem Bericht des European Fact-Checking Standards Network (EFCSN). Es könne nicht erkennen, wie Youtube den Verpflichtungen gemäß dem EU-Verhaltenskodex gegen Desinformation nachkommen wolle. Dessen Unterzeichner verpflichten sich, unter anderem die Verbreitung von Desinformation einzuschränken, politische Werbung transparent zu machen, die Zusammenarbeit mit Faktencheckern zu verbessern und Wissenschaftlerinnen Datenzugang zu ermöglichen.

„Lieber Herr Musk”

Es gibt Plattformen, die immerhin ansatzweise an solchen Verpflichtungen arbeiten. Und es gibt Plattformen wie Twitter. Unter Elon Musk und mit der Umbenennung zu X hat sich der Kurznachrichtendienst aus dem EU-Verhaltenskodex zurückgezogen. „Lieber Herr Musk, wir haben Hinweise darauf, dass Ihre Plattform für die Verbreitung von illegalen Inhalten und Desinformation in der EU benutzt wird“, schrieb jüngst EU-Kommissar Thierry Breton in einem offenen Brief auf X. Ähnlich richtete er sich danach an Meta-Gründer Mark Zuckerberg und Tiktok-Chef Shou Zi Chew. Anlass waren Falsch- und Desinformationen über den Terrorangriff der Hamas auf Israel, die sich über die Plattformen verbreiteten.

Der öffentlichkeitswirksame Appell verweist auf die Versäumnisse der Plattformen – und spricht für Bemühungen, die Anwendung des Digital Services Act (DSA) voranzutreiben. Die EU-weite Gesetzgebung ist bereits im August für sehr große Onlineplattformen (Very Large Online Platforms, VLOPs) wie X und Facebook in Kraft getreten. Ab 2024 setzen die Mitgliedstaaten sie auch auf nationaler Ebene um. VLOPs müssen dem DSA zufolge systematische Risiken bewerten und mindern – eines dieser Risiken ist Desinformation. Wer gegen die Vorschriften verstößt, darf mit Bußgeldern rechnen. Dem EFCSN zufolge müssen die Plattformen weitreichende Verbesserungen ankündigen, um mögliche Verstöße zu vermeiden.

Aktuell reichen die Anstrengungen keiner Plattform aus: Sie sind besser darin, ihre Bemühungen imagewirksam nach außen zu tragen als die Masse an Desinformation tatsächlich und nachhaltig in den Griff zu bekommen. Um die Auswirkungen auf Demokratie und Gesellschaft zu mildern, wird es wichtig bleiben, Informationskompetenz zu stärken, Faktenchecks zu verbreiten und eine vielfältige Medienlandschaft zu fördern. Eine einzelne Taktik wird den Kampf gegen Desinformation nicht entscheiden.

Caroline Lindekamp leitet das interdisziplinäre Forschungsprojekt noFake beim gemeinnützigen Recherchezentrum Correctiv. Zuvor hat sie als Journalistin unter anderem für Handelsblatt, Zeit Online und den journalist geschrieben.

Bisher erschienen:

Teil 1: Daniel Drepper, Chefredakteur von BuzzFeed Deutschland

Teil 2: Carline Mohr, Social-Media-Expertin

Teil 3: Georg Mascolo, Leiter des WDR/NDR/SZ-Rechercheverbunds

Teil 4: Hannah Suppa, Chefredakteurin Märkische Allgemeine

Teil 5: Florian Harms, Chefredakteur von t-online.de

Teil 6: Georg Löwisch, taz-Chefredakteur

Teil 7: Stephan Weichert, Medienwissenschaftler

Teil 8: Julia Bönisch, Chefredakteurin von sz.de

Teil 9: Ellen Ehni, WDR-Chefredakteurin

Teil 10: Barbara Hans, Spiegel-Chefredakteurin

Teil 11: Sascha Borowski, Digitalleiter Augsburger Allgemeine

Teil 12: Richard Gutjahr, freier Journalist, Start-up-Gründer und -Berater

Teil 13: Benjamin Piel, Chefredakteur Mindener Tageblatt

Teil 14: Josef Zens, Deutsches GeoForschungsZentrum

Teil 15: Christian Lindner, Berater "für Medien und öffentliches Wirken"

Teil 16: Nicole Diekmann, ZDF-Hauptstadtjournalistin

Teil 17: Carsten Fiedler, Chefredakteur Kölner Stadt-Anzeiger

Teil 18: Stella Männer, freie Journalistin

Teil 19: Ingrid Brodnig, Journalistin und Buchautorin

Teil 20: Sophie Burkhardt, Funk-Programmgeschäftsführerin

Teil 21: Ronja von Wurmb-Seibel, Autorin, Filmemacherin, Journalistin

Teil 22: Tanja Krämer, Wissenschaftsjournalistin

Teil 23: Marianna Deinyan, freie Journalistin und Radiomoderatorin

Teil 24: Alexandra Borchardt, Journalistin und Dozentin

Teil 25: Stephan Anpalagan, Diplom-Theologe, Journalist, Unternehmensberater

Teil 26: Jamila (KI) und Jakob Vicari (Journalist)

Teil 27: Peter Turi: Verleger und Clubchef

Teil 28: Verena Lammert, Erfinderin von @maedelsabende

Teil 29: Anna Paarmann, Digital-Koordinatorin bei der Landeszeitung für die Lüneburger Heide

Teil 30: Wolfgang Blau, Reuters Institute for the Study of Journalism der Universitäte Oxford

Teil 31: Stephan Anpalagan, Diplom-Theologe, Journalist, Unternehmensberater

Teil 32: Simone Jost-Westendorf, Leiterin Journalismus Lab/Landesanstalt für Medien NRW

Teil 33: Sebastian Dalkowski, freier Journalist in Mönchengladbach

Teil 34: Justus von Daniels und Olaya Argüeso, Correctiv-Chefredaktion

Teil 35: Benjamin Piel, Mindener Tageblatt

Teil 36: Joachim Braun, Ostfriesen-Zeitung

Teil 37: Ellen Heinrichs, Bonn Institute

Teil 38: Stephan Weichert, Vocer

Teil 39: Io Görz, Chefredakteur*in InFranken.de

Teil 40: Daniel Drepper, Leiter der Recherchekooperation von NDR, WDR und Süddeutscher Zeitung

Teil 41: Björn Staschen, Programmdirektion NDR, Bereich Technologie und Transformation

Teil 42: Malte Herwig, Journalist, Buchautor, Podcast-Host

Teil 43: Sebastian Turner, Herausgeber Table.Media

Teil 44: Alexander von Streit, Vocer Institut für Digitale Resilienz

Teil 45: Ellen Heinrichs, Bonn Institute

Teil 46: Patrick Breitenbach, Blogger, Podcaster, Unternehmensberater

Teil 47: Caroline Lindekamp, Project Lead "noFake" beim Recherchezentrum Correctiv

Teil 48: Henriette Löwisch, Leiterin Deutsche Journalistenschule

Teil 49: Sebastian Esser, Medienmacher und Gründer

Zur Übersicht: Mein Blick auf den Journalismus

Meinung