journalist
"Wir sagen ja zur KI - aber als Werkzeug"
Jan Eggers: "Das Tempo ist derzeit atemberaubend." Foto: Bernd Seydel
Künstliche Intelligenz ist im Journalismus angekommen. Der DJV sieht Chancen, aber auch Gefahren – und hat ein Positionspapier verabschiedet. Außerdem fordert der Verband eine Vergütung für das sogenannte Text und Data Mining, das automatisierte Auswerten großer Text- und Datenmengen zum Training von Chatbots mit journalistischen Texten und Bildern. DJV-Justiziarin Hanna Möllers erklärt, wie das funktionieren könnte. Text und Interview: Kathi Preppner
12.06.2023
Jan Eggers ist Datenjournalist beim HR. Er beschäftigt sich schon lange mit Künstlicher Intelligenz und schreibt Programme, die ihm helfen, seine Geschichten zu finden und auszuwerten. Doch selbst er bekomme manchmal Schnappatmung, sagte er bei der DJV-Tagung „Kollege KI“ Mitte März in Fulda. „Das Tempo ist derzeit atemberaubend“, so der Journalist. Er teile die Welt in eine Zeit vor und nach Chat-GPT ein. Die Veröffentlichung des Sprachgenerators Ende November sei die wahrscheinlich erfolgreichste Werbemaßnahme der letzten Jahre gewesen. „Wir sehen es hier: Wir reden alle davon. Und es wird uns langsam auch klar: Das wird unsere Welt verändern.“
Als sie im Herbst die Veranstaltung in Fulda geplant haben, wussten sie noch nicht, wie aktuell sie sein würden, sagt Bernd Seydel. Er ist Vorsitzender des Bundesfachausschusses Bild, der die Tagung zusammen mit den Fachausschüssen Freie und Online organisiert hat. „KI wird uns Journalisten noch ganz schön in Trab halten“, so Seydel. Das gilt auch für den DJV als Berufsverband und Gewerkschaft der Journalist*innen. Im April hat der Gesamtvorstand ein Positionspapier zum Einsatz von KI im Journalismus verabschiedet. „Weil die Technik sich so rasant entwickelt, ist es wichtig, dass wir Grundpfeiler einschlagen“, sagt Mika Beuster, stellvertretender Bundesvorsitzender des DJV. „Das ist kein Nischenthema, das ist auch kein Zukunftsthema – das ist ein Gegenwartsthema.“
Neun Regeln zum Umgang mit KI
1 Kein Ersatz menschlicher Leistung
Der Verband befürchtet, dass manche Medienunternehmen „das wirtschaftliche Potenzial von KI höher bewerten als die publizistische Qualität ihrer redaktionellen Einheiten“. Das dürfe nicht passieren. Die Arbeit von Journalist*innen werde sich allerdings ändern, so Beuster. KI-Tools könnten Standardaufgaben übernehmen, zum Beispiel die Mustererkennung oder das Generieren von Bildunterschriften in großen Datensätzen. Das schaffe Freiräume für Medienschaffende und ermögliche unter anderem große Recherchen. Menschen bleiben nach Einschätzung des DJV nicht nur als Korrektiv unersetzlich, sondern auch bei der Recherche und der Zusammenstellung des Datenmaterials sowie bei der Programmierung, dem Training und der Konfiguration der KI-Anwendung. „Wir sagen nicht nein zur KI, sondern ja – aber als Werkzeug“, so Beuster.
2 Verantwortlichkeit für die Inhalte
Auch bei automatisiert erstellten journalistischen Inhalten bleibe die Redaktion publizistisch verantwortlich für die Inhalte, heißt es im Positionspapier des DJV. „Wir leben davon, dass wir greifbar sind als Journalisten“, sagt Beuster. „Wenn ich einen Fehler gemacht habe, bin ich ansprechbar und kann dafür zur Rechenschaft gezogen werden.“ Andernfalls würden Journalist*innen ihre Glaubwürdigkeit verlieren. Darum sollen Redaktionen klar geregelte Abnahme- und Freigabeprozesse für journalistische Inhalte etablieren und Beauftragte benennen, die den Einsatz von KI überprüfen. Sie könnten sich an einem Code of Conduct orientieren, an dem der Verband ebenfalls arbeitet. Manche Medienhäuser haben bereits eigene Regeln: Bei der FAZ hat man gerade „Grundsätze zur Nutzung Künstlicher Intelligenz“ aufgestellt, beim BR gibt es schon seit 2020 die „KI-Richtlinien“. Nachdem Burda Mitte Mai die Zeitschrift Lisa Kochen & Backen mit 99 von Chat-GPT generierten Pasta-Rezepten herausgegeben hat, will sich Burdas Betriebsrat laut SZ dafür einsetzen, ethische Leitlinien für die KI-Nutzung zu entwickeln.
3 Verantwortungsbewusster Umgang mit Datenmaterial
Dass ein Faktencheck bei allem, was Textgeneratoren liefern, unerlässlich ist, dürfte allen Journalist*innen klar sein, schließlich erfinden Chatbots mitunter Inhalte. Der DJV betont in seinem Positionspapier, dass die jeweilige Redaktion dafür verantwortlich ist, dass die Daten richtig und vollständig sind – und dass gegebenenfalls Datenschutzgesetze beachtet werden. „Quellenbewertung ist ja schon immer unsere Kernaufgabe gewesen“, so Beuster. Der DJV nimmt aber nicht nur den Umgang mit Daten in den Blick, er ruft Medienhäuser auch dazu auf, eigene Datenbanken aufzubauen und unterstützt Open-Data-Projekte von Behörden und staatlichen Einrichtungen. „Wenn Daten das neue Öl sind, stellt sich die Frage, wer die Macht über diese Daten hat“, erklärt Beuster. Ein Konzern könne jederzeit entscheiden, Daten nur noch gegen Geld herauszugeben. Darum fordert der DJV eine größere Unabhängigkeit von kommerziellen Anbietern.
4 Transparenz und Kennzeichnung
Im Januar kam heraus, dass die US-amerikanische Tech-Website C-net seit November vergangenen Jahres zahlreiche Artikel veröffentlicht hat, die von einer KI generiert waren und zum Teil viele Fehler enthielten. Gekennzeichnet waren sie nicht. Mitte April pries die Zeitschrift Die Aktuelle auf dem Titel ein Interview mit Michael Schumacher als „Weltsensation“ an – tatsächlich war ein KI-Tool befragt worden. Auch im Pasta-Rezepte-Heft von Burda findet sich kein Hinweis darauf, dass die Rezepte von einer KI stammen. Für den DJV ein No-Go: „Die Kennzeichnungspflicht ist für mich nicht verhandelbar“, so Beuster. Im Positionspapier heißt es: „Die Kennzeichnung muss in unmittelbarer Nähe zum Inhalt erfolgen und hinsichtlich Größe und Gestaltung klar erkennbar sein.“ Der Verband fordert, dass eine solche Kennzeichnungspflicht gesetzlich festgeschrieben wird.
„Weil die Technik sich so rasant entwickelt, ist es wichtig, dass wir Grundpfeiler einschlagen.“ Mika Beuster, stellvertretender Bundesvorsitzender des DJV
5 Verantwortungsbewusste Personalisierung
Algorithmen machen es möglich, Inhalte personalisiert auszuspielen. Der DJV sieht hier die Gefahr, dass immer mehr Filterblasen entstehen. Darum fordert der Verband, dass Inhalte weiterhin von den Redaktionen kuratiert werden. Nutzer*innen soll laut DJV zudem angezeigt werden, nach welchen Kriterien Inhalte auf sie zugeschnitten werden – und sie sollen diese Personalisierung sowohl ändern als auch abstellen können.
6 Einsatz zertifizierter KI-Systeme
Aus DJV-Sicht sollten KI-Systeme, die journalistisch genutzt werden, zertifiziert werden. So könne sichergestellt werden, dass „gewisse Standards hinsichtlich Qualität, Ausgewogenheit, Diskriminierungsfreiheit, Daten- und Quellenschutz sowie Sicherheit“ erfüllt sind. Diese Zertifizierungen könnten zusammen mit der Politik und Nichtregierungsorganisationen aus dem Medienbereich entwickelt werden.
7 Fortlaufende Überprüfung
Medienhäuser sollen laut DJV den Einsatz und die Wirkung von KI regelmäßig überprüfen. „Das Thema ist so im Fluss“, sagt Beuster. „Da müssen wir laufend gucken, wie es sich weiter entwickelt – und neu daraus lernen.“
8 Weiterbildung
Vom Schreiben der Prompts bis zum Erkennen von Deepfakes: Medienhäuser sollen Weiterbildungsangebote für Journalist*innen schaffen, fordert der DJV. „Das wird eine Daueraufgabe“, so Mika Beuster. Der DJV bietet an jedem 28. eines Monats ab 18.30 Uhr einen virtuellen Stammtisch zum Thema KI an. Den Link gibt‘s auf djv.de.
9 Angemessene Vergütung
Text- und Bildgeneratoren werden mit massenhaft Material trainiert. Über die Quellen von Chat-GPT ist wenig bekannt, aber auf der Liste der Websites, mit denen die KI von Google trainiert wurde, finden sich schon in den Top Ten Medien wie nytimes.com, latimes.com und theguardian.com. Auch SZ.de und bild.de sind dabei. Journalist*innen bekommen jedoch kein Geld für die Nutzung ihrer Texte. „Dies muss sich schnellstens ändern“, heißt es aus dem DJV. Wie eine solche Vergütung geregelt werden kann, erklärt DJV-Justiziarin Hanna Möllers im Interview (siehe unten). „Da wird Geschichte geschrieben“, so Mika Beuster. „Wir sind dabei, diese Debatte mitzuprägen.“
"Der Druck ist enorm"
Chatbots werden unter anderem mit journalistischen Texten und Bildern trainiert. Der DJV fordert eine Vergütung für das sogenannte Text und Data Mining, das automatisierte Auswerten großer Text- und Datenmengen. DJV-Justiziarin Hanna Möllers erklärt, wie das funktionieren könnte.
journalist: Wie ist Text und Data Mining bisher rechtlich geregelt?
Hanna Möllers: Bis 2021 war Text und Data Mining vergütungspflichtig, aber mit Umsetzung der Urheberrechtsrichtlinie ist es vergütunsgfrei gestellt worden. Wir setzen uns dafür ein, dass die Vergütungspflicht wieder eingeführt wird, weil klar ist, dass KI urheberrechtlich geschützte Werke nutzt. Es kann nicht sein, dass ein Werk hunderttausendfach verwertet wird, ohne dass der Journalist, Illustrator oder Fotograf dafür jemals einen einzigen Cent sieht. Das ist natürlich in höchstem Maße ungerecht.
Als Journalistin habe aber ich ein Vetorecht dagegen, dass mein Text von einer KI verwendet wird?
Theoretisch ja, aber praktisch ist das problematisch. Es gibt im Urhebergesetz eine sogenannte Opt-out-Lösung. Dort heißt es: „Nutzungen sind nur zulässig, wenn der Rechtsinhaber sich diese nicht vorbehalten hat.“ Allerdings muss dieses Opt-out bei online zugänglichen Werken in maschinenlesbarer Form erfolgen und keiner weiß, wie diese maschinenlesbare Form auszusehen hat. Darüber hinaus können wir nicht nachvollziehen und erst recht nicht beweisen, ob sich ein KI-Programm trotz eines Opt-outs an bestimmten Werken dick und fett gefressen hat. Das ist eine große Gesetzeslücke. Der Gesetzgeber muss jetzt wirklich schnell handeln. Jeder Tag ist verlorene Zeit, denn die KI-Systeme ernähren sich bisher kostenlos und werden täglich größer.
Fordert der DJV die Vergütung auch rückwirkend?
Das wäre unser Wunsch. Ob das technisch machbar ist, ist die nächste Frage. Das wichtigste ist, dass der Gesetzgeber überhaupt erst einmal tätig wird. Eine Möglichkeit besteht darin, im Rahmen des AI Acts darauf hinzuwirken, dass Regularien europaweit eingeführt werden.
„Der Gesetzgeber muss jetzt wirklich schnell handeln. Jeder Tag ist verlorene Zeit.“ Hanna Möllers, DJV-Justiziarin
Bis der AI Act der EU in Kraft tritt, dürfte es dauern. Müsste das nicht vorher hierzulande geregelt werden?
Dem deutschen Gesetzgeber steht es natürlich frei, sofort nachzujustieren. Ein Problem ist aber der Paragraph 60c im Urheberrechtsgesetz. Der regelt Text und Data Mining für wissenschaftliche Forschung. Dort gibt es keine Opt-out-Möglichkeit, keine Vergütung – und der Gesetzgeber kann das nicht ändern, weil diese Regelung auf einer EU-Richtlinie beruht. Das Rad kann man nur auf europäischer Ebene zurückdrehen. Das sollte man, denn klar ist, dass KI-Anbieter mit Universitäten zusammenarbeiten.
Wie sollte eine Vergütung von Text und Data Mining eingetrieben werden – über Verwertungsgesellschaften?
Das ist der Weg, der uns vorschwebt. Meiner Meinung nach wäre es gut, wenn die Hersteller von KI verpflichtet wären, ihre Quellen zu melden. Dann würden die Verwertungsgesellschaften Pauschalen erheben und nach einem bestimmten Schlüssel an die Autoren verteilen.
Beim Leistungsschutzrecht für Presseverleger klappt das bisher nicht. Ist das eine ähnliche Situation?
Bei der Umsetzung des Presseverleger-Leistungsschutzrechts gibt es zwar ein ähnliches Problem, da ist es aber so, dass juristisch noch gestritten wird. Google weigert sich, in relevantem Maße zu zahlen. Nun muss erst von Gerichten entschieden werden, was genau gezahlt werden muss und wer eintreibungsberechtigt ist und so weiter. Das ist ja ein relativ neues Recht, das ist noch im Fluss.
Das wäre bei einer Novelle des Urheberrechtsgesetzes womöglich auch so.
Ich hoffe mal, dass man aus den Fehlern der Vergangenheit lernt. Von der ersten Idee bis zur Verabschiedung der DSM-Richtlinie hat es zehn Jahre gedauert. Die Umsetzung in nationales Recht hat noch mal zwei Jahre gebraucht. Jetzt sind wir im Jahre 2023, und noch immer haben wir als Autoren kein Geld bekommen. Es ist wirklich dringend, dass der Gesetzgeber entschlossen handelt und vernünftige Regelungen schafft, so dass KI-Anbieter nicht sagen können, das sei noch auslegungsbedürftig. Der Druck ist enorm.
Kathi Preppner ist Medienjournalistin in Berlin.