Künstliche Intelligenz – eine Bedrohung für den Journalismus?

Ein journalistischer Text von einem Roboter geschrieben? Komisch, aber so utopisch ist das gar nicht. Science-Fiction prägt nach wie vor unser Verständnis von Künstlicher Intelligenz. Doch was ist KI in der Realität? Wie wird sie im Journalismus eingesetzt und kann sie den Berufszweig des Journalismus irgendwann gefährden – oder gar überflüssig machen?

Er sieht aus wie ein Mensch. Doch dann sagt er mit einer Google-Übersetzer-Stimme: „Hallo alle zusammen, ich bin ein englischsprachiger KI-Nachrichtensprecher. Heute ist mein erster Tag in der Xinhua Nachrichtenagentur.” Beim Vorbeigehen würde mir nicht auffallen, dass die Bewegungen ein wenig seltsam sind, dass die Lippen sich etwas asynchron zum Ton bewegen und, dass die Mimik zu steif wirkt. Die chinesische Nachrichtenagentur Xinhua stellte 2018 auf einer Onlinekonferenz ein neues KI-gefüttertes Programm vor, das zukünftig die Arbeit von NachrichtensprecherInnen übernehmen könnte. Der Nachrichtensprecher wurde nach einem realen, menschlichen Vorbild erstellt und ist eigentlich nicht viel mehr als ein virtueller Charakter. 

(Quelle: Europäisches Parlament)

Schreiben Roboter unsere News?

Wer sich über Künstliche Intelligenz im Journalismus informiert, wird früher oder später auf den Begriff Roboterjournalismus stoßen. Dabei hat Roboterjournalismus eigentlich gar nichts mit Robotern zu tun, sondern basiert lediglich auf Computerprogrammen, die beispielsweise automatisch-generierte journalistische Texte liefern. Um den irreführenden Begriff Roboter zu vermeiden, wird Roboterjournalismus auch Automated Journalism oder Algorithmic Journalism genannt.

Grundlage für die bereits erwähnten Computerprogramme sind strukturierte und aktuelle Daten sowie Textbausteine, die im Voraus erstellt werden. JournalistInnen werden heutzutage bei ihrer Recherche vermehrt von Computern unterstützt und teilweise sogar ersetzt. Keine Sorge: Komplett auf den Menschen zu verzichten, ist nicht möglich. Die Anwendung muss zunächst von Menschen programmiert und anschließend mit Daten gefüttert werden. Je mehr Daten einem Programm zur Verfügung stehen, desto einzigartiger und detaillierter kann ein Bericht jedoch ausfallen. Der Mensch ist und bleibt darüber hinaus die letzte Instanz zur Qualitätskontrolle und -sicherung von journalistischen Texten. „In der Europäischen Datenschutzgrundverordnung wird beispielsweise sogar gefordert, dass es einen menschlichen Letztentscheider geben muss”, so Jessica Heesen. Sie ist Medienethikerin und leitet den Forschungsschwerpunkt Medienethik und Informationstechnik an der Universität Tübingen. „Wenn bei einem Text, der durch KI geschrieben wurde, nicht noch einmal ein Mensch darauf geguckt hätte, wäre ich persönlich sehr misstrauisch. Fehler können sich in Sprachmodell-Systemen, die Texte schreiben, ganz schnell reproduzieren”, betont Heesen. Komplett autonom arbeiten KI-basierte Systeme also nicht. Das Faszinierende an KI-gesteuerten Systemen sei laut Heesen jedoch, dass sie deutlich besser darin sind, Muster zu erkennen. Damit übersteigen sie unsere menschliche Rationalität.

Wo wird KI im Journalismus eingesetzt?

  1. Datenanalyse/Data-Mining: Computerprogramme erkennen Muster und Anomalien in Datensätzen und ermöglichen die Erschließung großer Datenmengen
  2. Natural Language Understanding: Anwendungen können von Menschen gesprochene Texte verstehen und diese automatisch in verschiedene Themenbereiche einsortieren
  3. Personalisierung: automatisch generierte, personalisierte Inhalte, wie zum Beispiel individuell angepasste News-Homepages oder vorgeschlagene Artikel
  4. Automatisierte Textgenerierung: vorgefertigte Textbausteine werden durch strukturierte und aktuelle Daten ergänzt (Sport-, Wetter- und Börsenberichte)

Künstliche Intelligenz wird derzeit hauptsächlich eingesetzt, um den Workflow von JournalistInnen zu optimieren und das Maximum an Reichweite zu erzielen. „KI steckt ja vor allem in Suchmaschinen drin. Dass man so unkompliziert recherchieren kann, ist natürlich für den Journalismus toll. Das ist ein Riesenvorteil!”, ergänzt Jessica Heesen. Darüber hinaus sparen automatisch-generierte Texte und Grafiken nicht nur Zeit, sondern sind auf Dauer auch kostengünstig und schneller als das menschliche Pendant. Durch diese Verlagerung können sich JournalistInnen auf andere Bereiche ihrer Arbeit konzentrieren, bei denen menschliche Intelligenz bisher unabdingbar ist.

Die Sache mit der Transparenz

Doch woher weiß ich, ob meine News von einem KI-gesteuerten System geschrieben wurden? Die Europäische Kommission veröffentlichte einen neuen Regulierungsvorschlag zum Einsatz von Künstlicher Intelligenz. Dort wird unter anderem beschrieben, dass es in Zukunft eine Kennzeichnungspflicht für Deepfakes geben soll. Deepfakes sind realistisch wirkende Medieninhalte, die mithilfe von KI verändert worden sind. Beispielsweise können Gesichter von Menschen in Videos durch Gesichter anderer Menschen realistisch ersetzt werden. Aber auch automatisch-generierte Texte als solche zu kennzeichnen, ist eigentlich gar nicht schwer, wie Jessica Heesen berichtet: „Es ist bei einem einfachen Text ganz leicht, den Namen des entsprechenden KI-Systems – anstatt den Autor oder die Autorin – zu nennen. Der Text muss jetzt nicht wild anfangen zu blinken.”

Und wer garantiert, dass die Fakten stimmen? 2015 veröffentlichte die US-Nachrichtenagentur AP eine teilautomatisierte Meldung mit fehlerhaften Umsatzzahlen der Streaming-Plattform Netflix und sorgte für Aufruhr. Eine solche Fehlermeldung könnte im schlimmsten Fall zu einem Börsencrash führen und erheblichen wirtschaftlichen Schaden verursachen. Damals verlief jedoch alles glimpflich. KI-Falschmeldungen führen nicht nur zu einem Glaubwürdigkeitsverlust aufseiten der entsprechenden Medien, sondern werfen auch rechtliche Fragen auf. Wer haftet bei Fehlern von KI-Systemen? Das Medienhaus? Oder doch die Person, die die Anwendung programmiert oder die Maschine mit Datensätzen gefüttert hat? Können die RedakteurInnen belangt werden, die für die Qualitätskontrolle zuständig waren? Klare Antworten gibt es bisher noch nicht. Jessica Heesen erklärt: „Es kommt immer auf den Anwendungskontext an. Wenn Sie ein KI-Produkt verkaufen, geben Sie immer bestimmte Qualitätsstandards mit. Sie müssen natürlich auch ein gewisses Qualitätsmanagement betreiben und auf mögliche Schwächen aufmerksam machen. Wird das System dann im redaktionellen Alltag verwendet, ist natürlich die Redaktion dafür verantwortlich, welcher Text letztendlich erscheint.”

Deepfakes und Lügendividende

Wenn Texte von KI-gestützten Programmen geschrieben werden, dann wäre die logische Konsequenz, dass diese KI-Systeme die gleichen journalistischen Anforderungen erfüllen müssen wie menschliche JournalistInnen. So einfach ist es allerdings nicht. Auf Bundesebene hat Künstliche Intelligenz beispielsweise noch keinen Pressekodex. Der Bayerische Rundfunk hat zwar Richtlinien für KI zusammengefasst, bildet damit aber eine der wenigen Ausnahmen. Diese fehlenden Kontrollmechanismen bilden den perfekten Nährboden für eine unethische Verwendung von KI im Journalismus. Können aufgrund dessen die zuvor genannten Deepfakes eine Bedrohung für den Journalismus darstellen? Jessica Heesen erklärt, dass es potenziell viele Probleme in dem Bereich geben könnte: „Natürlich kann man hervorragend Desinformationen verbreiten und berühmten Leuten wie Politikerinnen und Politikern falsche Aussagen in den Mund schieben. Das kann besonders in politisch aufgeheizten Situationen das Fass zum Überlaufen bringen.” Bislang gäbe es allerdings kaum skandalöse Anwendungsfälle in diesem Bereich. Was es allerdings gibt, ist die sogenannte Lügendividende: Es erscheinen Bilder, Videos oder Audioinhalte von einer Person des öffentlichen Lebens, die die dort getroffenen Aussagen leugnet. Es käme mittlerweile immer öfter vor, dass diese Personen dann behaupten, das veröffentlichte Material sei bloß ein Deepfake, obwohl dies nicht der Wahrheit entspreche, erläutert Jessica Heesen. Sie fügt hinzu: „Insgesamt kann schon das Wissen, dass es Deepfakes gibt, eine Beeinträchtigung der öffentlichen Meinungsbildung und des Vertrauens in die Medien sein, weil die Verunsicherung ansteigt, was überhaupt wichtig oder wahr ist. Das ist ein Element mehr, wo man misstrauisch sein muss.”

Nehmen Roboter uns den Job weg?

Die wohl wichtigste Frage für angehende Medienmenschen ist jedoch: Werden in Zukunft alle JournalistInnen aufgrund von Maschinen arbeitslos? Natürlich können Computerprogramme basierend auf Künstlicher Intelligenz die Arbeit von RedakteurInnen in vielen Fällen erleichtern und bereichern. Eines kann Künstliche Intelligenz jedoch nicht: Meinungsäußernde Artikel wie Kommentare, Kolumnen oder Kritiken schreiben. Auch erzählende Darstellungsformen wie Reportagen, Features oder Porträts können nur von Menschen geschrieben werden und basieren vor allem auf menschlicher Beobachtungsgabe. Jessica Heesen zweifelt an, dass Künstliche Intelligenz so etwas jemals können wird. Kein Roboter könnte beispielsweise die Stimmung auf einem Konzert einfangen. Und wer würde gerne nur noch trockene, faktenbasierte Artikel aus Datensätzen lesen? Durch die unterhaltenden und gleichzeitig informativen Darstellungsformen wird Journalismus schließlich lebendig. Jessica Heesen sieht keine akute Gefahr durch KI für den Journalismus und erklärt in diesem Zusammenhang, dass im Journalismus häufig eine starke einordnende Kompetenz gebraucht wird, wie beispielsweise in Bezug auf das aktuelle politische Geschehen. „Ich glaube, dass Leute weiterhin Texte von Menschen lesen wollen”, merkt sie an. Es sei durchaus denkbar, dass es in Zukunft mehr Texte geben wird, die durch KI geschrieben sind, weil es natürlich auch billiger ist. „Aber das ist nicht, was wir uns unter Qualitätsjournalismus vorstellen. Es könnte daher sogar zum Qualitätsmerkmal von gutem Journalismus werden, nicht so stark auf KI zu setzen.”

Künstliche Intelligenz ist aus dem heutigen Journalismus also nicht mehr wegzudenken und wird auch in Zukunft eine immer wichtigere Rolle in der Berichterstattung spielen. Der Journalismus, wie wir ihn kennen, wird jedoch nicht komplett verdrängt. KI-gesteuerte Systeme und menschliche Journalist:innen arbeiten schließlich nicht gegeneinander. Vielmehr ergänzen sie sich und sorgen für einen effizienteren Arbeitsablauf. Dass Roboter den Medienschaffenden die Jobs wegnehmen, bleibt vorerst also ein utopisches Zukunftsszenario.

Total
0
Shares
Ähnliche Beiträge
Mehr lesen

Für immer immun: Die Wim-Hof-Methode im Selbstversuch

Atemübungen, kalte Duschen, Konzentration – Das Rezept für nahezu übermenschliche Körperkontrolle. Jedenfalls behauptet das der Niederländer Wim Hof. Unter seinem Pseudonym The Iceman, lief er barfuß einen Halbmarathon nördlich des Polarkreises und saß fast zwei Stunden in eisigem Wasser, ohne einen Schaden davonzutragen. Unser Autor Leon startete den Selbstversuch: Was kann die Wim-Hof-Methode wirklich?
VON Leon Vincent Klein
Mehr lesen

Schlucken und dran glauben?

Es ist eine der umstrittensten Heilmethoden in Deutschland – die Homöopathie. Doch was hinter dem Heilverfahren steckt, ist oft unbekannt. Ist es wirklich nur der Placebo-Effekt oder gibt es wahre Wirkungen?
VON Jannis Brunsmann
Mehr lesen

Studium > Berufsausbildung?

Die Studierendenzahlen steigen stetig in Deutschland, die Azubi-Zahlen sinken. Diese Entwicklung könnte eine weltweit anerkannte Stärke des deutschen Bildungssystems bedrohen. Dazu will es die Politik nicht kommen lassen.
VON Niko Gülle
Mehr lesen

“Auf Shitstorm stehen die Leute”

Immer wieder beschweren sich Fans über langweilige und stumpfe Antworten von Fußballprofis. Warum ist das überhaupt so? Ein Interview mit dem ehemaligen Nationalspieler und Weltmeister Pierre Littbarski.
VON Amelie Rook