KI ist Werkzeug – Mensch ist Trumpf
Was KI mit dem Journalismus macht? Eine ganze Menge. Aber Panik ist unangebracht. Verlage sollten ihre Redaktionen vielmehr gut vorbereiten.
- von Andrea Gourd, Berlin
- 30.04.2024, 15:10 Uhr
- 7 Kapitel, 9 min Lesezeit
- Zur Kurzfassung des Artikels
Künstliche Intelligenz im Journalismus: Wie generative KI das Feld neu definiert
Nein, dieser Beitrag beginnt nicht mit der inzwischen zum Klassiker gewordenen Eröffnung nach den ersten Sätzen, dass ChatGPT sie formuliert hat. Aber Sie hätten es vermutlich auch nicht bemerkt, wenn es so wäre. Daher müssen wir reden. Über Künstliche Intelligenz (KI) und darüber, was sie mit dem Journalismus macht. Denn so viel steht fest: KI ist gekommen, um zu bleiben.
Neu eingetroffen ist sie allerdings nicht. Schon seit Jahren werden Machine-Learning-Modelle erfolgreich im Journalismus verwendet. „KI wird zum Beispiel eingesetzt, um zu entscheiden, ob ein Artikel kostenlos oder hinter einer Paywall ist. Ein Use Case mit einem enormen Impact auf das Geschäftsmodell von Verlagen“, sagt Alessandro Alviani. Er ist Journalist und Produktleiter für Natural Language Processing (NLP) bei Ippen Media. Und er weiß: „Wenn wir nur über KI reden, dann ist das nichts wirklich Neues im Journalismus. Grundlegend neu sind aber die Anwendungsmöglichkeiten von generativer KI.“Aber gerade weil Kriegsparteien lügen und verschweigen, mit Propaganda beeinflussen und Falschinformationen streuen, ist die journalistische Arbeit vor Ort so wichtig. „Ohne da zu sein, kann ich nicht fühlen, hören, sehen. Ohne da zu sein, kann ich keine authentischen Augenzeugenberichte machen“, erklärt Paul Ronzheimer von BILD, aktuell einer der profiliertesten Kriegsreporter in der Ukraine. Auch für Christina Hebel vom SPIEGEL ist es essenzieller Bestandteil journalistischer Arbeit, vor Ort zu sein und sich ein eigenes Urteil zu verschaffen.
KI als Werkzeug, nicht als Entscheider
Wie vielfältig diese Anwendungsmöglichkeiten in der Medienbranche sind, bringt Jessica Heesen den Studierenden an der Uni Tübingen bei. Dort leitet sie den Forschungsschwerpunkt Medienethik und KI mit dem Kernthema Sicherheit und ethische Aspekte von Künstlicher Intelligenz. Für sie liegt auf der Hand: Viele Tätigkeiten im Journalismus lassen sich KI-unterstützt schneller und effizienter erledigen. „KI-Sprachmodelle im redaktionellen Alltag können Hilfsdienste leisten wie Zusammenfassungen, Übersetzungen oder auch stilistische Überprüfungen von Texten. Darüber hinaus kann KI auch Medieninhalte wie Texte, Bilder oder Tonbeiträge generieren. Sie kann journalistische Arbeit teils also auch ersetzen“, so Heesen.
Was sie aber nicht kann, ist die Einhaltung medienethischer Prinzipien, die Anwendung journalistischer Sorgfaltspflichten oder Qualitätssicherung. Sie kann auch keine originären Quellen schaffen. Hier braucht es den Menschen. Und zwar unabdingbar. Denn wenn durch KI erzeugte „synthetische Medien“ immer häufiger Teil der öffentlichen Kommunikation werden, kann daraus „ein generelles Misstrauen in der Öffentlichkeit gegenüber Medienkommunikation entstehen“, warnt Heesen. Um dem entgegenzuwirken, hält sie verbesserte Qualitätssicherungen für KI und technische Lösungen zur Erkennung von Falschinformationen und KI-generierten Medieninhalten für dringend erforderlich.
Zwei Punkte sind für Heesen essenziell, wenn KI in Redaktionen eingesetzt wird: KI-generierte Medieninhalte müssen als solche gekennzeichnet werden. Und es muss jederzeit bei der menschlichen Aufsicht bleiben: „Durch KI erstellte Recherchen oder Inhalte müssen also in jedem Schritt überwacht und verifiziert werden können“, verlangt die Medienethikerin.
„Zeitungsverlage haben die Aufgabe, ihre Mitarbeiterinnen und Mitarbeiter auf die neuen Herausforderungen und Chancen durch KI vorzubereiten.“
PD Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI an der Universität Tübingen
Disruption als Chance
Für den Beruf des Journalisten erwartet Christoph Kesse gravierende Veränderungen. KI werde die redaktionelle Produktion automatisieren, glaubt der visionäre Geschäftsführer des Axel-Springer-Beratungsunternehmens Hy. Anders als bei der Automatisierung durch Roboter treffe dies auch die hochqualifizierten intellektuellen Berufe. Wie reagieren? Am besten, indem man die neue Technologie so früh wie möglich in die eigene Wertschöpfung einbaue. „Nichts schützt besser vor Disruption als die Disruption in Eigenregie“, so die Antwort des Digitalberaters, dessen Steckenpferd die Transformation von Geschäftsmodellen ist.
Abschaffen werden ChatGPT & Co. den Journalismus jedenfalls nicht. Verändern werden sie ihn aber schon. Nicht zuletzt, weil die großen Sprachmodelle ein enormes Hilfstool für die Kreativarbeit sind. Keese glaubt, dass Journalismus und Verlage einen Boom erleben, „wenn sie das liefern, was kein Bot liefern kann.“ Was genau das ist, müssen Verlage herauskristallisieren.
„Nichts schützt besser vor Disruption als die Disruption in Eigenregie.“
Christoph Keese, Geschäftsführer axel springer hy gmbh
Einfach ausprobieren
Unaufgeregtes, ergebnisoffenes Testen – das ist auch der dringende Rat von Alessandro Alviani. Statt mit dystopischen Untergangsszenarien sollten sich Verlage viel stärker mit den realen Möglichkeiten der neuen Techniken befassen, meint er. Für ihn ist der Aufbau von KI-gesteuerten Produkten für Redaktionen ein täglicher Job. Dass er ihn mit Leidenschaft macht, lässt die Begeisterung ahnen, mit der er darüber spricht. Aber Alviani betont auch, dass Verlage individuell entscheiden sollten, ob und wie sie KI-Tools nutzen möchten. Am Anfang steht das „Warum“, die Frage nach der konkreten Zielsetzung. Erst ein Test zeige, ob das eingesetzte Tool dann tatsächlich die gewünschte Verbesserung bringt. Falls nicht, müsse man flexibel genug bleiben, etwas wieder zu verwerfen.
Ippen gehört im deutschen Markt zu den Vorreitern, was KI-Anwendungen in der Redaktion betrifft. Mit konkreten Beispielen macht Alviani deutlich, wie sie die Arbeit der Redakteurinnen und Redakteure unterstützen können: Ein Überschriften-Tool spuckt auf Knopfdruck zehn Überschriftenvorschläge für einen Artikel aus. Direkt integriert ins Content-Management-System, ohne Eingabe von Prompts, jederzeit manuell vom Redakteur anpassbar. Ganz wichtig dabei, so Alviani: „Es gibt hier keine Vollautomatisierung. Dem Redakteur bleibt die Entscheidung überlassen.“ Er hat aber nicht nur das Recht, er hat zur Qualitätssicherung auch die Pflicht, jeden vom Sprachmodell vorgeschlagenen Inhalt vor der Veröffentlichung zu überprüfen.
Haben früher Überschrift und Teaser nicht recht zusammengepasst oder der Vorspann zu wenig zum Weiterlesen animiert, unterstützt bei Ippen inzwischen auch da eine KI-Anwendung.
Sie schlägt automatisch drei passende Teaser vor, der Redakteur oder die Redakteurin treffen die finale Entscheidung. Von der Redaktion werde das hervorragend angenommen. Auch deshalb, weil die Konzeption gemeinsam mit ihr und dem Textchef erfolgte und das Tool als wertvolle Unterstützung wahrgenommen wird – ohne dass es in die Autonomie des Redakteurs eingreift. „Wir entwickeln nie etwas top-down. Die Kolleginnen und Kollegen sind immer eingebunden“, formuliert der frühere Deutschlandkorrespondent der italienischen Zeitung „La Stampa“ einen Grundsatz.
Er glaubt, dass die journalistische Qualität durch solche Unterstützungstools besser werden kann. Nicht zuletzt dadurch, dass den Journalisten mehr Freiraum bleibt, wenn zeitfressende Routinetätigkeiten von der Technik übernommen werden. Die können sie dann in ausführliche Recherchen und originäre Texte stecken.
„Wir entwickeln nie etwas top-down. Die Kolleginnen und Kollegen in der Redaktion sind immer eingebunden.“
Alessandro Alviani, Product Lead Natural Language Processing Ippen Digital GmbH & Co. KG
Ängste ernst nehmen
„Aber natürlich gibt es auch Unsicherheiten. Da muss man ehrlich sein“, sagt Alviani. „Wir nehmen diese Ängste sehr ernst.“ Künstlicher Intelligenz würden oft übertriebene Fähigkeiten zugesprochen, die nicht der Realität entsprechen. Das schüre Verunsicherung. Das beste Mittel dagegen? „Schulen und verstehen.“ Der Google-eigene Textroboter Bard könne nicht mal die richtige Antwort auf die Frage geben, wie oft der Buchstabe „e“ in Google enthalten sei. Eine solche Technik tauge nicht zur Auslöschung der Menschheit, schmunzelt Alviani. Und: „Je mehr wir uns mit den Tools beschäftigen, desto realistischer ist unser Blick darauf.“
Mit viel direktem Austausch, monatlichen Formaten zur Vorstellung von Entwicklungen, einer speziellen KI-Sprechstunde und regelmäßigen Feedbackschleifen versucht Ippen, Mitarbeiterinnen und Mitarbeitern Unsicherheiten zu nehmen und ihren Blick zu schärfen. Auch dafür, wie fehlerbehaftet KI-Tools sind. Alviani nennt es das „Empowerment“ der Redaktion.
Medienmarken als Garant für Vertrauen
Wissenschaftlerin Heesen sieht Publisher ebenfalls in der Pflicht, aufzuklären und zu schulen: „Zeitungen und Presseverlage haben die Aufgabe, ihre Mitarbeiterinnen und Mitarbeiter auf die neuen Herausforderungen und Chancen durch KI vorzubereiten. Hier sind also Fortbildungen gefragt und ein transparenter Umgang mit der Nutzung von KI in Redaktionen.“ Etliche Verlage und Digitalpublisher haben bereits solche Leitlinien für ihr Unternehmen formuliert. Wie aufgeschlossen sie sich für KI-Anwendungen zeigen und wo sie Grenzen ziehen, ist dabei durchaus unterschiedlich. Während für die einen – zum Beispiel die Frankfurter Allgemeine Zeitung – die Verwendung von KI-generierten Bildern nicht infrage kommt, setzen andere – auch Ippen – sie ein. Wichtig ist nur für alle: Es muss Leitplanken geben, innerhalb derer sich eine Redaktion bewegen darf. Und es muss – auch für Leserinnen und Leser – transparent sein, welche das sind.
Menschliche Intelligenz
Allein schon um der Glaubwürdigkeit willen fordert Heesen von Medienhäusern, sich eine Selbstverpflichtung im Umgang mit KI-Anwendungen zu geben und diese in die Öffentlichkeit zu kommunizieren. Denn „in zukünftigen Medienlandschaften, in denen KI bei der Recherche, Produktion und Distribution eine große Rolle spielen wird, liegt die Chance und Verantwortung des Journalismus darin, Garant für vertrauenswürdige Kommunikation zu sein.“ Denn auch, wenn die Künstliche Intelligenz gekommen ist, um zu bleiben: Entscheidend bleibt die menschliche Intelligenz.
Die 5 KI-Guidelines der Deutschen Presse-Agentur (dpa)
- Die dpa setzt KI zu verschiedenen Zwecken ein und steht dem verstärkten Einsatz von KI aufgeschlossen gegenüber. KI wird helfen, unsere Arbeit besser und schneller zu machen – immer im Sinne unserer Kunden und unserer Produkte.
- Die dpa setzt KI nur unter menschlicher Aufsicht ein. Die letzte Entscheidung über den Einsatz von KI-basierten Produkten trifft ein Mensch. Wir achten die menschliche Autonomie und den Vorrang menschlicher Entscheidungen.
- Die dpa setzt nur rechtmäßige KI ein, die sich an geltendes Recht und gesetzliche Bestimmungen hält und die unseren ethischen Grundsätzen gerecht wird, also etwa der menschlichen Autonomie, Fairness und demokratischen Werten.
- Die dpa setzt KI ein, die technisch robust und sicher ist, um die Risiken für Fehler und Missbrauch zu minimieren. Dort, wo Inhalte ausschließlich durch KI erzeugt werden, machen wir dies transparent und erklärbar. Die Verantwortung für alle mit KI erzeugten Inhalte trägt stets ein Mensch.
- Die dpa ermuntert alle Mitarbeiterinnen und Mitarbeiter, sich offen und neugierig mit den Möglichkeiten von KI zu befassen, Tools zu testen und Vorschläge für die Nutzung in unseren Workflows zu machen. Entscheidend sind Transparenz, Offenheit und die Dokumentation.