nach
oben
© Solen Feyissa, Unsplash

Es ist Eile geboten

Chancen und Risiken liegen in der ChatGPT-Welt nah beieinander. Klar ist, dass generative Künstliche Intelligenz Regeln und ethische Guidelines braucht. Nicht nur die Geschäftsmodelle von Verlagen sind sonst in Gefahr. Auch die Medienvielfalt ist es.

Zur Merkliste hinzufügen
Teilen über

Die Macht der Gatekeeper

Es ist kompliziert. Mit dieser Beziehungsformel lässt sich das Verhältnis zwischen dem Schutz von Grundrechten und dem Freiraum für Innovationen im Kontext von Künstlicher Intelligenz (KI) umreißen. Einerseits trägt KI ein enormes Potenzial für Publisher in sich. Andererseits brauchen KI-Anwendungen einen klaren und fairen Rechtsrahmen, damit Verlage dieses Potenzial auch ausschöpfen können und Gefahren für freie Meinungsbildung und -vielfalt abgewendet werden.

Für die unabhängige, professionelle Presse bleiben journalistische Standards auch bei Nutzung von KI-Technolo­gien unverändert gültig: das Prinzip der verantwortlichen Absenderschaft, die Prüfung von Fakten und Quellenlagen, die Einhaltung der ethischen Grundsätze des Deutschen Presserates. Hier braucht es keine neuen Regeln.

Wenn aus sprachbasierten Systemen aber eine reine „KI-Presse“ entsteht und dies kombiniert wird mit der Marktmacht einer digitalen Plattform – dann ergeben sich daraus Risiken. Markt­beherrschende Gatekeeper wie Google, Amazon, Facebook, Apple oder Microsoft könnten mit eigenen Sprachmodellen ihren meinungsbildenden Einfluss weiter zementieren. Der Wettlauf um die besten KI-Chatbots ist bereits in vollem Gange.

Dass Netzwerkeffekte in Verbindung mit den Datenschätzen der großen Player bereits zu einer sehr weitgehenden Konzentration ge­führt haben, konstatiert auch der Präsident des Bundeskartellamts, Andreas Mundt. Im Interview mit der Frankfurter Allgemeinen Zeitung am 20. Juni 2023 äußert er die Befürchtung, dass KI diesen Prozess weiter verstärken werde: „Die Machtposition der großen Digitalkonzerne wie Amazon, Apple, Google, Meta und Microsoft wird weiter zementiert, weil sie ihren Zugriff auf unglaubliche Datenmengen für KI-Anwendungen nutzen können. In Verbindung mit den Netzwerkeffekten könnte sich ihre Datendominanz noch viel stärker auswirken, wenn wir in eine KI-gesteuerte Welt gehen“, prognostiziert Mundt. Maßnahmen zum Schutz vor KI-Gatekeepern hat seine Behörde indessen noch nicht eingeleitet.

Reine KI-Presse in den Händen von Gatekeepern wäre ein ­perfekter Nährboden für intransparente Meinungs- und Informationslenkung sowie Missbrauch.

BDZV-Position zur KI-Regulierung

„Reine KI-Presse in den Händen von Gatekeepern wäre ein perfekter Nährboden für intransparente Meinungs- und Informationslenkung sowie Missbrauch“, schreibt auch der Bundesverband Digitalpublisher und Zeitungsverleger (BDZV) in dem gemeinsam mit dem Zeitschriftenverband MVFP erstellten Positionspapier „Presse und KI-Regulierung“ vom Juli 2023. „Mit welchen Inhalten diese KI-Angebote beliefert und wie diese gewichtet werden, wird allein in der Macht der Gatekeeper stehen.“ Das macht eine missbräuchliche Einflussnahme auf die öffentliche Meinungsbildung möglich, die weder nachweisbar noch erkennbar wäre.

Ⅰ. Urheberrecht: Exklusives Recht, angemessene Vergütung und Durchsetzbarkeit

1. Exklusives Recht         
Presse und andere Medien müssen entscheiden können, ob und wie KI-Systeme ihre urheberrechtlich und leistungsschutzrechtlich geschützten redaktionellen Inhalte verwenden. Deshalb muss das mit Urheber- und Leistungsschutzrechten gewährte exklusive Recht an redaktionellen Inhalten ausdrücklich auch jede Nutzung durch KI-Systeme erfassen.       

  • Nutzungsvorbehalt: Nur rechtmäßig zugänglich gemachte Inhalte dürfen verwertet werden. Außerdem müssen Crawler verpflichtet werden, eine einfache, maschinenlesbare Möglichkeit zur Erklärung des Nutzungsvorbehalts anzubieten.
  • Zur Erklärung des Nutzungsvorbehalts ist auch derjenige berechtigt, der das Werk rechtmäßig veröffentlicht hat.
  • Optout ohne Nachteile: Die Ausübung des Nutzungsvorbehalts darf zu keiner Diskriminierung der Rechteinhaber führen, insbesondere zu keiner Schlechterstellung beim Zugang zu oder bei der Anzeige durch Suchmaschinen oder andere Plattformen.          
  • Das Verfügungsrecht muss jede Verwendung geschützter redaktioneller Inhalte durch KI-Systeme bspw. für Trainingszwecke oder als Information für die Erstellung von KI-Output erfassen.

2. Angemessene Vergütung:
Nur durch die Verwertung der von Menschen erstellten Sprach-, Bild- und sonstigen Werke und Schutzgegenstände können KI-Systeme überhaupt verwertbare Ergebnisse liefern. Für die Nutzung durch KI-Anbieter im Rahmen der gesetzlichen Erlaubnis ist eine mit effektiven Werkzeugen durchsetzbare, generelle Vergütungspflicht notwendig.

3. Nachweis der Verwertung geschützter Inhalte durch KI-Systeme:       
Die Nachweispflicht, ob KI-Anbieter Inhalte der Rechteinhaber genutzt haben, darf nicht bei den Rechteinhabern liegen, da dieser Nachweis in aller Regel unmöglich ist.

II. Bevorzugung konkurrierender Roboterpresse durch Suche oder andere Plattformen

Sollten Suchmaschinen oder andere Plattformen eigene KI-Inhalte oder KI-Inhalte von Kooperationspartnern gegenüber konkurrierenden Verlagsinhalten in Ranking, Ausführlichkeit und Sichtbarkeit oder bei Zugangsbedingungen bevorzugen, wäre das eine Diskriminierung durch Torwächter, die wie bei der Bevorzugung des nationalen Gesundheitsportals oder des eigenen Shopping-Dienstes untersagt werden muss.

III. Kennzeichnungspflicht für künstlich erstellte Medieninhalte

Der AI-Act der EU sollte keine Kennzeichnung verlangen, wenn Texte von Menschen überprüft werden und rechtliche oder redaktionelle Verantwortlichkeit für den Text besteht.

Quelle: Auszug aus BDZV/MVFP-Positionspapier: Medien und Regulierung, Juli 2023

Die Fehler der Vergangenheit hinsichtlich einer unzureichenden Plattformregulierung dürfen sich in Bezug auf KI-Anbieter nicht wiederholen

„AI? Act now!“

Auch die Geschäftsmodelle von Verlagen sind durch eine solche reine „KI-Presse“ gefährdet. Es sind schließlich ihre Redaktionen, die die medialen Inhalte erstellen. Das Geschäft damit machen aber die Distributionsplattformen. „Die Presse trägt die Kosten für die journalistischen Beiträge, monetarisiert werden diese aber primär durch KI-Anbieter, die die Beiträge für automatisch erstellte Konkurrenzveröffentlichungen verarbeiten“, warnen die Presseverbände.

Um Medienvielfalt zu sichern und das Potenzial von KI für Gesellschaft und Medienanbieter auch wirklich zu nutzen, sind gesetzliche Regelungen daher unerlässlich. Sie betreffen vor allem das Urheberrecht, den Schutz vor Diskriminierung durch Gatekeeper und eine Kennzeichnungspflicht für künstlich erstellte Medieninhalte der Gatekeeper. Minimalvorgaben genügen hier nicht, meint auch die Initiative Urheberrecht (IU). Unter dem Motto „AI? Act now!“ fordern ihre mehr als 40 Organisatio­nen und Verbände eine schnelle und effektive gesetzliche Regulierung von generativer KI. Zwar biete KI viele nützliche Anwendungsfelder und hilfreiche Tools. Es brauche aber konkrete Vorgaben, die „dem heute schon zu beobachtenden Missbrauch dieser Systeme und deren gesellschaftlichen und wirtschaftlichen Implikationen gerecht werden“, verlangt die Initiative.

Presseinhalte als wichtigste Quelle

Warum das für Verlage so essenziell ist, weiß einer, der sich bestens damit auskennt, was bei der Plattformregulierung gesetzlich möglich und nötig ist: Thomas Höppner. Der Professor für Wirtschaftsrecht und Rechtsanwalt mit Schwerpunkt Kartellrecht hat bereits mehrfach erfolgreich den Missbrauch von Marktmacht durch Apple, Google und Amazon vor Gericht angeprangert. In einer BDZV-­Masterclass für Mitgliedsverlage des Digitalpubli­sher- und Zeitungsverleger-Verbands hat der Big-Data-Experte die Herausforderungen generativer KI für die Geschäftsmodelle der Zeitungsverlage deutlich benannt.

Ausgangspunkt und „Urschleim des maschinellen Lernens“, so Höppner, sei die gigantische Datensammlung und -kuratierung. Hier gelte: „Je besser der Input, desto besser der Output.“ Nicht zufällig seien daher Presseinhalte die wichtigste Datenquelle für generative KI. Die Systeme durchsuchten das gesamte Netz in Echtzeit und präsentierten die – auch hinter Paywalls – zusammengetragenen Inhalte als eigene News, unter Umständen mit schwer erkennbaren Fehlern, sogenannten Halluzinationen. Selbstbewusst wirbt ChatGPT-Herausgeber OpenAI denn auch damit, GPT-4 könne „plausible, realistische und zielgruppenbezogene Inhalte erzeugen, einschließlich Nachrichtenartikel“.

Kampfansage an die Verlage

Das Problem: Für Leserinnen und Leser ist es nahezu unmöglich, zwischen KI- und menschlich generiertem Text zu unterscheiden. Das noch größere Problem: Die auf den Verlags-Webseiten gecrawlten und als eigene News vermarkteten Inhalte enthalten zumeist keine Herkunftsangabe, keinen Link zu Quellen, keinen Hinweis auf die Urheberschaft des präsentierten Contents.

Und eine angemessene Gegenleistung für die Ersteller der Inhalte? Fehlanzeige, so Höppner. „Eine Kampfansage an die Verlage“, findet er. Denn genau das sei das Geschäftsmodell KI-basierter Newsportale: Keine Lizenzgebühren zahlen, alles Fremde benutzen, um dann eigene Angebote daraus zu machen und diese zu vermarkten.

Bei den Verlagen lässt das die Warnlampen aufleuchten. Nicht nur, weil generative KI die Markteintrittsbarrie­ren für Fake Media senkt und damit das Vertrauen in alle Medien gefährden könnte. Sie schaffe auch einen „Tsunami an KI-Inhalten“, so Höppner. Diese KI-generierten Nachrichten können Big-Tech-Unternehmen über alle digitalen Distributionswege ausspielen. Dadurch ändern sich womöglich auch Nutzungsgewohnheiten. Wer nur noch mit dem Chatbot spricht und sich dort seine Informationen holt, der wird kaum mehr für ein Zeitungsabo bezahlen. Er kommt auch nicht mehr auf die Website des Publishers. Die Folgen für dessen Monetarisierung durch digitale Werbung und den digitalen Vertrieb liegen auf der Hand. Die Wertschöpfung aus journalistischer Leistung dreht sich: Nicht mehr die profitieren in erster Linie, die diesen Journalismus erbracht und finanziert haben. Sondern die, die ihn aus dem Web saugen und im eigenen Umfeld zu Geld machen. 

Die Systeme durchsuchen das gesamte Netz in Echtzeit und präsen­tierten die – auch hinter Paywalls –zusammengetragenen Inhalte als eigene News, unter Um­ständen mit schwer erkennbaren Fehlern.

Schutz vor Text- und Data-Mining

Welche Strategie können Verlage fahren? Ihre Daten schützen, rät Höppner. Zum einen technisch: Auch die besten KI-Systeme brauchen für ihren News-Aggregator aktuelle Daten und jagen ihre Crawler durchs Netz, um diese Daten bei den Produzenten aufzuspüren. Daher sollten Verlage technische Vorkehrungen treffen, um ihre Inhalte vor Scraping zu schützen. „Paywalls schützen nicht vor Crawlern“, macht Höppner klar.

Welche Crawler und Bots nun aber blockiert und welche zur Website durchgelassen werden sollen, ist keine leichte Entscheidung für Verlage. Schließlich möchte niemand Google gänzlich aussperren. Hier sind die SEO-Experten und Webmaster in den Medienhäusern gefragt. Eine Möglichkeit ist der Rechte­vorbehalt und ein maschinenlesbares Opt-out. So hat zum Beispiel die Frankfurter Allgemeine Zeitung (F.A.Z) einen Widerspruch gegen kommerzielles Text- und Datamining im Impressum hinterlegt und dies in maschinenlesbarer Form auch in den Meta-Tags ihrer Website integriert.

Als weitere Optionen nennt Höppner das Blockieren aller Crawler bekannter KI-Lieferanten in robots.txt. oder – noch sicherer – das standardmäßige Blockieren aller Bots mit selektiver Erlaubnis für Webcrawler von zuverlässigen oder unverzichtbaren Anbietern. Möglich seien auch ein gezieltes Untersagen der Indexierung für das KI-Training und versteckte Quellenangaben zum Beispiel durch Wasserzeichen. „Sie müssen diese technischen Optionen nutzen, solange es keine rechtlichen Schutzmöglichkeiten gibt“, appelliert Experte Höppner an die Verlagsmanager. Denn: „Es ist Eile geboten.“

Das gilt auch für das Schließen der rechtlichen Schutzlücken im Urheber-, Leistungsschutz- und Kartellrecht. Die Geschäftsführerin der Initiative Urheberrecht (IU), Katharina Uppenbrink: „Wir brauchen die Regulierung JETZT – denn das Zeitfenster für eine effektive Regulierung des Markteintritts wird sich bald schließen.“

Mehr zu Perspektive

Gespeicherten Artikel entfernen?

Auf einen Blick

zurück

Übersicht

zurück
Teilen auf LinkedIn