Initiativen des Börsenvereins und der Stiftung Buchkultur und Leseförderung des Börsenvereins

Eine Übersicht der Projekt-Webseiten des Börsenvereins des Deutschen Buchhandels und der Stiftung Buchkultur und Leseförderung des Börsenvereins des Deutschen Buchhandels.

Kontakt
Politik & Positionen

Künstliche Intelligenz

Klare Regeln für KI – jetzt!

Der Einsatz von KI-Systemen ist inzwischen in allen Lebensbereichen Realität und längst auch in der Buchverlagswelt angekommen. Zur Optimierung von Produktionsprozessen, für die Auflagenplanung von Publikationen, für Plagiatsprüfungen oder Nachfrageprognosen ist KI ein vielseitig einsetzbares Werkzeug, das viele Verlage mit der gebotenen Sorgfaltspflicht nutzen und nicht mehr missen möchten. Anders sieht es mit dem Einsatz von generativen KI-Systemen aus, wie sie mit ChatGPT, GPT-4, BERT oder DALL-E 2 auf dem Markt sind. Diese so genannten „Foundation Models“ sind große neuronale Netzwerke, die maschinell lernen und über riesige Datenmengen vortrainiert werden, so dass sie anschließend auf neue Aufgaben, wie die Erstellung von Nachrichten, Bildern, Büchern, Filmen etc. adaptiert werden können.  Bei der Entwicklung dieser Systeme spielte es bislang offenbar weder eine Rolle, ob und wie diese Daten genutzt werden dürfen noch, ob die Zuverlässigkeit der Quellen gewährleistet werden kann. Es liegt auf der Hand, dass die unregulierte Entwicklung und Nutzung solcher KI-Systeme ein hohes Missbrauchspotential mit sich bringt.  Wie u.a. die zahlreich geäußerten Bedenken der KI-Entwickler selbst offenbaren, bedarf es dringend rechtlicher Leitplanken, die festlegen, was für und von KI-Systemen wie genutzt werden darf.

Mit dem bereits im Frühjahr 2021 vorgelegten AI Act (Entwurf einer Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz) hat die EU-Kommission einen wichtigen Schritt in die richtige Richtung getan. Allerdings war die Ausrichtung und Wirkmächtigkeit generativer KI-Systeme seinerzeit noch unbekannt und somit auch nicht Gegenstand der Überlegungen. Europaparlament, Rat und Kommission verhandeln derzeit im so genannten Trilog über die finale Ausgestaltung des AI Acts und haben somit die Möglichkeit, wichtige Weichen zu stellen. Das EU-Parlament hat bereits Vorschläge insbesondere zu Verhaltens- und Transparenzpflichten für KI-Entwickler gemacht, die jedoch wesentliche Fragen noch offenlassen.

Vor diesem Hintergrund positioniert sich der Börsenverein zu dem für seine Mitgliedsverlage relevanten Regulierungsbedarf im Hinblick auf KI-Systeme.

    Generative KI

    Generative KI erlangt ihre Fähigkeit zur Erstellung von Texten, Bildern, Musik oder anderen Inhalten stets durch die massenhafte Nutzung urheberrechtlich geschützter Werke. Nur durch die Auswertung riesiger Mengen menschlicher geistiger Schöpfungen als Trainingsmaterialien wird sie in die Lage versetzt, auf der Grundlage von Aufforderungen („Prompts“) der Nutzer*innen z.B. einen Text herzustellen. Erst dann sprechen wir von „generativer“ KI im Unterschied zu Anwendungen, die auf Basis der Analyse von Daten etwa Muster erkennbar machen oder Trends entdecken, wie etwa in der medizinischen Diagnostik oder der Meteorologie.

    Die heute am Markt befindlichen kommerziellen generativen KI-Modelle wie ChatGPT, GPT-4, BERT oder Dall-E 2 haben urheberrechtlich geschützte Werke in ungeahnten Mengen als Trainingsdaten vervielfältigt und analysiert, ohne dass dafür die Zustimmung der Rechteinhaber*innen eingeholt worden wäre. Diese Nutzungen müssen als Urheberrechtsverletzungen in bisher nicht dagewesenem Ausmaß betrachtet werden. Zugleich können die Produkte generativer KI am Markt unmittelbar mit den Werken konkurrieren, die von Menschen geschaffen werden. Die Auswirkungen dieser Urheberrechtsverletzungen sind dadurch massiv bis hin zur potentiellen Existenzgefährdung der Rechteinhaber*innen der genutzten Werke.

    Entwickler und Betreiber generativer KI-Modelle müssen Inhalte, die sie für ihre kommerziellen Produkte nutzen möchten, zuvor lizenzieren. Wir fordern eine Klarstellung durch den Europäischen Gesetzgeber, dass die entsprechenden Nutzungen nur mit Zustimmung der Rechteinhaber*innen rechtskonform sind. Im Hinblick auf die bereits illegal genutzten Werke verlangen wir von den Technologieunternehmen Rechenschaft: Sie müssen offenlegen, welche Werke als Trainingsdaten genutzt wurden und in welcher Häufigkeit. Erst dann können Rechteinhaber*innen in angemessener Weise entschädigt werden. Illegal entstandene Datenkorpora müssen gelöscht und KI-Modelle mit legalen Datenbeständen neu aufgesetzt werden. Anderenfalls drohen irreparable Schäden für die Verwertung unserer Werke. Wir beobachten mit Interesse die bereits angestoßenen gerichtlichen Auseinandersetzungen um Schadensersatz in verschiedenen Ländern.

    Wir stellen uns dabei keineswegs insgesamt der Entwicklung generativer KI entgegen. Für die Zukunft können wir uns verschiedene Modelle der Lizenzierung von Werken zur Weiterentwicklung generativer KI-Modelle vorstellen. Nur so lässt sich zugleich sicherstellen, dass Rechteinhaber*innen fair für die Nutzung ihrer Werke vergütet werden, sofern sie sie gestatten möchten. Schon aus Gründen des Urheberpersönlichkeitsrechts muss diese Entscheidung Urheber*innen vorbehalten bleiben: für generative KI muss es beim „Opt-In“ bleiben. Dies liegt ohnehin im Interesse der Betreiber von KI, denn auch zukünftig werden generative KI-Modelle den steten Zustrom neu geschaffener, urheberrechtlich geschützter Werke benötigen, um das Problem des sog. “Overfittings”, also einer Art digitaler Amnesie durch Selbst-Referenzieren, zu vermeiden. Insofern wird es ein reges Interesse der Betreiber generativer KI geben, sicher zu stellen, dass sie qualitativ hochwertige persönlich-geistige Schöpfungen echter Menschen als Trainingsdaten nutzen können. Deshalb sollten Rechteinhaber*innen den nötigen rechtlichen Boden unter den Füssen haben, um auf Augenhöhe mit den die generativen KI betreibenden Plattformen angemessene Vergütungsvereinbarungen abschließen zu können. Anderenfalls wird die gegenwärtige Praxis, intransparent, ungefragt und illegal generative KI-Modelle mit urheberrechtlich geschützten Werken zu trainieren, schlichtweg normalisiert und als innovationsfördernde “Disruption” verkauft werden.

    TDM und KI

    Von der generativen KI zu unterscheiden sind KI-Modelle, die anhand von Daten lernen, neues Wissen zu generieren, indem sie Muster erkennen oder Trends aufzeigen und die keine Produkte wie Texte, Bilder, etc. erstellen. Auch hierfür werden bereits urheberrechtlich geschützte Werke als Trainingsmaterial verwendet, wie etwa zigtausende belletristische Werke, Ratgeber oder wissenschaftliche Fachliteratur. Wir müssen davon ausgehen, dass auch in diesem Bereich viele Nutzungen illegal vorgenommen worden sind und noch werden.

    Ein Teil dieser Nutzungen mag seit Einführung der Schranken für Text- and Data-Mining auf Grundlage der Urheberrechtsrichtlinie von 2019 legal erfolgt sein. Diese Regelungen wurden erklärtermaßen geschaffen, um maschinelles Lernen, auch für bestimmte Zwecke der KI, zu ermöglichen und 2021 in nationales Recht eingeführt (§§ 44b, 60d UrhG). Generative KI ist von diesen Zwecken, nämlich der Gewinnung neuer Erkenntnisse und der Entdeckung neuer Trends (s. Erwägungsgrund 8 der Richtlinie), hingegen erkennbar nicht erfasst. Würden nämlich auf Basis einer Urheberrechtsschranke KI-Produkte generiert, die mit den Werken der Rechteinhaber*innen in Wettbewerb treten können, so würde dies die normale Verwertung der genutzten Werke stören und die legitimen Interessen der Rechteinhaber unzumutbar beeinträchtigen. Dies wäre mit einer völkerrechtskonformen Auslegung der Richtlinie nicht vereinbar (s. Erwägungsgrund 6 UrhR-RL und Art. 9 Abs. 2 RBÜ). Die Gelegenheit des AI Act sollte genutzt werden, um dies klarzustellen.

    Weiterhin muss kommerzielles TDM einer Vergütungspflicht unterworfen werden. Wir sehen dringenden Nachbesserungsbedarf an § 44b UrhG, um einen fairen Interessensausgleich herzustellen. Derzeit können Unternehmen der Tech-Branche Geschäftsmodelle auf dem Rücken der Rechteinhaber*innen aufbauen, ohne die Investition von Rechteinhaber*innen in ihre Werke in fairer Weise abzugelten. Die Auswirkungen dieser Regelung wurden offenbar nicht bedacht.

    Zugleich stehen Rechteinhaber*innen im Hinblick auf die TDM-Schranken vor einer „Black Box“: Es ist nahezu unmöglich festzustellen, ob die Bedingungen der Schrankenregelungen in §§ 44b und § 60d UrhG eingehalten werden. Wir benötigen dringend Transparenzregeln, die uns erlauben, die korrekte Anwendung der Schranken zu überprüfen. Wir müssen erfahren können, ob etwa der KI-Betreiber eine Institution ist, die sich auf die Schranke zugunsten wissenschaftlicher Forschung berufen kann – oder ob durch die Hintertür die Ergebnisse wissenschaftlicher Forschung kommerziellen Partnern zur Verfügung gestellt werden. Solche Fälle der „Datenwäsche“ werden wir nur erkennen können, wenn für die Nutzer von TDM praktisch durchsetzbare Offenlegungspflichten gelten. Auch, ob die Regeln zur Aufbewahrung bzw. Löschung von Datenkorpora eingehalten werden, können wir ohne entsprechende Transparenz nicht erkennen.

    Insbesondere muss Rechtssicherheit im Hinblick auf die – ohnehin für Rechteinhaber*innen belastende – Opt-Out-Regelung des § 44b UrhG geschaffen werden: Rechteinhaber*innen müssen sicher sein können, dass die von ihnen erklärten Opt-Outs respektiert werden. Sollten diese nicht beachtet werden, müssen wir auf wirksame Rechtsbehelfe zurückgreifen können – was ohne Überprüfbarkeit des Verhaltens der TDM-Betreiber nicht möglich ist.

    Transparenzpflichten

    Die aktuell im Art. 28b Nr. 4 lit. c) des Vorschlags des Europaparlaments (Änderungsantrag 399) vorgesehene Verpflichtung zur Transparenz geht nicht weit genug. Sie erfasst zunächst nur generative KI, müsste aber ebenso auf TDM-basierte Modelle angewendet werden.

    Zudem müsste sie deutlich höhere Anforderungen stellen. Sofern die KI-Modelle Werke nutzen, für die an der Datenquelle Metadaten vorliegen, müssten diese verpflichtend dokumentiert werden. Sollten keine Metadaten zur Verfügung stehen, muss die Quelle der Daten eindeutig benannt werden, um die Nachvollziehbarkeit der betroffenen Werke zu ermöglichen. Dies ist ein zumutbarer Aufwand, denn die Umsetzung solcher Pflichten ist für die Betreiber von TDM durchaus zu leisten. Die Erfassung vorliegender ISBN wäre für die Maschinen, die mit riesigen Datenmengen arbeiten, ein Leichtes, ebenso die Dokumentation der Herkunft der Daten – die ohnehin im eigenen Interesse der Betreiber liegt.

    Wie jede Regelung, die durchsetzbar sein soll, müssen die Transparenzpflichten für den Fall ihrer Verletzung mit entsprechenden Rechtsfolgen bewehrt werden. Im Hinblick auf eine denkbare irreversible Situation, in der Maschinen Gelerntes nicht mehr vollständig “verlernen” können, müssen Bußgeldvorschriften einen abschreckenden Charakter haben.

    Kennzeichnungspflicht

    Die Produkte generativer KI stellen keine persönlich-geistigen Schöpfungen dar und genießen daher keinen Urheberrechtsschutz. Oftmals sind sie jedoch von durch Menschen geschaffenen Werken nicht mehr zu unterscheiden. Qualitativ sind sie echten Werken häufig unterlegen, und sie bergen eine besonders hohe Gefahr, inhaltlich fehlerhaft, manipulativ oder gar rechtswidrig zu sein.

    Um Verbraucher*innen zu schützen, Missbrauch zu verhindern und haftungsrechtliche Klarheit herzustellen, bedarf es einer Kennzeichnungspflicht bei Produkten, die rein KI-generiert sind und für deren Gestaltung und Inhalt kein*e menschliche*r Urheber*in Verantwortung übernimmt. Die Kennzeichnungspflicht in Art. 52 Abs. 3 des AI Act muss entsprechend erweitert werden. Nur so kann z.B. massenhafter Betrug durch Anmeldung KI-generierter Produkte als vermeintliche Werke bei Verwertungsgesellschaften oder Bot-betriebenes massenhaftes Streaming von durch KI aus anderen Werken zusammengestellten “Büchern” auf Self-Publishing-Plattformen verhindert werden. Auch hier bedarf es zur Durchsetzbarkeit entsprechender Offenlegungspflichten und Sanktionsdrohungen für KI-Betreiber.

    Wir fordern:

    • Eine Klarstellung, dass generative KI nicht auf Grundlage der Schranken für TDM betrieben werden darf.
    • Wirksame Transparenzpflichten für Betreiber von generativer KI und TDM hinsichtlich der Nutzung urheberrechtlich geschützter Werke, die als Mindestanforderung die Dokumentation von Metadaten und/oder genauen Quellen der Werke vorschreiben.
    • Die Ergänzung von § 44b UrhG (kommerzielles TDM) um eine Vergütungspflicht.
    • Eine Verpflichtung zur Kennzeichnung rein KI-generierter Produkte.

    Häufig gestellte Fragen zur Künstlichen Intelligenz im Verlagsbereich und die damit verbundenen urheberrechtlichen Fragen beantworten wir unseren Mitgliedern hier.