Klagen gegen Meta und Anthropic: Wird Raubkopieren beim KI-Training legal?
Man könnte es eine schlechte Woche fürs Urheberrecht nennen. Zumindest auf den ersten Blick: In zwei Urteilen haben US-Gerichte in den vergangenen Tagen Copyright-Klagen von Autorinnen und Autoren zurückgewiesen. Sie hatten den Tech-Unternehmen Meta und Anthropic den unerlaubten Einsatz ihrer Werke fürs Training sogenannter Großer Sprachmodelle (auf Englisch: „Large Language Model“, kurz LLM) vorgeworfen.
Im einen Fall hatte Anthropic, ohne entsprechende Lizenzen zu besitzen, eine riesige digitale Bibliothek erstellt, um damit sein großes KI-Sprachmodell „Claude“ zu trainieren. Dagegen hatten Andrea Bartz und zwei Autorenkollegen vor dem Bundesbezirksgericht für Nordkalifornien geklagt. Am Montag, 23.6., erging das Urteil – zumindest teilweise – zugunsten von Anthropic.
Zwei Tage später wies ein weiterer Bundesrichter am gleichen Gericht eine ähnlich gelagerte Klage von 13 Autoren zurück. Sie hatten moniert, die Facebook-Mutter Meta habe ihr LLM ohne Erlaubnis mithilfe von 13 Werken der Klägerinnen und Kläger trainiert. Das 2023 angestrengte Verfahren war einer der ersten Fälle dieser Art, in denen Autoren beklagten, dass der Tech-Gigant ihr Urheberrecht verletzt habe. Seither gibt es Dutzende ähnlicher KI-Urheberrechtsklagen vor US-Gerichten.
Entsprechend wegweisend scheinen nun die beiden prominenten Verfahren zu sein. Schließlich fallen beide Urteile in eine Zeit, in der die Diskussion über den Rechtsrahmen an Intensität gewinnt, wie sich urheberrechtlich geschütztes Material in der KI-Entwicklung nutzen lässt. Dabei stellen sich die Tech-Konzerne unter anderem auf den Standpunkt, dass sie es gar nicht darauf anlegten, (Raub-)Kopien der geschützten Werke zu erzeugen. Die Bücher, sinngemäß, nur als Rohstoff oder Inspiration für die Kreativität der eigenen LLMs zu verwenden, sei durch die im US-Urheberrecht verankerte Klausel des sogenannten „Fair Use“, der fairen Nutzung, abgedeckt.
Eine Auffassung, der sich beide Richter mit ihren Urteilen anzuschließen scheinen; jedenfalls auf den ersten Blick.
Meta und Anthropic feierten die Urteile in jedem Fall umgehend als wichtigen Beitrag, um mithilfe von „Open-Source-KI-Modellen […] transformative Innovationen, Produktivität und Kreativität für Einzelpersonen und Unternehmen voran [zu treiben]“. Die „faire Verwendung von urheberrechtlich geschütztem Material“ sei ein „wichtiger rechtlicher Rahmen für den Aufbau dieser transformativen Technologie“, schrieb Meta nach dem Urteil.
Training ist erlaubt, klauen nicht.
Doch bedeuten die beiden Verfahren tatsächlich einen Dammbruch fürs Urheberrecht und geben sie den Techkonzernen wirklich einen Freibrief, urheberrechtlich geschützte Inhalte nach Gutdünken für die Entwicklung und Verbesserung ihrer KI-Systeme zu nutzen? Womöglich sogar kostenfrei? Und das sogar für Werke europäischer Kreativer?
Eher nicht. Tatsächlich entschied Richter William Alsup im Verfahren gegen Anthropic zwar, dass überwiegend Gründe für eine Nutzung der Werke auf Basis der Fair-Use-Regel vorlagen. Insofern sei das Vorgehen des KI-Entwicklers grundsätzlich zulässig. Allerdings, und damit schränkte er die Möglichkeiten der Tech-Branche umgehend wieder ein, müssten die Unternehmen die Texte und Bücher legal besitzen. Im konkreten Fall aber habe Anthropic mehr als sieben Millionen E-Bücher von illegalen Piratenseiten heruntergeladen.
Mit der Folge, dass zwar der eigentliche Prozess, dass ein KI-System Inhalte aus Tausenden fremder Werke destilliert, um damit eigene Texte zu produzieren, nach dem US-Urheberrecht als „Fair Use“ gilt. Denn er sei „durch und durch transformativ“, schrieb der Richter. Zugleich aber müsse sich Anthropic wegen der Nutzung von Raubkopien weiterhin einem andauernden Gerichtsverfahren stellen.
Soll wohl heißen: Hätte das Unternehmen alle Bücher aus öffentlichen Bibliotheken entliehen, gescannt und dann in die KI eingespeist, wäre zumindest dieses Verfahren mit einem Freispruch geendet. Ob das allerdings jedes andere Gericht, bei dem derzeit noch ähnliche Verfahren anhängig sind, ebenso sieht, ist völlig offen. Und für die Rechtsprechung in Europa eignet sich das Anthropic-Urteil erst recht nicht als Präzedenzfall: Eine dem US-Recht vergleichbare Fair-Use-Regel gibt es in Europa nicht.
Auch der Freispruch für Meta ist weniger umfassend, als es das erste Statement des Konzerns vermuten lässt.
Dass er ihre Klage abgewiesen habe, begründete der Vorsitzende Richter Vince Chhabria damit, dass die Klagenden primär darauf abgestellt hätten, das unerlaubte Training schmälere ihre Möglichkeit, die eigenen Werke selbst dafür zu lizenzieren. Und dass Metas Llama-KI möglicherweise kurze Auszüge aus den Texten reproduzieren können. Beides, so der Richter, wiege aber nicht so schwer, „dass es von Belang ist“ und eine Verurteilung rechtfertige. Damit sei dem Gericht keine Wahl geblieben, „diese“ Klage abzuweisen. Anders formuliert: Hätten die Kläger andere Argumente vorgebracht, wäre das Verfahren für Meta wohl ganz anders ausgegangen.
Genau so wollte der Richter am Mittwoch auch verstanden werden. Er betonte in seiner Begründung, das Urteil stehe „nicht für die Behauptung, dass die Verwendung von urheberrechtlich geschütztem Material durch Meta zum Trainieren seiner Sprachmodelle rechtmäßig ist“. Vielmehr hätten die Kläger schlicht versäumt, die richtigen Argumente vorzutragen. Denkbar sei etwa, dass KI-Modelle, die auf den Büchern der Kläger trainiert wurden, „den Markt mit endlosen Mengen an Bildern, Liedern, Artikeln, Büchern und mehr überschwemmen“ und damit dem Markt für die Originalwerke schaden könnten.
Konkret sei er überzeugt, „unter vielen Umständen wird es illegal sein, urheberrechtlich geschützte Werke zu kopieren, um generative KI-Modelle ohne Erlaubnis zu trainieren“. Damit könnte es sich für Meta sogar als Pyrrhussieg erweisen, dass der Konzern sich mit seinem Antrag durchgesetzt hat, den Fall abzulehnen.
Denn statt eines glatten Freispruchs listet der Richter in seinem 40-seitigen Urteil zahlreiche Gründe für die Annahme auf, dass Meta und andere KI-Unternehmen das Copyright von Autorinnen und Autoren geradezu systematisch und in Serie verletzt haben. Das bedeute, „dass Unternehmen, um Copyright-Verletzungen zu vermeiden, in der Regel die Urheberrechtsinhaber für das Recht zur Nutzung ihrer Werke bezahlen müssen.“
Man darf das getrost als Aufruf an andere Urheber verstehen, deren Werke bereits ungefragt fürs Training von KI-Systemen genutzt wurden, ihre Fälle vor sein Gericht zu bringen. Und Recht zu bekommen.
Lesen Sie auch: „Unsere Kunden legen großen Wert auf authentische Inhalte“