Daten und Datenschutz

Künstliche Intelligenz (KI) und Urheberrecht: Ein Überblick über die jüngsten Fälle

Droit en Tech & Data, Protection des données et Propriété intellectuelle à Lausanne

Seit 2023 scheint die KI alle Diskussionen und Gespräche an sich zu reißen und wie eine Flutwelle alles wegzufegen.


Die Fragen werden immer zahlreicher, die Antworten bleiben jedoch spärlich. Die Entwicklung und Nutzung dieser Tools ist für die Unternehmen zu einer Priorität geworden, die sie zweifellos zu Recht als unumgänglichen Wendepunkt ansehen, erfordert jedoch die Einrichtung eines Governance-Rahmens, in dem die Antworten auf diese zahlreichen Fragen notwendig sind.


A.     EU-Regelungen zur künstlichen Intelligenz


In den kommenden Wochen möchte ich einen Blick auf denjenigen werfen, der sich von einem „Vorschlag“ zu der nunmehr seit ihrer „Flucht“ am 22. Januar 2024 bekannten EU-Verordnung über KI entwickelt hat.


In Anlehnung an die Struktur und mit einer Veröffentlichung pro Woche werden wir nacheinander folgende Themen behandeln: (1) Allgemeine Bestimmungen; (2) KI-Systeme für allgemeine Zwecke; (3) Verbotene Praktiken; (4) Hochrisikopraktiken; (5) Transparenzpflichten; (6) Maßnahmen zur Innovationsförderung; (7) Governance; (8) Register; (9) Überwachungs- und Aufsichtspflichten; (10) Verhaltenskodizes; (11) Sanktionen; und schließlich (12) Fragen der Delegation von Befugnissen.


Bis die Prüfung der Verordnung nächste Woche beginnt, wollen wir diese Woche einen Überblick über den Stand der Dinge in Bezug auf die urheberrechtlichen Herausforderungen dieser Systeme anhand der aktuellen Rechtsfälle geben.


B.     Der Fall NY Times gegen OpenAI und Microsoft


Die jüngste Klage, die die NY Times am 27. Dezember 2023 vor dem United States District Court Southern District of New York nicht nur gegen OpenAI, sondern auch gegen Microsoft eingereicht hat, ist vielleicht die symbolträchtigste, da zum ersten Mal ein großer Akteur ein Gericht anruft.


In einer 69-seitigen Klageschrift zeigt die NY Times anhand zahlreicher Beispiele auf, dass die von ChatGPT erzeugten Ergebnisse in vielen Fällen auf der Grundlage einfachster Prompts zu einer fast vollständigen Übernahme bestimmter veröffentlichter Artikel führen.


In diesem Fall geht es also nicht mehr nur um die Trainingsdaten (Input) – Fälle, in denen sich die Problematik des Fair Use in den USA mit unbestreitbarer Schärfe stellt -, sondern um das Ergebnis selbst (Output).


Wenn es um das Ergebnis (Output) geht, muss man zugeben, dass die Fair-Use Ausnahme zumindestin diesem Fall weit weniger überzeugend ist. Die NY Times zeigt anhand zahlreicher Beispiele, dass die Ergebnisse in vielen Fällen weitgehend auf ihren Artikeln basieren.


Für die NY Times besteht die Gefahr, dass Internetnutzer ihre Abonnements der Zeitung aufgeben, die, wie die NY Times betont, sehr wertvoll sind, um die journalistische Qualität in einer Zeit, in der Desinformation weit verbreitet ist, aufrechtzuerhalten. Der Fall betrifft nicht nur die NY Times, sondern auch die gesamte Pressewelt, deren Zukunft auf dem Spiel steht.


Auf den ersten Blick ist schwer zu erkennen, wie die Voraussetzungen für die Ausübung des Fair Use erfüllt sein könnten, und wie die Beklagten angesichts des Antrags, zumindest in diesem Stadium, einer Anerkennung ihrer Verletzung des Urheberrechts der NY Times entgehen könnten.


Am 8. Januar 2024 wies OpenAI in einem langen Brief die als irreführend empfundenen Behauptungen von OpenAI zurück. Wenig überraschend erinnerte sie daran, dass ungeachtet der Möglichkeit für Urheber, ein Opt-out zu machen, das Training geschützter Daten ein Fall von Fair Use ist. Sie fügte hinzu, dass die in der Klageschrift angeführten Beispiele in Wirklichkeit nur sehr seltene Fälle seien, die Prompts mit einer bewussten Absicht zur Manipulation des Systems widerspiegeln. Fall wird weiterverfolgt.


C.     Laufende Fälle


Seit letztem Jahr gibt es zahlreiche Fälle, die sich mit urheberrechtlichen Fragen beschäftigen, und zwar sowohl mit Fragen rund um die Trainingsdaten (Input) als auch, in geringerem Maße, um das Ergebnis (Output).


(I)        Urheberrechtsverletzung an Trainingsdaten (Input)?


In Bezug auf Fälle, die sich hauptsächlich mit Trainingsdaten befassen, sind in den USA ohne Anspruch auf Vollständigkeit zu nennen:

  • 13. Januar 2023: Sarah Andersen et al. vs. Stability AI, Midjourney Inc., Deviantart, Inc. (United States District Court Northern District of California). In diesem als Sammelklage geführten Fall machen die Kläger, Künstler, nicht nur geltend, dass die Systeme der Beklagten beim Training ihre Rechte verletzen, indem sie ihre Werke als Trainingsdaten vervielfältigen und die mit ihren Werken verbundene digitale Tätowierung entfernen, sondern auch, dass das Ergebnis der Verwendung dieser Werkzeuge notwendigerweise ein abgeleitetes Werk darstellt, da dieses Ergebnis aus der Zusammenstellung und Aggregation einer Vielzahl von Bildern hervorgeht, die alle urheberrechtlich geschützt sind, wodurch diese Werkzeuge „a 21st-century collage tool“ (§§ 90 ff. der Klageschrift) werden.

    Am 30. Oktober 2023, nach einem von den Beklagten eingereichten „motion to dismiss“, äußerte Richter William Orrick die größten Zweifel an der Begründetheit der von den Klägern eingereichten Forderungen. Da die Werke nicht beim United States Copyright Office registriert waren, was in den USA eine Voraussetzung für die Einleitung einer Klage wegen Urheberrechtsverletzung ist, wies er alle Anträge ab, mit Ausnahme des Antrags von Sarah Andersen auf Registrierung der Werke. Der Richter bezweifelte stark, dass die erzeugten Ergebnisse ein abgeleitetes Werk darstellen könnten, da das Modell über 5 Milliarden Mal geübt wurde, und setzte der Klägerin eine Frist, um ihren Antrag zu ändern und die angebliche Verletzung ihrer Rechte zu präzisieren.

    Am 30. November 2023 reichte Sarah Andersen einen geänderten Antrag ein, in dem sie offenbar überzeugend darlegt, dass sie (und ihre Mitantragsteller) geschützte Bilder reproduziert haben und dass die erzeugten Ergebnisse unter bestimmten Umständen tatsächlich als abgeleitete Werke betrachtet werden könnten, die nicht mehr auf die Rechte verweisen (Originalwerk links, erzeugtes Ergebnis rechts):



  • 3. Februar 2023: Getty Images vs. Stability AI (United States District Court for the District of Delaware). Ähnliche Klage wie die am 17. Januar 2023 vor dem High Court of Justice in London (siehe unten).
  • Im Laufe des Jahres 2023 wurden zahlreiche ähnliche Verfahren eingeleitet, häufig in Form von Sammelklagen, in denen die Urheber eine Verletzung ihrer Urheberrechte durch die Vervielfältigung ihrer Werke zu Trainingszwecken und manchmal auch eine Verletzung ihrer Rechte in Bezug auf die erzielten Ergebnisse geltend machen, z. B.: Paul Tremblay and Mona Awad v. OpenAI (United States District Court Northern District of California, 28. Juni 2023); Kadrey v. Meta and Silverman v. OpenAI (United States District Court Northern District of California, 7. Juli 2023, wobei anzumerken ist, dass der Richter die Klage gegen Meta am 20. November 2023 mit der Begründung abwies, dass der Kläger nicht aus der Tatsache, dass sein Werk zu Übungszwecken vervielfältigt wurde, schließen könne, dass jedes Ergebnis notwendigerweise ein von seinem Werk abgeleitetes Werk sei); J.L. v. Alphabet (United States District Court Northern District of California, 11. Juli 2023); Chabon v. OpenAI & Chabon v. Meta (United States District Court Northern District of California, 12. September 2023); Authors Guild v. OpenAI Inc. (United States District Court Northern District of California, 19. September 2023, wobei sich die Kläger unter anderem darauf berufen, dass Prompts verwendet werden könnten, um Fortsetzungen ihrer Werke zu generieren oder detaillierte Zusammenfassungen zu erstellen); Huckabee v. Meta (United States District Court Southern District of New York, 17. Oktober 2023); Concord Music Group, Inc. v. Anthropic PBC (United States District Court for the Middle District of Tennesse, 18. Oktober 2023, wobei die Klägerinnen geltend machen, dass das System auf der Grundlage von Musiktexten trainiert würde, die selbstverständlich geschützt sind, und als generierte Ergebnisse Musik mit Texten vorschlagen, die ihre Urheberrechte verletzen); Sancton v. OpenAI (United States District Court Southern District of New York, 21. November 2023).
  • Zuletzt am 5. Januar 2024: Nicholas Basbanes and Nicholas Gage v. Microsoft, OpenAI et al. (United States District Court Southern District of New York).  Die Kläger, ihres Zeichens Journalisten, warfen den Beklagten vor, ihre Werke zu Trainingszwecken ohne ihre Zustimmung vervielfältigt zu haben, ohne dass der Fall irgendeine Besonderheit aufgewiesen hätte.


Außerhalb der USA sind außerdem zu erwähnen:

  • 17. Januar 2023: Getty Images v. Stability AI (High Court of Justice of London), in dem Getty Images Stability AI nicht nur vorwirft, seine Bilddatenbank zum Training seines Systems genutzt zu haben, ohne sich um eine Lizenz bemüht zu haben, wie es andere Akteure offenbar getan haben, sondern auch, seine Rechte in Bezug auf die von dem Tool erzeugten Bilder verletzt zu haben, die Bilder aus seiner Datenbank wesentlich reproduzieren würden.

    Am 1. Dezember 2023 wies Justice Joanna Smith zwei Anträge von Stability AI zurück, von denen einer zunächst darauf abzielte, festzustellen, dass das Gericht nicht befugt sei, die Klage wegen Verletzung des Urheberrechts an den Trainingsdaten an sich zu ziehen, da Stability AI in den USA entwickelt worden sei. Da es Zweifel daran gab, ob Stability AI sein Modell auf Servern im Vereinigten Königreich trainiert hatte, beschloss Justice Joanna Smith, die Klage an sich zu ziehen, deutete jedoch an, dass die Klage von Getty Images abgewiesen würde, wenn das Training tatsächlich nur in den USA stattgefunden hätte.


(II)        Urheberrechte an den erzeugten Ergebnissen (Output)?

  • Am 16. März 2023 startete das United States Copyright Office eine Initiative zur Prüfung der Frage, ob die von diesen Tools erzeugten Ergebnisse urheberrechtlich geschützt werden sollten. In seinen am selben Tag veröffentlichten Richtlinien stellt das USCO fest, dass der Schutz nur gewährt werden kann, wenn ein menschlicher Beitrag (human contribution) vorliegt, d. h. „[…] an author’s own original mental conception, to which the author gave visible form. The answer will depend on the circumstances, particularly how the AI tool operates and how it was used to create the final work.“

    Nach Ansicht der USCO erfüllt ein Ergebnis, das auf der Grundlage eines einfachen Prompts (one shot prompting) erzeugt wird, nicht die Anforderung eines ausreichenden menschlichen Beitrags zum erzeugten Ergebnis; generell stellt die USCO Prompts mit Anweisungen an den Künstler gleich, der mit der Herstellung eines Werkes beauftragt ist. Wenn alle ausdrucksstarken Elemente des Ergebnisses durch das Werkzeug bestimmt werden, fehlt der erforderliche menschliche Beitrag und das Ergebnis kann nicht beim USCO registriert werden. In jedem Fall muss die Verwendung eines generativen Werkzeugs transparent offengelegt werden.

    Am 30. August 2023 veröffentlichte die USCO einen öffentlichen Aufruf, um so viele Rückmeldungen wie möglich zu einer Vielzahl von Fragen zu erhalten, die sich auf die urheberrechtlichen Herausforderungen von KI-Systemen beziehen, von Trainingsdaten und erzeugten Ergebnissen bis hin zu Transparenzanforderungen und möglichen Lösungen, seien es rechtliche wie die Einführung eines Vergütungsanspruchs, eine erweiterte kollektive Lizenz oder technische wie digitale Tätowierungen. Die öffentliche Konsultation sollte bis Ende 2023 laufen, und es wird interessant sein, die Ergebnisse zu erfahren.

  • Im Jahr 2023 wies der USCO wiederholt die Anmeldung von Ergebnissen, die mit generativen Werkzeugen erzeugt wurden, mit der Begründung zurück, dass der menschliche Eingriff nicht ausreiche, um eine Rolle zu spielen, die das Werk als das des Benutzers erscheinen lasse.

    So war es auch bei den folgenden Ergebnissen:


    A Recent Entrance to Paradise (Februar 2022)


    Zarya of the Dawn (Februar 2023)


    Weltraum-Operntheater (Ablehnung, obwohl das Bild, das im September 2022 bei der Colorado State Fair den ersten Preis gewonnen hatte, über 80 Stunden Arbeit und Tausende von Prompts erforderte. Der Autor hatte argumentiert, dass MidJourney als pinselähnliches Werkzeug verwendet wurde, was den USCO jedoch nicht überzeugte).


    Suryast (11. Dezember 2023, wobei das linke Werk eine Fotografie eines Sonnenuntergangs des indischen Künstlers Sahni ist, das mittlere Werk ein Werk von Van Gogh darstellt, dessen Stil Sahni für sich beanspruchte, um sein Werk zu transformieren und das rechte Ergebnis zu erzeugen. Menschlicher Beitrag von der USCO als unzureichend eingestuft)
  • Andere Gerichte waren jedoch offener, anzuerkennen, dass die Verkettung von Prompts dazu führen kann, dass ein ausreichender menschlicher Beitrag anerkannt wird, um dem Ergebnis einen individuellen Charakter zu verleihen, der durch den bloßen Einsatz des Werkzeugs nicht erreicht worden wäre, und zwar sowohl auf der Ebene der Ämter für geistiges Eigentum als auch auf der Ebene der Gerichte.


Dies war der Fall bei den Ämtern für geistiges Eigentum in Indien und Kanada, die das Werk Suryast der oben erwähnten Künstlerin Sahni eintragen ließen. Ähnlich war es in Südkorea, wo die Firma Nara Knowledge Information die Eintragung ihres Films „AI Suro’s Wife“ erhielt, für den sie die Tools Midjourney und Stable Diffusion verwendet hatte.


Das Beijing Internet Court gab am 27. November 2023 einer Klage wegen Urheberrechtsverletzung auf der Grundlage eines mit Stability Diffusion erzeugten Werks statt und erkannte an, dass die Abfolge der Prompts und das daraus resultierende Werk von einer sorgfältigen Auswahl und Anordnung sowohl der Prompts als auch der daraus resultierenden Ergebnisse zeugten:



D.     Schlussfolgerung


Was lässt sich aus diesem Überblick über die Situation zu Beginn des Jahres 2024 schließen?


(I)        Trainingsdaten


Es ist erstaunlich, dass OpenAI sich über die Vorwürfe aufregt, obwohl es offensichtlich Partnerschaften mit großen Akteuren anstrebt, die ihm einen massiven Datenstrom liefern können.


Im Juli 2023 unterzeichnete sie sowohl mit Associated Press als auch mit Shutterstock einen Lizenzvertrag, der es ihr erlaubte, deren Inhalte zu nutzen. Am 13. Dezember 2023 schloss sie einen Lizenzvertrag mit dem Verlagsriesen Axel Springer ab (wobei man sich fragen muss, ob sie sich damit nicht in den Fuß schießt, obwohl uns die Bedingungen des Geschäfts natürlich nicht bekannt sind).


In jedem Fall ist es schwer vorstellbar, warum OpenAI solche Vereinbarungen unterzeichnen sollte, wenn es nicht anerkennen würde, dass die Vervielfältigungen, die es vornimmt, indem es diese Daten reproduziert, um seine Vorlage zu trainieren, rechtswidrig sind.


Die aktuellen Fälle zeigen bereits, wie schwierig es für die Kläger sein kann, vor Gericht zu bestehen.


Die Debatte beschränkt sich nicht nur auf die Frage, ob diese Trainingsdaten die Rechte der Rechteinhaber verletzen und ob die Entwickler dieser generativen Werkzeuge eine Ausnahme geltend machen können. Zunächst einmal muss das angerufene Gericht überhaupt dafür zuständig sein. Während die meisten Fälle in den USA anhängig gemacht wurden, wo die Entwickler ihren Sitz haben und sich die Frage der Zuständigkeit nicht stellt, stellt sich die Frage anders, wenn die Rechteinhaber im Ausland klagen wollen. Der beim High Court of Justice in London anhängige Fall Getty Images unterstreicht die Tatsache, dass die Zuständigkeit dieses Gerichts eine offene Frage ist, über die der High Court zu entscheiden haben wird. Die bislang wenig untersuchten Aspekte des internationalen Privatrechts sollten nicht unterschätzt werden.


Zweitens müssen die Kläger, selbst wenn das Gericht zuständig ist, aktiv legitimiert sein, d. h. sie müssen nachweisen, dass Werke, an denen sie Rechte besitzen, konkret vervielfältigt wurden, um als Trainingsdaten zu dienen; eine bloße Behauptung, dass eine solche Verwertung angesichts der Anzahl der vervielfältigten Bilder mehr als wahrscheinlich erscheint, scheint nicht auszureichen. Die Messlatte könnte sich also als besonders hoch erweisen.


Wir können davon ausgehen, dass es in den kommenden Jahren Lösungen geben wird, z. B. in Form von Vergütungsansprüchen oder erweiterten kollektiven Lizenzen, aber nicht unbedingt in Form eines Blankoschecks für solche Trainings, wie es Japan, Singapur oder möglicherweise Israel getan haben.


(II)        Generierte Ergebnisse


Zwar entschied sich die Ukraine 2023 für die Einführung eines Sui-generis-Rechts zum Schutz der von generativen Werkzeugen erzeugten Ergebnisse, doch scheint diese Entscheidung eine Ausnahme zu bleiben. Generell scheint die Frage entscheidend zu sein, ob der Nutzer einen ausreichenden Beitrag zur Abfolge der Prompts und ihrer Anordnung geleistet hat, um als „Urheber“ angesehen werden zu können.


Auch wenn dieses Kriterium sich durchzusetzen scheint, muss man zugeben, dass seine Auslegung von Staat zu Staat sehr unterschiedlich ist:


Wenn 80 Stunden Arbeit und Tausende von Prompts nicht ausreichten, um das USCO davon zu überzeugen, dass Jason Michael Allens Beitrag ausreichend war, um als Autor des Weltraum-Opern-Theaters zu gelten, dann ist es fraglich, welches Niveau das USCO erwartet.


Umgekehrt scheint China großzügig zu sein, indem es das Bild einer jungen Frau als urheberrechtlich geschützt zugelassen hat, bei dem es fraglich ist, ob es wirklich eine ausreichende „Originalität“ im Sinne der grundsätzlichen Forderung des Urheberrechts aufweist.


Es kommt also darauf an, auf welcher Ebene man den Cursor setzen will, um eine ausreichende Kausalität zwischen dem Nutzer und dem erzeugten Ergebnis zu erkennen, um im ersten den Urheber des zweiten zu sehen.


Die grundlegende Frage, ob solche Ergebnisse angesichts des Zwecks des Urheberrechts, nämlich zur Schöpfung anzuregen, schützenswert sind, sollte ebenfalls gestellt werden. Sollte mir ein solches Recht auf ein „künstlerisches“ Ergebnis zuerkannt werden, obwohl ich in Wirklichkeit keine Fähigkeiten dazu habe und meine einzigen Qualitäten in der Fähigkeit liegen, effizientes Prompting zu betreiben?


Könnte das Prompting als Äquivalent zum Pinsel betrachtet werden, wie Jason Michael Allen argumentierte, ein Argument, das der USCO nicht gelten lassen wollte. Würde dies jedoch nicht das Risiko eingehen, das Niveau des Urheberrechts nach unten zu nivellieren, indem man einer sehr großen Mehrheit von Nutzern solche Rechte einräumt? Mehr noch, würde dies nicht bedeuten, das geforderte Niveau der Kreativität zu nivellieren, indem man letztendlich Urheberrechte für Millionen von Werken einräumt, die jeden Tag generiert werden? Wie hoch sollte die Messlatte gelegt werden? All dies sind Fragen, die es wert sind, gestellt zu werden, und die bislang noch nicht endgültig beantwortet wurden (für einen Austausch über diese Fragen siehe den interessanten Beitrag von Damian Flisak).

Haben Sie Fragen zu den in diesem Artikel behandelten Themen?

Neueste Nachrichten von Wilhelm Gilliéron Avocats

Visuel LinkedIn
Mitteilungen
Wilhelm Avocats SA feiert ihr zehnjähriges Bestehen!
Visuel LinkedIn Wilhelm-2024 (1)
Daten und Datenschutz
Personalisierung von Produkten und Markenrecht: Verletzen oder nicht verletzen?
Visuel LinkedIn
Mitteilungen
Wir gratulieren unserer Anwaltspraktikantin Léa Wyssbrod herzlich zum Erhalt ihres Anwaltspatents.

À propos de l’auteur

Wilhelm-Avocat-Long