Aktuell in CR

Generative KI und Deepfakes in der KI-VO (Becker, CR 2024, 353)

KI-Modelle und -Systeme „mit allgemeinem Verwendungszweck“ (General Purpose AI, kurz: GPAI) haben zwei rechtspolitisch wichtige Ausprägungen: als Gefährdung von Kreativarbeitsplätzen sowie als Generatoren von Deepfakes. Letztere können – anders als noch vor ca. zwei Jahren – nun kostengünstig von jedermann in hervorragender Qualität hergestellt werden. Der Beitrag erläutert die Regeln, die die KI-VO zu diesen beiden Phänomenen bereithält. Angesichts der zu zeigenden, relativ schwachen Maßnahmen gegen Deepfakes durch Negativkennzeichnungen ist außerdem ein Vorschlag für eine Positivkennzeichnung authentischer Inhalte zu skizzieren, der ohne Konflikt mit der KI-VO auf nationaler Ebene umgesetzt werden könnte.

Für eine Positivkennzeichnung authentischer Inhalte

INHALTSVERZEICHNIS.

I. Einleitung
II. Grundaufstellung
    1. GPAI-Modelle
    2. GPAI-Systeme
    3. Bedeutung der Abgrenzung
    4. Generative KI als Unterfall von GPAI
III. Allgemeine Pflichten für Anbieter von GPAI-Modellen
    1. Dokumentationspflichten gegenüber Behörden (Art. 53 Abs. 1 lit. a)
    2. Information und Dokumentation zugunsten der Anbieter von KI-Systemen (Art. 53 Abs. 1 lit. b)
IV. Konkrete Pflichten der Anbieter von GPAI-Modellen in Bezug auf das Urheberrecht
    1. Urheberrechtspolicy und Text- und Data-Mining-Schranke (Art. 53 Abs. 1 lit. c)
    2. Zusammenfassung der verwendeten Trainingsdaten (Art. 53 Abs. 1 lit. d)
    3. Vergütung von Trainingsdaten und der Umstieg auf synthetische Trainingsdaten
V. Transparenz- und Offenlegungspflichten für KI-Content und Deepfakes
    1. Transparenz der Interaktion mit KI-Systemen (Art. 50 Abs. 1)
    2. Pflicht für Anbieter von GPAI-Systemen zur Kennzeichnung jeglicher KI-Ergebnisse (Art. 50 Abs. 2)
        a) Grundlegende Pflicht
        b) Ausnahmen
        c) Exkurs: Markierung menschlichen Contents im „Dead Internet“ als Nebenfunktion?
    3. Emotionserkennungssysteme und unterschwellige Manipulation (Art. 50 Abs. 3)
    4. Offenlegungspflicht für Betreiber generativer KI-Systeme hinsichtlich Deepfakes (Art. 50 Abs. 4)
        a) Abgrenzung von Deepfakes
        b) Kennzeichnungspflicht
        c) Ausnahmen für Meinungs‑, Kunst- und Wissenschaftsfreiheit sowie KI-Nachrichtentexte
VI. Hoheitliche Durchsetzung (Art. 99, 101)
VII. Die problematische Risikoeinstufung von Deepfakes
    1. Die Grenze zu Hochrisiko-KI
    2. Die Grenze zu systemischen Risiken
    3. Deepfakes und verbotene KI-Praktiken nach Art. 5 Abs. 1 lit. a
VIII. Vorschlag: Positivkennzeichnung menschlicher sowie authentischer Inhalte
    1. Grundidee: Positivkennzeichnung authentischer Inhalte
    2. Menschliche Inhalte sowie Non-Fakes
    3. Kennzeichnungsmöglichkeiten und Missbrauchsgefahr
    4. Kennzeichnungsberechtigte und ihre Haftung
    5. Gesetzliche Einbindung und Durchsetzung
IX. Ergebnisse
 
 
I. Einleitung
1

Die KI-VO1 nimmt künstliche Intelligenz (KI) nicht holistisch in den Blick, sondern hat einen starken Fokus auf Produktsicherheit.2 Themen rund um generative KI, wie die Konkurrenzproblematik im Verhältnis zu Kreativen und insb. die historisch neue Möglichkeit für Endnutzer, kostengünstig Deepfakes in hervorragender Qualität zu erschaffen,3 werden in der KI-VO nur am Rande behandelt.4

2

Es mag eingewendet werden, dass der beschriebene, eingeschränkte Anwendungsbereich der KI-VO solche Themen anderen Gesetzen wie etwa dem DSA überlässt. Dabei ist aber zu beachten, an welchen Stellen des Lebenszyklus von Deepfakes welches Gesetz greift. Die KI-VO setzt im frühesten Stadium an, da sie Regeln zu KI-Modellen und -Systemen enthält – auf dieser Ebene entstehen Deepfakes erstmals. Der DSA, die AVMD-RL (die in Deutschland insb. im TMG und MStV umgesetzt wurde) oder die noch jüngere TransparenzVO5 greifen erst später, auf Verbreitungsebene. Dort spannen sie, schon angesichts ihrer begrenzten Anwendungsbereiche, für Deepfakes ein bestenfalls grobmaschiges Netz auf.6 Problematisch ist aber schon die Erzeugung bestimmter Deepfakes, bzw. die für jedermann verfügbare Möglichkeit hierzu, weshalb z.B. OpenAI die Nutzung von Sora vorläufig eingeschränkt hat.7 Aus diesen Gründen wurde bereits vorgeschlagen, den Kern der DSA-Regeln zur Inhalte-Moderation auf große generative GPAI-Modelle auszuweiten.8

3

Im Folgenden ist zu zeigen, inwieweit die KI-VO das in aller Munde befindliche Phänomen generativer KI regelt. Neben einer Analyse der Regeln zu generativer KI und der Handhabung der Deepfake-Problematik durch Negativkennzeichnungen wird ein Vorschlag für eine Positivkennzeichnung unterbreitet. Es ist deutlich einfacher zu gewährleisten, dass gekennzeichnete Inhalte authentisch (d.h. menschlichen Ursprungs bzw. „echt“) sind, als die Kennzeichnung sämtlicher Deepfakes durch deren Erzeuger sicherzustellen.

 

II. Grundaufstellung
4

Die KI-VO wurde im Zeitraum zwischen dem Kommissionsentwurf vom 21.4.2021 und der am 21.5.2024 vom Rat angenommenen Fassung9 von der Entwicklung des KI-Marktes zumindest teilweise überholt.10 Während die KI-VO risikobasiert in Anwendungsbereichen von KI denkt, bei denen gefahrgeneigte physische Produkte im Vordergrund stehen, haben sich mächtige „KI-Modelle mit allgemeinem Verwendungszweck“ (General Purpose AI Models, kurz: GPAI-Modelle und -Systeme) in den Vordergrund gedrängt und beherrschen vor allem in Form von KI-Systemen wie ChatGPT & Co. (s. dazu Rn. 19) die Schlagzeilen. (...)

Hier direkt weiterlesen im juris PartnerModul IT-Recht



Verlag Dr. Otto Schmidt vom 18.06.2024 11:03

zurück zur vorherigen Seite