Aktuell in CR
Generative KI und Deepfakes in der KI-VO (Becker, CR 2024, 353)
KI-Modelle und -Systeme „mit allgemeinem Verwendungszweck“ (General Purpose AI, kurz: GPAI) haben zwei rechtspolitisch wichtige Ausprägungen: als Gefährdung von Kreativarbeitsplätzen sowie als Generatoren von Deepfakes. Letztere können – anders als noch vor ca. zwei Jahren – nun kostengünstig von jedermann in hervorragender Qualität hergestellt werden. Der Beitrag erläutert die Regeln, die die KI-VO zu diesen beiden Phänomenen bereithält. Angesichts der zu zeigenden, relativ schwachen Maßnahmen gegen Deepfakes durch Negativkennzeichnungen ist außerdem ein Vorschlag für eine Positivkennzeichnung authentischer Inhalte zu skizzieren, der ohne Konflikt mit der KI-VO auf nationaler Ebene umgesetzt werden könnte.
Für eine Positivkennzeichnung authentischer Inhalte
INHALTSVERZEICHNIS.
Die KI-VO1 nimmt künstliche Intelligenz (KI) nicht holistisch in den Blick, sondern hat einen starken Fokus auf Produktsicherheit.2 Themen rund um generative KI, wie die Konkurrenzproblematik im Verhältnis zu Kreativen und insb. die historisch neue Möglichkeit für Endnutzer, kostengünstig Deepfakes in hervorragender Qualität zu erschaffen,3 werden in der KI-VO nur am Rande behandelt.4
2Es mag eingewendet werden, dass der beschriebene, eingeschränkte Anwendungsbereich der KI-VO solche Themen anderen Gesetzen wie etwa dem DSA überlässt. Dabei ist aber zu beachten, an welchen Stellen des Lebenszyklus von Deepfakes welches Gesetz greift. Die KI-VO setzt im frühesten Stadium an, da sie Regeln zu KI-Modellen und -Systemen enthält – auf dieser Ebene entstehen Deepfakes erstmals. Der DSA, die AVMD-RL (die in Deutschland insb. im TMG und MStV umgesetzt wurde) oder die noch jüngere TransparenzVO5 greifen erst später, auf Verbreitungsebene. Dort spannen sie, schon angesichts ihrer begrenzten Anwendungsbereiche, für Deepfakes ein bestenfalls grobmaschiges Netz auf.6 Problematisch ist aber schon die Erzeugung bestimmter Deepfakes, bzw. die für jedermann verfügbare Möglichkeit hierzu, weshalb z.B. OpenAI die Nutzung von Sora vorläufig eingeschränkt hat.7 Aus diesen Gründen wurde bereits vorgeschlagen, den Kern der DSA-Regeln zur Inhalte-Moderation auf große generative GPAI-Modelle auszuweiten.8
3Im Folgenden ist zu zeigen, inwieweit die KI-VO das in aller Munde befindliche Phänomen generativer KI regelt. Neben einer Analyse der Regeln zu generativer KI und der Handhabung der Deepfake-Problematik durch Negativkennzeichnungen wird ein Vorschlag für eine Positivkennzeichnung unterbreitet. Es ist deutlich einfacher zu gewährleisten, dass gekennzeichnete Inhalte authentisch (d.h. menschlichen Ursprungs bzw. „echt“) sind, als die Kennzeichnung sämtlicher Deepfakes durch deren Erzeuger sicherzustellen.
Die KI-VO wurde im Zeitraum zwischen dem Kommissionsentwurf vom 21.4.2021 und der am 21.5.2024 vom Rat angenommenen Fassung9 von der Entwicklung des KI-Marktes zumindest teilweise überholt.10 Während die KI-VO risikobasiert in Anwendungsbereichen von KI denkt, bei denen gefahrgeneigte physische Produkte im Vordergrund stehen, haben sich mächtige „KI-Modelle mit allgemeinem Verwendungszweck“ (General Purpose AI Models, kurz: GPAI-Modelle und -Systeme) in den Vordergrund gedrängt und beherrschen vor allem in Form von KI-Systemen wie ChatGPT & Co. (s. dazu Rn. 19) die Schlagzeilen. (...)
Hier direkt weiterlesen im juris PartnerModul IT-Recht