Aktuell in CR

Fine-Tuning von GPAI-Modellen nach der KI-Verordnung: Eine Regelungslücke für Zukunftstechnologie? (Blum/Rappenglück)

Der Beitrag befasst sich mit sog. KI-Modellen mit allgemeinem Verwendungszweck und der insbesondere in der Beratungspraxis häufig gestellten Frage, welche Auswirkungen die Optimierung solcher Modelle für spezifische Anwendungsfälle (Fine-Tuning) auf die Verpflichtungen unter der KI-VO hat – etwa wenn ein Chatbot unternehmensspezifische Antworten oder eine Bilderkennung bessere Ergebnisse liefern soll. Dabei stellen die Autoren zunächst das regulatorische Konzept der KI-VO und die Funktionsweise von KI-Modellen vor und gehen im weiteren Verlauf auf einzelne, in der Praxis häufig angewandte, Methoden des Fine-Tunings (RLHF, LoRA, RAG) ein.

INHALTSVERZEICHNIS:

 

I. Einleitung

II. Regulatorisches Konzept der KI-VO
   1. Rechtsrahmen für GPAI-Modelle
      a) Sachlicher Anwendungsbereich: Begriff des GPAI-Modells
      b) Zeitlicher Anwendungsbereich
      c) Persönlicher Anwendungsbereich
         aa) Grundsatz
         bb) Ausnahme für Forschung und Entwicklung
         cc) Ausnahme bei rein interner Nutzung des GPAI-Modells
   2. Funktionsweise eines KI-Modells und dessen Training
   3. GPAI-Modelle mit systemischem Risiko
   4. Pflichten für Anbieter von GPAI-Modellen (inkl. solchen mit systemischem Risiko)
III. Fine-Tuning von GPAI-Modellen
   1. Erhebliche praktische Bedeutung
   2. Regulatorischer Ansatz der KI-VO: Keine Regelung zum Fine-Tuning
   3. Methoden des Fine-Tunings und deren rechtliche Einordnung
      a) Reinforcement Learning from Human Feedback (RLHF)
      b) Low-Rank Adaption (LoRA)
      c) Retrieval-Augmented Generation (RAG)
IV. Fazit und Ausblick
 
 
I. Einleitung
1

Das Aufflammen generativer künstlicher Intelligenz durch KI-Chatbots und KI-Bildgeneratoren hat das Potential, aber auch die Risken künstlicher Intelligenz für die breite Öffentlichkeit greifbar gemacht. Die KI-Verordnung (KI-VO) hat das Ziel, die gewaltigen Chancen dieser neuen Technologie mit den damit verbundenen Risiken in Einklang zu bringen. Dafür sieht sie ein Risikoklassenkonzept vor, das KI-Systeme in verbotene, solche mit hohem Risiko sowie „bestimmte“ KI-Systeme (mit einem Transparenzrisiko) einstuft. Darüber hinaus reguliert die KI-VO auch die darunterliegenden KI-Modelle, sofern diese einen allgemeinen Verwendungszweck haben (sog. GPAI1 -Modelle). Aufgrund der zahlreichen Einsatzmöglichkeiten entziehen sich diese KI-Modelle einer anwendungsbezogenen Risikoklassifizierung. Dieser Beitrag fokussiert sich auf GPAI-Modelle und die in der Rechtspraxis hoch relevanten Probleme, die durch die Anpassung dieser KI-Modelle aufgeworfen werden, wenn Verwender2 ein GPAI-Modell für ihre spezifischen Anwendungszwecke optimieren, etwa um einem Chatbot zu ermöglichen, unternehmensspezifische Antworten zu liefern oder die Qualität der Bilderkennung für den spezifischen Anwendungsfall zu optimieren.

2

Im Folgenden wird zunächst der regulatorische Rahmen für GPAI-Modelle abgesteckt ( II. ), bevor im zweiten Teil die in der Praxis komplexe rechtliche Problematik des Fine-Tunings von GPAI-Modellen untersucht wird ( III. ).

II. Regulatorisches Konzept der KI-VO
3

Die KI-VO ist seit dem 1.8.2024 in Kraft und kann zu großen Teilen als Produktsicherheitsrecht verstanden werden.3 Dies trifft besonders auf die Regelung von KI-Systemen zu. Sie zielt im Kern darauf ab, durch eine Kombination von Verboten bestimmter KI-Praktiken auf der einen Seite und die spezifische Regulierung ausgewählter Anwendungen von Hochrisiko-KI-Systemen auf der anderen Seite das von der neuen Technologie ausgehende Risiko für Gesundheit, Sicherheit, Rechtsstaatlichkeit und die Grundrechte der Grundrechtecharta abzuschwächen.4 Daneben enthält sie auch Regelungen für bestimmte KI-Systeme mit einem Transparenzrisiko, wie etwa KI-Chatbots, biometrische Identifikationssysteme oder generative KI. Rechtstechnisch wird die produktsicherheitsrechtliche Einkleidung der KI-VO besonders deutlich, wenn man sich die einschlägigen Begriffsdefinitionen aus Art. 3 KI-VO vor Augen führt. Diese sind zu weiten Teilen aus einschlägigen Rechtsakten der Union im Zusammenhang mit dem sog. „New Legislative Framework“5 („NLF“) entnommen, welches das Produktsicherheitsrecht im Binnenmarkt harmonisieren soll. ErwG 9 KI-VO bekräftigt diese Herkunft.

4

Das Regelungskonzept zu GPAI-Modellen entzieht sich dieser maßgeblich an einem konkreten Einsatzbereich der regulierten Produkte orientierten Einordnung, insbesondere aufgrund der Tatsache, dass GPAI-Modelle nicht auf einen bestimmten Einsatzzweck beschränkt sind.

1. Rechtsrahmen für GPAI-Modelle
a) Sachlicher Anwendungsbereich: Begriff des GPAI-Modells
5

Dem Begriff des GPAI-Modells liegt (...)

Hier direkt weiterlesen im juris PartnerModul IT-Recht



Verlag Dr. Otto Schmidt vom 16.09.2024 11:55

zurück zur vorherigen Seite