Aktuell in CR
Fine-Tuning von GPAI-Modellen nach der KI-Verordnung: Eine Regelungslücke für Zukunftstechnologie? (Blum/Rappenglück)
Der Beitrag befasst sich mit sog. KI-Modellen mit allgemeinem Verwendungszweck und der insbesondere in der Beratungspraxis häufig gestellten Frage, welche Auswirkungen die Optimierung solcher Modelle für spezifische Anwendungsfälle (Fine-Tuning) auf die Verpflichtungen unter der KI-VO hat – etwa wenn ein Chatbot unternehmensspezifische Antworten oder eine Bilderkennung bessere Ergebnisse liefern soll. Dabei stellen die Autoren zunächst das regulatorische Konzept der KI-VO und die Funktionsweise von KI-Modellen vor und gehen im weiteren Verlauf auf einzelne, in der Praxis häufig angewandte, Methoden des Fine-Tunings (RLHF, LoRA, RAG) ein.
INHALTSVERZEICHNIS:
I. Einleitung
Das Aufflammen generativer künstlicher Intelligenz durch KI-Chatbots und KI-Bildgeneratoren hat das Potential, aber auch die Risken künstlicher Intelligenz für die breite Öffentlichkeit greifbar gemacht. Die KI-Verordnung (KI-VO) hat das Ziel, die gewaltigen Chancen dieser neuen Technologie mit den damit verbundenen Risiken in Einklang zu bringen. Dafür sieht sie ein Risikoklassenkonzept vor, das KI-Systeme in verbotene, solche mit hohem Risiko sowie „bestimmte“ KI-Systeme (mit einem Transparenzrisiko) einstuft. Darüber hinaus reguliert die KI-VO auch die darunterliegenden KI-Modelle, sofern diese einen allgemeinen Verwendungszweck haben (sog. GPAI1 -Modelle). Aufgrund der zahlreichen Einsatzmöglichkeiten entziehen sich diese KI-Modelle einer anwendungsbezogenen Risikoklassifizierung. Dieser Beitrag fokussiert sich auf GPAI-Modelle und die in der Rechtspraxis hoch relevanten Probleme, die durch die Anpassung dieser KI-Modelle aufgeworfen werden, wenn Verwender2 ein GPAI-Modell für ihre spezifischen Anwendungszwecke optimieren, etwa um einem Chatbot zu ermöglichen, unternehmensspezifische Antworten zu liefern oder die Qualität der Bilderkennung für den spezifischen Anwendungsfall zu optimieren.
2Im Folgenden wird zunächst der regulatorische Rahmen für GPAI-Modelle abgesteckt ( II. ), bevor im zweiten Teil die in der Praxis komplexe rechtliche Problematik des Fine-Tunings von GPAI-Modellen untersucht wird ( III. ).
Die KI-VO ist seit dem 1.8.2024 in Kraft und kann zu großen Teilen als Produktsicherheitsrecht verstanden werden.3 Dies trifft besonders auf die Regelung von KI-Systemen zu. Sie zielt im Kern darauf ab, durch eine Kombination von Verboten bestimmter KI-Praktiken auf der einen Seite und die spezifische Regulierung ausgewählter Anwendungen von Hochrisiko-KI-Systemen auf der anderen Seite das von der neuen Technologie ausgehende Risiko für Gesundheit, Sicherheit, Rechtsstaatlichkeit und die Grundrechte der Grundrechtecharta abzuschwächen.4 Daneben enthält sie auch Regelungen für bestimmte KI-Systeme mit einem Transparenzrisiko, wie etwa KI-Chatbots, biometrische Identifikationssysteme oder generative KI. Rechtstechnisch wird die produktsicherheitsrechtliche Einkleidung der KI-VO besonders deutlich, wenn man sich die einschlägigen Begriffsdefinitionen aus Art. 3 KI-VO vor Augen führt. Diese sind zu weiten Teilen aus einschlägigen Rechtsakten der Union im Zusammenhang mit dem sog. „New Legislative Framework“5 („NLF“) entnommen, welches das Produktsicherheitsrecht im Binnenmarkt harmonisieren soll. ErwG 9 KI-VO bekräftigt diese Herkunft.
4Das Regelungskonzept zu GPAI-Modellen entzieht sich dieser maßgeblich an einem konkreten Einsatzbereich der regulierten Produkte orientierten Einordnung, insbesondere aufgrund der Tatsache, dass GPAI-Modelle nicht auf einen bestimmten Einsatzzweck beschränkt sind.
Dem Begriff des GPAI-Modells liegt (...)