Algorithmen wecken Ur-Gefühle:
- Algorithmen sind allgegenwärtig:
Sie bestimmen die Kaufempfehlungen bei Amazon und die Suchergebnisse bei Google. Algorithmen berechnen Routenvorschläge bei der Verkehrslenkung und Werbeeinblendungen auf zahlreichen Websites. Ohne Algorithmen gäbe es keine Taxi-Apps und kein Uber, kein Spotify und kein Netflix. Algorithmen steuern fahrerlose Fahrzeuge und Drohnen, sie werden beim Smart Metering ebenso eingesetzt wie in der Logistik. - Algorithmen sind nicht transparent:
Es handelt sich um komplexe Rechenformeln, die ein Normalbürger nicht verstehen und nachvollziehen kann. Wenn das Auto eine bestimmte Wegstrecke vorschlägt, kann der Fahrer nicht überprüfen, ob es sich jetzt tatsächlich um die beste Route handelt. Und wenn eine Musik-App einen Titel zum Kauf vorschlägt, weiß der Nutzer nicht, ob der Musiktitel wirklich der Titel ist, der seinem Musikgeschmack am meisten entspricht.
=> Die Intransparenz und Allgegenwart der Algorithmen weckt Ängste:
Angst davor, dass die Formeln nicht halten, was ihre Macher versprechen. Angst davor, dass die Formeln trickreich programmiert werden, um den Nutzer zum Kauf bestimmter Produkte zu manipulieren. Angst davor, dass sich in den Formeln diskriminierende Voreinstellungen verbergen. Angst davor, dass die Maschine den Menschen regiert und wir alle schutzlos der Willkür von Unternehmen und Regierungsstellen ausgeliefert sind, die die Herrschaftsmacht über die Algorithmen haben.
Erste Anfänge einer rechtlichen Diskussion
Algorithmen sind gekommen, um zu bleiben: Ihr Einsatz wird sich in den kommenden Jahren und Jahrzehnten weiter ausbreiten und noch viel stärker als heute unseren Alltag begleiten.
In Deutschland: Daher ist es richtig, dass über Regularien und Rahmenbedingungen diskutiert wird, die für den Einsatz von Algorithmen gelten sollten (vgl. einerseits Justizminister Heiko Maass, „Interview Bild am Sonntag: Justizminister Heiko Maas nutzt Google beinahe täglich.“, BMJV.de v. 29.9.2014 und andererseits Google Deutschland, öffentlicher Brief an Bundesminister Maass v. 28.9.3014).
Auf EU-Ebene: Der Minister und Google sind den Brüsseler Reformern weit voraus: Protagonisten der EU-Datenschutzreform wie Paul Nemitz und Jan Philipp Albrecht haben in ihren Vorschlägen für ein neues EU-Datenschutzrecht auf konkrete, schlüssige Konzepte und Regularien für Big Data und Algorithmen verzichtet und gemeint, es bei einer „Fortschreibung“ des überkommenen Datenschutzrechts belassen zu können. Ein kardinaler Irrtum.
Die Instrumentarien des Datenschutzrechts
- klassisch: Statik
Die klassischen Instrumentarien des Datenschutzrechts sind statisch, da bei ihnen die Erfassung und Speicherung von Daten im Mittelpunkt steht. Wenn beispielsweise ein Fahrzeug laufend Orts- und Verkehrsdaten sowie Daten über Fahrverhalten und Fahreigenschaften erfasst, kann das herkömmliche Datenschutzrecht Regeln aufstellen, ob und unter welchen Voraussetzungen eine solche Datenerfassung zulässig ist und wie lange die Daten gespeichert werden dürfen.
Das Datenschutzrecht enthält in seiner jetzigen Gestalt jedoch keine Instrumente und Mechanismen, die auf die Auswertung der Daten abzielen und den Gefahren einer Manipulation, Diskriminierung und Fremdbestimmung entgegenwirken. Trotz jahrelanger Reformdebatte stehen wir in Europa bei den Bemühungen um ausgewogene Regelungsmodelle erst ganz am Anfang.
- in Zukunft: auch Dynamik
Bei jedweder Regelung muss Transparenz das oberste Gebot sein. Wenn Algorithmen eine Technologie steuern, muss der Nutzer über die Funktionsweise der Algorithmen in ihren Grundzügen informiert werden. Jedwede Forderung nach schlichter „Offenlegung“ und vollständiger Transparenz wäre jedoch aus zwei Gründen illusionär:
- Geheimnisschutz: Zum  einen geht es zumeist um Geschäftsgeheimnisse der Unternehmen. Eine „Offenlegung“ kann daher immer nur auf freiwilliger Basis erfolgen, Jeglicher gesetzliche Zwang käme einer (entschädigungspflichtigen) Enteignung gleich.
- Verständlichkeit: Würde Google mir zum anderen alle Algorithmen „offenlegen“, die Google beispielsweise bei der Personensuche einsetzt, so würde mir ein solcher „Formelsalat“ wenig nützen. Ich bin kein Mathematiker und wäre trotz „Offenlegung“ so schlau wie zuvor.
Sachkunde + Neutralität => Internettauglichkeit
Wenn man den Bürgern ernsthaft die Angst vor Manipulation, Diskriminierung und Fremdbestimmung nehmen möchte, müssen Instanzen geschaffen werden, die Algorithmen sachkundig prüfen können. Viktor Mayer-Schönberger hat dementsprechend sogar gefordert, eine neue Berufsgruppe der „Algorithmiker“ zu schaffen, die eine solche Kontrollfunktion wahrnehmen kann („Dem Datenschutz wieder Zähne geben“, Deutschlandradio Kultur v. 16.12.2013).
Für das Scoring gibt es bereits eine Regelung, die in die richtige Richtung weist: Nach § 28b Nr. 1 BDSG ist das Scoring nur auf der Basis eines „wissenschaftlich anerkannten mathematisch-statistischen Verfahrens“ zulässig. Ein entsprechendes „Neutralitätsgebot“ brauchen wir auch in anderen Bereichen, in denen Algorithmen eingesetzt werden.
Zu einem wahrhaft internettauglichen, zukunftsfähigen Datenschutzrecht gehören „Neutralitätsgebote“ ebenso wie fähige und gut ausgebildete „Algorithmiker“, die die „Neutralität“ kontrollieren. Wenn beides erreicht ist, können wir in Zukunft auch angstfrei über Algorithmen diskutieren.