
Das Datenschutzgesetz, das am 1. September 2023 in Kraft tritt, enthält einen brisanten Begriff: die «automatisierte Einzelentscheidung». Gemeint sind Entscheidungen, die von Computern getroffen werden – ohne menschliches Eingreifen. Dabei geht es nicht um einfache Wenn-dann-Anwendungen, sondern um komplexere Entscheidungen, die unter anderem auch mit künstlicher Intelligenz getroffen werden.
Steuerveranlagung, Vergabe von Sozialleistungen, Bewilligungsverfahren: In zahlreichen Bereichen wird der Staat automatisierte Entscheide einsetzen dürfen. Dies weckt unweigerlich Ängste. Kommt es zu Diskriminierungen, ohne dass irgendjemand dies bemerkt? Erhalten Technologieanbieter noch mehr Macht? Sind solche Entscheidungen überhaupt nachvollziehbar?
Es wäre zu einfach, diese Sorgen als Technophobie zu belächeln. Denn es gibt sehr gute Gründe, diesen Entwicklungen kritisch gegenüberzustehen. Einerseits können automatisierte Entscheidungen wenig nachvollziehbar sein. Andererseits gibt es bereits zahlreiche Beispiele von Systemen, die aufgrund von schlechten Trainingsdaten zu Diskriminierungen führten.
Entscheidend wird sein, dass Dritte jederzeit und ohne Einschränkungen solche Systeme überprüfen können.
Dabei haben paradoxerweise diese Systeme ein unglaubliches Potenzial für die Lösung der Probleme, die durch ihren Einsatz entstehen können. Ein Beispiel ist die Erkennung von Entscheidungsmustern: Voreingenommenheit von Menschen kann nur mit viel Aufwand sichtbar gemacht werden, jene von Systemen dafür umso einfacher, indem man Entscheidungsprozesse tausendfach, ja millionenfach durchspielt.
Entscheidend wird dabei sein, dass Drittorganisationen jederzeit und ohne Einschränkungen solche Systeme überprüfen können. Nur dann kann die Bevölkerung Vertrauen in staatliche automatisierte Einzelentscheidungen aufbauen. Vorausgesetzt, sie sind als solche auch gekennzeichnet – was das neue Datenschutzgesetz bereits vorsieht – und können von einer natürlichen Person überprüft werden, wenn die betroffene Person dies verlangt. Allerdings reichen Einzellfallüberprüfungen nicht: Vielmehr braucht es eine vollständige Übersicht über die im Staat eingesetzten Systeme für automatisierte Einzelentscheidungen, im Idealfall in Form eines öffentlichen Registers.
Der Einsatz von künstlicher Intelligenz muss demokratisch begleitet werden.
Mit diesen drei Grundsätzen – Kennzeichnung, Überprüfbarkeit und Register – kann die automatisierte Einzelentscheidung im Staat zum Erfolgsmodell werden. Fehlt aber eines dieser Elemente, besteht die Gefahr eines Kontrollverlustes, der nur schwer wieder rückgängig gemacht werden kann. Auf dem Spiel steht das Prinzip eines gerechten Staates im digitalen Zeitalter.
Die technologische Entwicklung beschleunigt sich in hohem Tempo weiter, wie Systeme wie Chat GPT eindrücklich zeigen. Heute müssen die Weichen gestellt werden, damit diese Entwicklung in die richtige Richtung geht. Der Einsatz von automatisierten Einzelentscheidungen, insbesondere beim Einsatz von künstlicher Intelligenz, muss also demokratisch begleitet werden. Nur dann können Algorithmen den hohen ethischen und grundrechtlichen Standards, an denen sie gemessen werden müssen, auch gerecht werden.
Nadja Braun Binder ist Professorin für öffentliches Recht an der Universität Basel und Mitglied des Beirats von CH++. Marcel Salathé ist Mitgründer und Vorstandsmitglied von CH++.
Fehler gefunden?Jetzt melden.
Gastbeitrag – Die Verwaltung darf jetzt künstliche Intelligenz nutzen – doch sie muss aufpassen
Neu darf der Staat Computer einsetzen, um automatisierte Entscheidungen zu treffen. Damit er die Kontrolle nicht verliert, bedarf es dreier Grundsätze.