Chris Köver
Nach Jahren der Verhandlung haben sich EU-Parlament, Mitgliedstaaten und Kommission Anfang des Jahres auf eine KI-Verordnung (AI Act) geeinigt.[1] Sie soll als „Künstliche Intelligenz“ subsummierte Technologien und vor allem als hochriskant geltende Bereiche regulieren. Noch vor den Wahlen im Sommer könnte das Gesetz in Kraft treten.
Bei der Polizeiarbeit oder der Kontrolle und Überwachung von Menschen an den EU-Außengrenzen lässt der finale Text besonders große Schlupflöcher. Dabei kommen gerade hier viele hochriskante Systeme zum Einsatz, zur vorhersagenden Polizeiarbeit etwa oder um Menschen auf Überwachungskameras am Gesicht oder Gang zu erkennen. Dazu hatten im Herbst noch zivilgesellschaftliche Organisationen gefordert,[2] dass die Verordnung klare Grenzen setzt – erfolglos. Die immerhin grundlegenden Einschränkungen für Gesichtserkennung im öffentlichen Raum gelten ausdrücklich nicht für Grenzkontrollen, da Grenzen nicht Teil des „öffentlichen Raums“ seien. Auch die in der Verordnung vorgesehenen Transparenzregeln gelten explizit nicht für die Bereiche „Strafverfolgung, Migration, Asyl und Grenzkontrollmanagement“. Wer riskante KI-Systeme in diesen Bereichen einsetzt, muss sich zwar in einer nicht-öffentlichen Datenbank registrieren. Einblick in diese Hochsicherheitszone des Transparenzregisters haben dann weder Öffentlichkeit noch Presse.
So lässt die EU am Ende gerade dort eine bemerkenswerte Lücke, wo Menschen ganz besonders auf Schutz angewiesen wären. „Sehr enttäuschend“ sei das Gesetz in Bezug auf Migration, sagt auch Ella Jakubowska vom Dachverband der Digitalrechtsorganisationen EDRi. „Die Tatsache, dass das Gesetz den Einsatz vieler strafbarer KI-Instrumente gegen Menschen auf der Flucht legitimiert, ist wirklich besorgniserregend.“ Die Ausnahmen an diesen Stellen suggerierten, „dass Menschen auf der Flucht nicht die gleichen Rechte verdienen wie alle anderen“.