Ausnahmen für Künstliche Intelligenz

Die EU-Kommission regt an, den „weltweit ersten Rechtsrahmen für künstliche Intelligenz (KI)“ zu verabschieden. In einem Verordnungsvorschlag werden KI-Systeme in Kategorien eingeteilt, nach denen sie entweder strenge Vorgaben erfüllen oder nicht reguliert werden sollen.[1] KI-gestützte Videospiele oder Spamfilter gelten etwa als „minimales Risiko“ für Bürgerrechte oder die Sicherheit, die Verordnung soll diesbezüglich nicht eingreifen. Ein „geringes Risiko“ sieht die Kommission in selbstlernenden Chatbots, bei denen die Nutzer*innen über die Funktion aufgeklärt werden sollen. Ein „unannehmbares Risiko“ besteht für Systeme, die „als klare Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen gelten“. Dazu zählt die Kommission Anwendungen die soziales Verhalten klassifizieren („Social Scoring“) oder Spielzeuge mit Sprachassistent.

Ein „hohes Risiko“ bergen dem Vorschlag zufolge KI-Systeme, die in kritischen Infrastrukturen, im Personalmanagement oder einer Bewertung der Kreditwürdigkeit eingesetzt werden. In diese Kategorie fällt KI-gestützte Software im Bereich Migration, Asyl und Grenzkontrolle, etwa wenn diese die Echtheit von Reisedokumenten überprüft. Dann sollen besondere „Risikobewertungs- und Risikominderungssysteme“ greifen, eingespeiste Datensätze müssten auf ihre Qualität überprüft und alle Vorgänge protokolliert werden. Außerdem soll sich die Software durch ein „hohes Maß an Robustheit, Sicherheit und Genauigkeit“ auszeichnen.

Grundsätzlich verbieten will die Kommission „alle Arten biometrischer Fernidentifizierungssysteme“ zur Strafverfolgung im öffentlichen Raum. Gemeint ist etwa die Echtzeit-Gesichtserkennung, wie sie in Deutschland das Bundesinnenministerium mit der Deutsche Bahn AG am Berliner Bahnhof Südkreuz getestet haben. Gleichzeitig schränkt die Kommission das Verbot aber ein und nennt eine große Zahl an Ausnahmen. Hierzu gehören Fälle, in denen biometrische Anwendungen „unbedingt erforderlich sind“, um vermisste Kinder zu finden oder eine „terroristische Bedrohung abzuwenden“. Auch die Verfolgung schwerer Straftaten soll möglich sein, nachdem eine Justizbehörde einen hierfür nötigen Beschluss ausgestellt hat.

In einem Diskussionspapier hat sich der portugiesische Ratsvorsitz bereits kritisch zu dem Kommissionsvorschlag geäußert.[2] Die EU müsse „unbedingt sicherstellen, dass wir die Entwicklung und Nutzung der technologischen Entwicklung nicht unnötig einschränken“. Der polizeiliche und justizielle Einsatz von KI soll demnach die Arbeit der Strafverfolgungsbehörden „effizienter gestalten“.

[1]      Kommissionsdokument COM(2021) 206 final v. 21.4.2021
[2]     Ratsdok. 9096/21 v. 31.5.2021, www.statewatch.org/media/2498/eu-council-ai-internal-security-outlook-9096-21.pdf

Image: Protestaktion am Bahnhof Südkreuz 2017 CC-BY 2.0 Endstation Jetzt

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert