Wirklich nur Forschung? Die EU lässt dubiose KI für die Grenzkontrolle entwickeln

von Lise Endregard Hemat

Der Artikel untersucht neue technologische Trends in der Digitalisierung von Grenzen. Die EU fördert derartige Experimente zum Einsatz von Künstlicher Intelligenz (KI) in der Grenzkontrolle und rechtfertigt dies damit, es handele sich um bloße Forschung. Doch insbesondere dort, wo Migrant*innen ins Visier genommen werden, gilt es zu berücksichtigen, dass Forschung unsere Vorstellungen von der Welt widerspiegelt.[1]

In ihrer KI-Strategie hat die EU-Kommission das Ziel ausgegeben, eines der führenden Zentren für Technologien Künstlicher Intelligenz zu werden.[2] Dazu fördert sie KI-Forschungsprojekte, um technologische Kompetenz und Lösungen zur Bewältigung ihrer Herausforderungen zu entwickeln. Dieser Artikel greift auf die KI-Definition zurück, die die von der EU-Kommission eingesetzte „Hochrangige Expertengruppe für Künstliche Intelligenz“ entworfen hat.[3] KI meint demnach Softwaresysteme (und möglicherweise auch Hardware), denen ein komplexes Ziel gesetzt wird, die ihre Umgebung durch das Sammeln und Interpretieren von Daten wahrnehmen, diese Informationen auswerten und davon ausgehend Entscheidungen darüber treffen, welches Vorgehen am besten geeignet ist, das Ziel zu erreichen. Darüber hinaus können KI-Systeme ihr Verhalten anpassen, indem sie analysieren, wie sich ihre Umwelt durch ihr vorangegangenes eigenes Vorgehen verändert.

Bei der Entwicklung von KI können unterschiedlichste Herangehensweisen und Techniken zum Einsatz kommen. Eine von ihnen ist das maschinelle Lernen. Es ist typischerweise dort nützlich, wo es um Probleme geht, die nicht mit symbolischen Denkregeln beschrieben werden können, wie beispielsweise Fragen der Sprache. Einfach gesagt: Anstatt dem System eine Regel vorzugeben, die es zu befolgen gilt, geben ihm die Entwickler*innen eingehende und ausgehende Informationen und ermöglichen dadurch Generalisierungen. Ausgehend von diesen Generalisierungen, deren Funktionsweise Menschen möglicherweise noch nicht einmal verstehen, kann das System Aufgaben lösen und menschliches Denken simulieren.

KI ermöglicht in vielen Fällen Effizienz und Präzision. Eines der Gebiete, auf dem die EU dies erhöhen möchte, ist die Kontrolle der Grenzen. Experimente mit KI sind daher mit einer weiteren Entwicklung verwoben: der Digitalisierung der Grenzen. Das Bestreben der EU, die Effizienz und Sicherheit der Grenzen mit digitalen Mitteln zu steigern, begann bereits 2008 mit dem „Smart Borders Package“.[4] Es sollte Grenzen „smarter“ machen, um die Sicherheits- und Strafvollzugsbehörden mit den Werkzeugen auszustatten, Europa vor Terrorismus, Kriminalität und irregulärer Einwanderung zu schützen.

Derartige Sicherheitsbedrohungen sind komplex, transnational, entwickeln sich rasch und spornen so neuartige technologische Lösungen an – einschließlich der KI. Diese Bedürfnisse vereinigten sich in den EU-geförderten Forschungsprojekten. Das Förderprogramm der EU für Forschung und Innovation zwischen 2004 und 2010 lief unter dem Namen „Horizon 2020 (H2020)“. Es enthielt ein Arbeitsprogramm namens „Sichere Gesellschaften“ mit dem Unterthema „Border Security and External Security“, in dem die EU dazu aufrief, neuartige Lösungen für das Schaffen effizienter und sicherer Landgrenzen zu finden.

Nicht alle Menschen teilen die Begeisterung für die mit EU-Förderung entwickelten KI-Sicherheitstechnologien. Ella Jakubowska von European Digital Rights (EDRi) zufolge zeichnet sich „ein breiterer Trend dahingehend ab, dass die EU öffentliche Gelder in dystopische und experimentelle Überwachungsprojekte steckt, in denen Menschen wie Laborratten behandelt werden“.[5] Petra Molnar, Associate Director des Refugee Law Lab der York University, teilt diese Bedenken und steht technologischen Experimenten kritisch gegenüber, insbesondere auf dem Gebiet der Grenzkontrolle, da Migrant*innen häufig die Versuchssubjekte sind.[6] Ihr zufolge werden diese Versuche durch unterschiedliche Rechte von Migrant*innen und denen von EU-Bürger*innen ermöglicht. Migrant*innen werden von der EU und den Technologieentwickler*innen als Menschen mit geringeren individuellen Rechten wahrgenommen, was sie zum „perfekten Ziel“ experimenteller Technologien macht. Der folgende Abschnitt beschreibt ein solches auf die Grenzkontrolle gerichtetes, EU-gefördertes KI-Technologieprojekt näher.[7]

iBorderCtrl

Das Forschungsprojekt „Intelligent Portable Border Control System (iBorderCtrl)“ hat in dieser Hinsicht erhebliche Kritik erfahren. Kritiker*innen meinen, dass das Projekt eine pseudowissenschaftliche Technologie entwickelt habe, die die Rechte und Sicherheit von Migrant*innen gefährdet.[8] Übergeordnetes Ziel dieses Projekts war es, eine KI-Technologie zum besseren Schutz der europäischen Grenzen vor Terrorismus, Kriminalität und irregulärer Migration zu entwickeln. Hierfür entwarfen die Forscher*innen einen KI-gestützten „Lügendetektor“ namens „automated deception detection system (ADDS)“. Die Projektseite von iBorderCtrl hat diese Technologie als „Lügendetektor“ bezeichnet, der Datenschutzbeauftragte Zoltán Székely jedoch darauf hingewiesen, dass ein „deception detector“ (Täuschungsdetektor) sich davon grundsätzlich unterscheide. Im Rahmen dieses Artikels wird nicht auf die technischen Einzelheiten eingegangen und die Technologie daher als ADDS bezeichnet.

Der Zweck des beforschten ADDS sollte es sein, in die EU kommende Drittstaatsangehörige zu überprüfen.[9] Bevor sie an der Grenze ankämen, müssten sie Bilder ihres Reisepasses und Visums auf eine Website hochladen und sich einer Befragung durch einen als virtuellen Avatar auf dem Monitor dargestellten Grenzschützer von iBorderCtrl unterziehen. Während der Befragung müsste die Webcam angeschaltet bleiben, damit das System die Mikrogestik auf der Suche nach Täuschungsanzeichen analysieren kann. Mikrogesten sind winzige und rasche Gesichtsbewegungen, die angeblich mit Stress und Besorgnis einhergehen, wie etwa ein Augenlid halb zu schließen und wieder zu öffnen. Da das System auf maschinellem Lernen basiert, wäre es im Nachhinein unmöglich zu bestimmen, welche Geste für die Kennzeichnung als Täuschung maßgeblich gewesen wäre.[10]

Nach der Befragung würden die Einreisenden einen QR-Code erhalten, den sie an die Grenze mitbringen. Erst dort würden sie dann von Grenzbeamt*innen überprüft. Auf ihrem (im Rahmen des Projektes entwickelten) „iCross“-Gerät könnten die Beamt*innen den jeweiligen „Täuschungsscore“ abrufen und entscheiden, ob weitere Befragungen durchgeführt werden, die Einreise abgelehnt oder gestattet wird. Die Reisenden würden ihren eigenen Score nie erfahren.[11]

Das ADDS wurde nie an Grenzen eingesetzt und auch nicht ausführlich erprobt. Aufgrund der Kritik wurden Tests, die an der ungarischen Grenze hätten erfolgen sollen, aufgeschoben.[12] Stattdessen wurde an einer Grenzübergangsstelle einer Landgrenze eine freiwillige Warteschlange eröffnet, an der Freiwillige das System ausprobieren konnten. Dort fanden sich am Ende vor allem neugierige Journalist*innen und Aktivist*innen wieder.

Rationalisierungen für iBorderCtrl

Nach der Kritik, die iBorderCtrl erfahren hatte, musste die Kommission reagieren. 2020 erinnerte sie, dass es sich „bei iBorderCtrl um ein Forschungsprojekt handelte, das weder die Erprobung noch den Einsatz eines tatsächlich funktionsfähigen Systems ins Auge gefasst hat.“[13] Diese Stellungnahme suggeriert, dass EU-geförderte Forschung unproblematisch ist, wenn sie nicht umgesetzt wird. Auf die Kritik an den potenziellen menschenrechtlichen Problematiken ist die Kommission nicht eingegangen. Ähnliche Überlegungen wurden durch Frontex vorgetragen – als mögliche Endnutzerin eine zentrale Stakeholderin bei der Erforschung von Grenztechnologien. Zwei Befragte aus der Abteilung für Forschung und Innovation bei Frontex haben behauptet, die Technologie sei „Lichtjahre“ von einem Einsatz entfernt.[14] Meiner Meinung nach kann aber Forschung, wenngleich sie einen legitimen und wichtigen Zweck darstellt, nicht einfach deshalb als völlig unproblematisch abgetan werden, nur weil sie nicht eingesetzt wird.

Erstens gibt es immer bestimmte Gründe dafür, dass geforscht wird. Die ADDS-Technologie wurde unter anderem als nützlich beim Kampf gegen „irreguläre Migration“ wahrgenommen. Das iBorderCtrl-Projekt geht daher von der immer weiter verbreiteten Vorstellung aus, dass Technologien dabei helfen können, „Migrationskrisen“ zu lösen, und dass digitalisierte Grenzen die Sicherheit in Europa erhöhen werden. Einer solchen Vorstellung liegt die Annahme zugrunde, dass Migration kontrolliert werden kann, wenn wir Informationen über sie haben. Diese Rhetorik ist fragwürdig. Besters und Bronn beispielsweise haben argumentiert, dass die europäische Digitalisierung der Migrationssteuerung sich in „gieriger“ Informationstechnologie verfangen hat. Informationstechnologie will stetig mehr. Wenn wir immer mehr Datensammelsysteme einführen, stehen wir am Ende mit enormen Datenmengen da, es fehlen aber nach wie vor Systeme, um die strukturellen Probleme zu beheben, die Migration verursachen.[15] iBorderCtrl ist ein Beispiel für diesen Datenhunger, denn das Projekt sollte das „Ein-/Ausreisesystem“ (EES) unterstützen, dessen Inbetriebnahme für Mai 2023 vorgesehen war. Das EES wird noch mehr Daten über Drittstaatsangehörige sammeln, wann immer sie den Schengen-Raum betreten, verlassen oder durchqueren. iBorderCtrl sollte die durch EES verursachten längeren Warteschlangen wieder verkürzen, indem es die Grenzkontrolle teilweise in die Wohnungen der Drittstaatsangehörigen auslagert.

Zweitens sind Grenztechnologien nicht neutral. Martins und Jumberts Aufsatz über die Co-Produktion von Sicherheits-„Problemen“ und „-Lösungen“ legt dar, wie aufgrund der Versicherheitlichung von Migrant*innen an modernsten Technologien geforscht wird. Theorien der Versicherheitlichung zeigen auf, dass das, was als Bedrohung wahrgenommen wird, und das, was als schutzbedürftig angesehen wird, sozial konstruiert ist. Die mächtige Position der EU ermöglicht ihr festzulegen, welche Themen in welcher Weise Aufmerksamkeit verdienen. Migration als Risiko zu framen, kann die Grenzen dessen, was als angemessen erachtet wird, verschieben, und so die Entwicklung außerordentlicher Technologien ermöglichen. Mit anderen Worten: Technologien, die ansonsten als völlig unangemessen und überflüssig erachtet würden, werden als nützlich bei der Bewältigung der von Migrant*innen angeblich ausgehenden Sicherheitsbedrohungen angesehen.[16]

Es darf davon ausgegangen werden, dass EU-Bürger*innen heftig protestieren würden, wenn die EU Millionen Euros für die Entwicklung eines Systems ausgeben würde, das ihre Glaubwürdigkeit bei einer Reise überprüfen soll.

Die europäischen Grenzen sind hoch technologisiert und es ist nicht unvorstellbar, dass ADDS in der Zukunft eingesetzt werden könnte. So hat Frontex ausdrücklich angegeben, dass KI-Projekte im Rahmen von H2020 Technologien für die Zukunft der Grenzkontrolle schaffen.[17] Trotz der Statements der Europäischen Kommission und von Frontex, wonach iBorderCtrl weit davon entfernt sei, eingesetzt zu werden, will der EU-Abgeordnete Patrick Breyer aufgedeckt haben, dass iBorderCtrl Lobbyismus beinhalte, um die Gesetzgebung so zu ändern, dass das System tatsächlich eingesetzt werden könnte. Breyer erhob eine Transparenzklage gegen die EU-Forschungsagentur auf Offenlegung der klassifizierten iBorderCtrl-Dokumente zu Legalität, Ethik und Ergebnissen. Er erhielt Recht und die Dokumente wurden herausgegeben, waren jedoch weitreichend geschwärzt. Es war ihm möglich, den Text wiederherzustellen und so aufzudecken, dass zu den Zielen des Projekts gehörte, die EU-Gesetzgebung zu beeinflussen.[18] Darüber hinaus wurde in einem späteren H2020-Projekt namens „TRESSPASS“ eine ähnliche Technologie zur Überprüfung von Aufrichtigkeit entwickelt. Es strebte an, eine Echtzeit-Verhaltensanalyse zur Risikoeinschätzung an Flughäfen zu erstellen, um Reisende zu evaluieren.[19]

Migrant*innen als Versuchssubjekte

Beginnend mit dem Schengener-Informationssystem 1995 sind Migrant*innen kontinuierlich Betroffene neuer EU-Sicherheitsanwendungen – ein Gebiet, das seitdem hochgradig technologisiert ist. Indem die Freizügigkeit für EU-Bürger*innen innerhalb des Schengen-Raums etabliert wurde, wurde die Bewegungsfreiheit von Drittstaatsangehörigen dorthin eingeschränkt. Alyna Smith, Vizedirektorin der Nichtregierungsorganisation PICUM (Platform for International Cooperation on Undocumented Migrants), argumentiert, dass der Fokus auf den Schutz der EU vor Migrant*innen (insbesondere irregulären) „ein völlig überdimensioniertes Augenmerk legt, auf eine äußerst negative Weise“.[20] Ihrer Ansicht nach stellen irreguläre Migrant*innen keine solch schwerwiegenden Sicherheitsbedrohungen dar, dass sie es rechtfertigen würden, Millionen von Euro für Experimente mit Technologien auszugeben, die darauf abzielen, diese fernzuhalten.

Wie bereits ausgeführt, verschiebt die Versicherheitlichung von Migrant*innen die Grenze dessen, was als angemessene und erforderliche Reaktion angesehen wird. In der Folge beobachten wir dubiose technologische Experimente, die für den Einsatz an EU-Bürger*innen wahrscheinlich niemals freigegeben würden. Matthias Monroy weist darauf hin, dass Drittstaatsangehörige womöglich zur Zielgruppe für iBorderCtrl wurden, weil „niemand protestieren würde, da keine EU-Bürger*innen betroffen sind.“[21] Ein weiterer Grund dafür, dass Drittstaatsangehörige hierfür ausgewählt werden, mag mit der potenziellen negativen Stigmatisierung von Migrant*innen zusammenhängen. „Täuschungsdetektion“ ist ein negativ aufgeladener Begriff, der voraussetzt, dass die Betroffenen absichtlich täuschen könnten – eine erniedrigende Idee. Es scheint, dass diese herabwürdigenden Vorstellungen von Migrant*innen in der Debatte darüber übersehen oder zumindest nicht aktiv hinterfragt werden.

Costica Dumbrava, Politikanalyst beim Wissenschaftliche Dienst des Europäischen Parlaments, betont, dass Technologien nie „gerecht“ sind, weil sie bestehende Ideen repräsentieren und perpetuieren.[22] Dass auf Migrant*innen abgezielt wird, ist nicht neu. Asylsuchende waren die ersten, denen die EU durch EURODAC Fingerabdrücke abnehmen ließ. Monroy zufolge zeigt dies, dass Migrant*innen als geeignete Versuchspersonen für experimentelle Technologien erachtet wurden. Auch Molnar, Smith, Besters und Brom behaupten, dass die Migrationssteuerung der EU zum Versuchslabor für neuartige Technologien geworden ist.[23]

Migrant*innen ins Visier zu nehmen, ist zudem problematisch, weil ein System wie iBorderCtrl auf maschinelles Lernen angewiesen ist und das Sammeln enormer Datenmengen erfordern würde. Die EU erhebt bereits viele Daten von Reisenden und das System von iBorderCtrl würde noch mehr davon benötigen. Es ist wichtig, sich in Erinnerung zu rufen, dass Daten verloren werden können – so geschehen durch den Cyberangriff auf das Internationale Komitee vom Roten Kreuz (IKRK) im November 2021.[24] Ein gehackter Server enthielt Kontaktinformationen, Namen und Ortsangaben von mehr als 500.000 Personen, darunter Gefangene, Vermisste und deren Familien sowie Menschen, die Unterstützung durch das IKRK aufgrund bewaffneter Konflikte oder Migration erhalten. Burkhard Schafer, Professor für Computational Legal Theory, zeigt sich „immer sehr skeptisch gegenüber einem Argument für die Ausweitung von Datennutzung“, denn „sobald wir die Infrastrukturen aufbauen, sobald wir die Daten erheben, sind sie da“.[25] Ist es zu rechtfertigen und angemessen, noch mehr Daten zu erheben, um Migration zu steuern und die selbstdefinierten Sicherheitsprobleme der EU zu lösen? Erschwerend tritt hinzu, dass für Migrant*innen das Finden von und der Zugang zu Abhilfe und Rechtswegen bei Datenmissbrauch herausfordernd ist oder sie Diskriminierung ausgesetzt sind.

Fehlende ethische Bewertung

Bei Forschungsprojekten von dieser Größenordnung und Bedeutung sind die ethische Bewertung und der vorsichtige Umgang mit Daten ersichtlich besonders wichtig. Vertreter*innen aus der Abteilung für Forschung und Innovation bei Frontex, mit denen ich gesprochen habe, waren der Meinung, dass iBorderCtrl einer ausführlichen ethischen Bewertung unterzogen worden sei. Meiner Untersuchung zufolge handelte es sich jedoch um einen kurzen, nahezu nicht vorhandenen Prozess. Der Datenschutzbeauftragte für iBorderCtrl, Zoltán Székely, ließ wissen, dass seine Ernennung überstürzt und nicht durchdacht gewesen sei. Sie sei in den letzten Tagen der Antragstellung erfolgt, weil man plötzlich bemerkt habe, dass eine*n Verantwortliche*n dafür benötigt würde. Er sei hauptsächlich aufgrund seines Abschlusses in Politikwissenschaft ausgewählt worden.

Zum Zeitpunkt der Antragstellung für die Förderung von iBorderCtrl wurde eine Datenschutz-Folgeabschätzung nicht vorausgesetzt. Die Forschenden wollten jedoch eine ordnungsgemäße ethische Bewertung durchführen und baten verschiedene Universitäten um Rat. Während sie dabei waren, sich um Beratung zu bemühen, wurden sie von der ungarischen Grenzpolizei darüber informiert, dass sie alle Versuche würden aufschieben müssen. Diese Nachricht kam, nachdem das ADDS auf einer Ausstellung zur Erprobung zur Verfügung stand und das Projekt daraufhin negative Reaktionen erhalten hatte. Das Team konnte die ethische Beratung durch Universitäten deshalb nicht wie geplant in Anspruch nehmen.[26] In späteren Jahren sind ethische Bewertungen im Rahmen von H2020-Forschungsprojekten vermutlich mehr in den Blick gerückt, werden aber noch nicht als adäquat angesehen. Sarah Perret, Research Associate am King’s College London, hat selbst erlebt, dass ethische Erwägungen als Formalität behandelt werden und Projekte „Schlagworte“ nennen, um die Ethik-Voraussetzungen zu erfüllen.[27]

Schlussbemerkungen

In den obigen Abschnitten habe ich versucht darzulegen, dass das EU-geförderte Experimentieren unabhängig von seiner Umsetzung Auswirkungen hat. Migration wird als eine Gefahr geframed, die mit zusätzlichen Informationen gelöst werden könne, wobei sich die Grenzen dessen, was als akzeptabel erachtet wird, verschieben. Solche Prozesse können die Entwicklung außergewöhnlicher Technologien befördern. Die Vorstellung, iBorderCtrl biete noch keinen Grund zur Sorge, habe ich mit Blick auf Erkenntnisse hinterfragt, wonach das Projekt vorhatte, Lobbyarbeit für Gesetzesänderungen zu betreiben, während künftige Projekte ähnliche Technologien fortentwickeln. Indem auf Drittstaatsangehörige abgezielt wird, ist iBorderCtrl eines von vielen Projekten, in denen die Migrationssteuerung der EU ein Versuchslabor für neuartige Technologien wird. Letztere erfordern große Datenmengen, die wiederum verloren gehen können. So entstehen Risiken, die angesichts der verletzlichen Position der Betroffenen zu hoch sein könnten. Das alles ist umso besorgniserregender angesichts der nicht hinreichenden ethischen Bewertung des Projektes. Dieser Artikel unternimmt den Versuch, eine Debatte über die solchen Forschungsprojekten zugrundeliegenden Wahrnehmungen anzustoßen. Während Technologien immer fortschrittlicher werden, erlangt auch die Gewährleistung der Menschenrechte derer, auf die sie abzielen, eine immer größere Bedeutung.

[1]   Dieser Artikel verwendet „Migrant*innen“ als allgemeinen Begriff, der Geflüchtete und andere Kategorien von Migrant*innen gemäß der Definition von Jørgen Carling umfasst, vgl. Carling, J.: Refugees Are Also Migrants. All Migrants Matter, in: University of Oxford, Faculty of Law Blogs v. 3.9. 2015, https://blogs.law.ox.ac.uk/research-subject-groups/centre-criminology/centreborder-criminologies/blog/2015/09/refugees-are-also.
[2]   EU-Kommission: Ein europäischer Ansatz für künstliche Intelligenz, online: https://digital-strategy.ec.europa.eu/de/policies/european-approach-artificial-intelligence
[3]   High-Level Expert Group on Artificial Intelligence: A definition of AI: Main capabilities and scientific disciplines, online: https://ec.europa.eu/futurium/en/system/files/ged/ai_hleg_definition_of_ai_18_december_1.pdf
[4]   EU-Kommission: Stronger and Smarter Information Systems for Borders and Security, Kommissionsdokument COM (2016) 205 final v. 6.4.2016
[5]   With Drones and Thermal Cameras, Greek Officials Monitor Refugees, www.aljazeera.com v. 24.12.2020
[6]   Molnar, P.: Technology on the Margins: AI and Global Migration Management from a Human Rights Perspective, in: Cambridge International Law Journal 2019, Nr. 2, S. 305-330
[7]   Dieser Aufsatz basiert auf Arbeiten, die für die Masterarbeit der Autorin durchgeführt wurden: Hemat, L.E.: „Just” Research: A Case Study of EU-funded Research with Experimental Artificial Intelligence Technology for Border Control, MA thesis, University of Oslo The Faculty of Law, Norwegian Centre for Human Right, Oslo 2022, www.prio.org/publications/13182.
[8]   EU Border „Lie Detector” System Criticised as Pseudoscience, www.theguardian.com v. 2.11.2018; Kinchin, N.: Technology, Displaced? The Risks and Potential of Artifical Intelligence for Fair, Effective, and Efficient Refugee Status Determination”, in: Law in Context 2021, Nr. 3, S. 45-73, https://journals.latrobe.edu.au/32ff498d-a8d1-4f58-9b6e-1146461e14c1
[9]   „Drittstaatsangehörige“ meint hier alle Personen, die nicht Staatsangehörige eines Schengen-Mitgliedstaates sind.
[10]  O’Shea, J. et al.: “Intelligent Deception Detection through Machine Based Interviewing, in: International Joint Conference on Neural Networks, Rio de Janeiro 2018, S. 1-8, https://doi.org/10.1109/IJCNN.2018.8489392
[11]  Hemat, L.E.: Trends in the Digitalisation of EU Borders: How Experimentations with AI for Border Control Treat Migrants as Test Subjects, PRIO Policy Brief 2022, Nr. 15, www.prio.org/publications/13253; We Tested Europe’s New Lie Detector for Travelers – and Immediately Triggered a False Positive, https://theintercept.com v. 26.7.2019
[12]  Zoltán Székely, Interview mit der Autorin, 2022
[13]  Europäisches Parlament: Antwort der EU-Kommission auf die Parlamentarische Anfrage – E-000152/2020 v. 30.3.2020
[14]  Befragte aus der Abteilung für Forschung und Innovation bei Frontex, Interview mit der Autorin, 2022
[15]  Besters, M.; Brom F.W.A.: „Greedy” Information Technology: The Digitalization of the European Migration Policy, in: European Journal of Migration and Law 2010, H. 4, S. 455-470, https://doi.org/10.1163/157181610X535782
[16]  Martins, B.O.; Jumbert. M.G.: EU Border Technologies and the Co-Production of Security „Problems” and „Solutions”, in: Journal of Ethnic and Migration Studies 2020, H. 6, S. 1430-1447, https://doi.org/10.1080/1369183X.2020.1851470
[17]  Frontex: EU Research, Stand 2021, archivierte Seite: https://web.archive.org/https://frontex.europa.eu/future-of-border-control/eu-research/horizon-projects/?p=1
[18]  Breyer, P.: Big brother „video lie detector”: EU research funds are misused to lobby for legislative changes, 27.4.2021, www.patrick-breyer.de/en/big-brother-video-lie-detector-eu-research-funds-are-misused-to-lobby-for-legislative-changes
[19]  Monroy, M.: EU Project iBorderCTRL: Is the Lie Detector Coming or Not?, 26.4.2021, https://digit.site36.net/2021/04/26/eu-project-iborderctrl-is-the-lie-detector-coming-or-not
[20]  Alyna Smith, Interview mit der Autorin, 2022
[21]  Matthias Monroy, Interview mit der Autorin, 2022
[22]  Costica Dumbrava, Interview mit der Autorin, 2022
[23]  Molnar, P.: Technology on the margins: AI and global migration management from a human rights perspective, in: Cambridge International Law Journal 2019, Nr. 2, S. 305-330, https://doi.org/10.4337/cilj.2019.02.07
[24]  IKRK: Cyber attack on ICRC: What we know v. 16.2.2022, www.icrc.org/en/document/cyber-attack-icrc-what-we-know
[25]  Burkhard Schafer, Interview mit der Autorin, 2022
[26]  Zoltán Székely, Interview mit der Autorin, 2022
[27]  Sarah Perret, Interview mit der Autorin, 2022

Beitragsbild: iBorderCtrl.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert