KI bei der Polizei: Sicherheit oder Kontrollverlust?
Ich bin bekennendes True-Crime-Fangirl. Und ich bin AI-Fangirl.
Eine aktuelle Folge von Zeit Verbrechen zu KI bei der Polizei führt beide Welten wunderbar zusammen. Mir wurde klar: Dieses Thema ist einer der sensibelsten Anwendungsfälle von künstlicher Intelligenz überhaupt und muss erzählt werden.
Denn kaum eine Anwendung zeigt so deutlich, wie nah Nutzen und Risiko beieinander liegen.
Für euch fasse ich die Erkenntnisse aus dem Podcast zusammen und ordne sie ein.
In meinem Youtube Channel Feel the Future könnt ihr euch das gesamte Video ansehen.
KI bei der Polizei: Wenn Technologie Leben retten kann
Die Geschichte startet emotional. Ein vermisstes 16-jähriges Mädchen konnte am Frankfurter Bahnhof mithilfe eines AI-gestützten Videosystems innerhalb eines Tages gefunden werden. Ein großer Erfolg für das Bundesland Hessen.
In Hessen gilt der Einsatz von künstlicher Intelligenz bei der Polizei als besonders fortgeschritten. Die Polizei nutzt KI-basierte Systeme zur Analyse von Datenmengen und zum strukturierten Einsatz bei Ermittlungen. Die umstrittene Software Palantir wird in einer Dokumentation im Zusammenhang mit der hessischen Polizei genannt.
Bei diesen Einsätzen geht es um die smarte Verknüpfung von Information. Und um die Verarbeitung personenbezogener Daten auf Basis eines heute klar definierten rechtlichen Rahmens.
Im konkreten Fall: Das Foto des 16-jährigen Mädchens wurde nach einem richterlichen Beschluss in das System eingespeist. Das System erkannte einen Treffer: Gesuchte Person am Frankfurter Hauptbahnhof aufgespürt.
KI und richterlicher Beschluss – das ist aktuell der Status quo. Die gute Nachricht also: Der Einsatz in Deutschland erfolgt heute gezielt und nicht flächendeckend.
Gesichtserkennung bei der Polizei: Schutz oder Überwachung?
Ein besonders sensibler Bereich ist die Gesichtserkennung bei der Polizei aber dennoch. Denn Systeme zur biometrischen Identifikation in öffentlichen Räumen greifen tief in Rechte ein.
Genau hier beginnt die Debatte um KI und Grundrechte.
Das Problem: Videoüberwachung in öffentlichen Räumen wird durch AI-Technologie immer leistungsfähiger. Systeme erkennen Gesichter, Bewegungsmuster und bestimmte Verhaltensweisen. Sie basieren auf maschinellem Lernen und entwickeln sich kontinuierlich weiter. Dabei erzählen die Systeme uns immer weniger, auf welcher Grundlage sie sich selbst weiterentwickeln.
Das Ganze droht sogar, unsere Demokratie zu gefährden. Sobald Menschen wissen, dass sie identifizierbar sind, entsteht der sogenannte Chilling-Effekt:
Die bloße Möglichkeit der Identifizierung beeinflusst Verhalten – insbesondere bei Demonstrationen oder politischen Versammlungen. Die Freiheit der betroffenen Personen steht unmittelbar in Frage. Deshalb werden Videoüberwachungssysteme in der Mannheimer Innenstadt bei Demonstrationen verhängt.
Hier zeigt sich: AI bei der Polizei ist nicht nur ein Sicherheitsinstrument. Sie ist ein demokratietheoretisches Thema. Und nichts müssen wir mehr schützen als unsere Demokratie.
Predictive Policing und algorithmische Entscheidungsfindung
Wer denkt, noch kontroverser kann es nicht werden, der denke an das Thema Predictive Policing.
Dabei geht es um Systeme, die mithilfe historischer Daten Wahrscheinlichkeiten berechnen: Wo könnten Verbrechen stattfinden? Welche Muster deuten auf künftige Straftaten hin?
Das klingt effizient. Doch es basiert auf algorithmischer Entscheidungsfindung.
Algorithmen arbeiten aber mit Daten. Daten enthalten Verzerrungen. Verzerrungen verstärken sich.
Predictive Policing kann dazu führen, dass bestimmte Stadtteile häufiger kontrolliert werden – weil sie historisch häufiger kontrolliert wurden. Ein Kreislauf entsteht.
Hier stellt sich die Frage: Wer kontrolliert die algorithmische Entscheidungsfindung? Wie transparent ist sie? Und wann fängt sie an, zu diskriminieren?
Hochrisiko-Systeme, AI Act, KI-Verordnung und KI Überwachung
Die europäische Verordnung (AI Act) stuft biometrische Identifikation im öffentlichen Raum als Hochrisiko-AI-Systeme ein. Systeme mit hohem Risiko unterliegen heute besonders strengen Anforderungen an Transparenz, Dokumentation und Kontrolle.
Gerade im Kontext von KI Datenschutz und KI DSGVO wird deutlich, wie sensibel die Verarbeitung personenbezogener Daten ist. Die DSGVO regelt den Datenschutz, der AI Act ergänzt ihn um spezifische Vorgaben für Hochrisiko-KI-Systeme.
Regulierung allein aber reicht nicht. Sie muss umgesetzt, überwacht und kontinuierlich angepasst werden. Und wir müssen uns ohne Zweifel darauf verlassen können, dass diese Regulierung nicht eines Tages ausgehebelt werden kann. Doch können wir das?
KI Verbrechen: Wenn Technologie selbst zum Täter wird
Ein weiterer Aspekt ist die Kehrseite von KI-Technologie selbst.
Wo KI zur Verbrechensbekämpfung eingesetzt wird, entstehen gleichzeitig neue Formen von KI Verbrechen. Deepfakes, Stimmklonung, manipulierte Videos, synthetische Identitäten – all das basiert auf denselben technologischen Grundlagen.
Fahndungsbilder können mithilfe von KI erstellt werden. Stimmen können rekonstruiert werden. Avatare können Ermittlungen unterstützen.
Doch dieselben Methoden können missbraucht werden:
um Verbrechen zu begehen, Menschen zu betrügen und mit ihrer digitalen Identität zu erpressen.
Das Spannungsfeld zwischen KI bei der Polizei und KI-Verbrechen zeigt: Technologie ist niemals nur Werkzeug. Sie ist Machtfaktor.
Maschinelles Lernen und Fehlerrisiken
Systeme auf Basis von maschinellem Lernen entwickeln sich weiter. Sie optimieren sich anhand großer Datenmengen. Doch jedes System produziert Fehler.
False Positives führen dazu, dass unbeteiligte Personen ins Visier geraten. False Negatives sorgen dafür, dass tatsächliche Täter nicht erkannt werden. Das ist algorithmische Entscheidungsfindung in sicherheitsrelevanten Kontexten.
Für die betroffenen Personen können solche Fehler gravierende Konsequenzen haben.
Und selbst wenn KI nur unterstützend arbeitet, verschiebt sie Entscheidungsprozesse. Sie beeinflusst Ermittlungen. Sie priorisiert Hinweise. Sie strukturiert Aufmerksamkeit. Weil wir uns immer mehr auf sie verlassen.
KI und Demokratie: Die eigentliche Kernfrage
Ich sage das bewusst als KI-Enthusiastin: Ich liebe Technologie. Ich glaube an Innovation. Ich habe selbst KI-Produkte entwickelt.
Aber genau deshalb sehe ich, was hier auf dem Spiel steht. KI und Demokratie sind kein Schlagwort. Es ist die reale, die eigentliche Herausforderung im Umgang mit dieser alles verändernden Technologiewelle.
Ein Beispiel, das diese Dimension drastisch zeigt, ist Russland. Bei der Beerdigung des Kreml-Gegners Alexej Nawalny wurden Menschen, die an der Trauerfeier teilnahmen, mithilfe von Gesichtserkennung identifiziert – und später verhaftet. Im Stillen.
Hier wurde Gesichtserkennung bei der Polizei nicht zur Verbrechensaufklärung eingesetzt, sondern zur politischen Kontrolle. Das ist der Moment, in dem aus Sicherheitsinfrastruktur Überwachungsinfrastruktur wird.
Und genau deshalb ist die Debatte um KI bei der Polizei mehr als eine technische Diskussion. Sie ist eine Diskussion über KI und Grundrechte. Über Macht. Über Kontrolle. Über Transparenz.
Nicht der Algorithmus entscheidet, ob ein System schützt oder überwacht. Nicht maschinelles Lernen entscheidet, ob Grundrechte gewahrt bleiben. Es ist die Stabilität unserer demokratischen Institutionen.
Und ich sage das zum ersten Mal ganz offen: Ich habe keine Angst vor KI.
Aber ich habe Angst davor, dass wir die Stabilität unserer Demokratie überschätzen.
Denn wenn wir hier einmal falsch abbiegen – wenn Macht, Technologie und politische Interessen sich ungeregelt verbinden – dann ist der Weg zurück kein kurzes Update des Betriebssystems. Dann gibt es im Zweifel keine Notbremse mehr, denn noch nie hat sich ein selbstgerechtes System selbst abgeschafft.