01.

Interview: Polizei muss KI nutzen dürfen

Der Fall der RAF-Terroristin Daniela Klette machte kürzlich Schlagzeilen. Das, was die deutsche Polizei in 30 Jahren Fahndungsarbeit nicht schaffte, erledigte ein Journalist in wenigen Minuten mit einer frei zugänglichen KI-Software. Vor diesem Hintergrund führte Thorsten Frei ein Interview mit der TAZ-Journalistin Sabine am Orde. 

taz: Herr Frei, als die ehemalige RAF-Terroristin Daniela Klette vor drei Wochen verhaftet wurde, sprach die niedersächsische Innenministerin Daniela Behrens von einem Meilenstein der Kriminalgeschichte. Sie sind nicht ganz so begeistert. Warum?

Thorsten Frei: Die Polizei hat gute Arbeit geleistet. Aber die Wirkmächtigkeit der Polizei hängt von ihrem Werkzeugkasten ab. Der Fall „Daniela Klette“ hat gezeigt, dass der Polizei wichtige Instrumente fehlen. Ein Journalist hat innerhalb kürzester Zeit über eine Gesichtserkennungssoftware entscheidende Fotos und Spuren von Daniela Klette im Internet gefunden, der Polizei ist das untersagt. Das hinterlässt bei mir persönlich ein ungutes Gefühl. Wir dürfen nicht vergessen: Daniela Klette war gefährlich, sie hatte Kriegswaffen in ihrem Besitz. Hätte die Polizei sie früher gefasst, wäre das ein hoher Gewinn an Sicherheit gewesen.

Der Journalist benutzte die Software PimEyes, soll die Polizei das auch dürfen?

Ich persönlich hätte damit kein Problem. Aber selbstverständlich müsste man zunächst die rechtlichen Gegebenheiten prüfen.

PimEyes vergleicht ein Foto, im Fall von Klette das Fahndungsfoto, mit allen verfügbaren Fotos im Internet, an denen das Unternehmen keine Rechte hat – was Datenschützer kritisieren. Die Polizei kann bereits Gesichtserkennung mit ihrer Inpol-Datenbank nutzen, dort auf 5 bis 6 Millionen gespeicherte Fotos von Straftätern zurückgreifen. Das reicht Ihnen nicht?

Es geht mir nicht um die Daten von PimEyes. Meine Kritik richtet sich zuallererst gegen die Untätigkeit der Ampel. Sie weigert sich, die bestehenden Möglichkeiten zur Bekämpfung von Kriminalität, Extremismus und Terrorismus auszuschöpfen. Der gerade beschlossene europäische „AI-Act“ eröffnet neue Optionen, um Schwerkriminelle zu fassen. Diese Möglichkeiten sollten wir nutzen.

Der AI-Act der EU regelt erstmals Künstliche Intelligenz und verbietet Echtzeitüberwachung grundsätzlich als „unannehmbares Risiko“. Erlaubt sind nur wenige Ausnahmen bei schweren Straftaten.

enau diese Ausnahmen sind wesentlich und wichtig. Die Ampel will diese Ermittlungsmethoden zum Schaden unserer Sicherheit nicht nutzen. Das ist zu kritisieren. Wir sprechen im Übrigen nicht über ein gänzlich neues Thema.

Es gab bereits 2017/2018 einen Pilotversuch zur biometrischen Gesichtserkennung am Bahnhof Berlin-Südkreuz, der sehr erfolgreich verlaufen ist. Wenn man unterschiedliche Systeme zur Gesichtserkennung kombinierte, kam man schon damals zu der sehr, sehr geringen Falschtrefferrate von 0,00018 Prozent Das heißt: Auf eine Million Abgleiche waren zwei Falschtreffer zu verzeichnen. Wir sollten diese Technik deshalb an Kriminalitätsschwerpunkten einsetzen.

Das Pilotprojekt verglich Echtzeitfotos mit Fotos einer Polizeidatei. Wie erfolgreich es war, da gehen die Einschätzungen sehr auseinander. Der Chaos Computer Club sprach von geschönten Ergebnissen. Der Bundesdatenschutzbeauftragte Ulrich Kelber warnte, das Projekt gefährde die Anonymität im öffentlichen Raum, die Software genüge den Ansprüchen „bei Weitem nicht“.

Ihr Einsatz ist grundrechtssensibel, aber verfassungsrechtlich möglich. Die Daten des Abgleichs werden umgehend aus dem System gelöscht, wenn sie nicht zur gesuchten Zielpersonen passen. Die biometrische Gesichtserkennung wäre ein wichtiges Instrument, nicht nur im Bereich der Strafverfolgung, sondern auch der präventiven Polizeiarbeit.

Das gesamte Interview lesen Sie hier: taz.de/CDU-Politiker-ueber-Polizeiarbeit/!5999437/