Der Hansaplatz-Versuch war kein Erfolg

Die Hamburger Polizei experimentiert am Hansaplatz mit KI, genauer mit Verhaltenserkennung. KI soll unerwünschtes Verhalten erkennen und die Polizei benachrichtigen. Die Polizei darf ihren Versuch selbst evaluieren, also wurden selbstverständlich alle Ziele erreicht. Zum Glück heißt es im Koalitionsvertrag von SPD und Grüne im Abschnitt Digitalisierung und gesellschaftliche Verantwortung:

Wir werden beim Einsatz von KI-Anwendungen in Hamburger Behörden sicherstellen, dass grundsätzlich Transparenz, Nachvollziehbarkeit und Überprüfbarkeit gegeben sind. Wo es fachlich vertretbar ist, sollen von bzw. für die Hamburger Verwaltung entwickelte Algorithmen öffentlich verfügbar gemacht werden. KI-Trainingsdaten sollen in der Kontrolle der Behörden verbleiben, soweit diese nicht im Rahmen eines Datenaustausches in größere Datenpools eingebracht werden. Zudem wollen wir einen behördenübergreifenden Standard zur Überprüfung der Diskriminierungsfreiheit bei KI und Algorithmen einführen, damit die Souveränität über die Verfahren bewahrt wird.

Wir können also Transparenz erwarten, vielleicht sogar einen Blick in die Trainingsdaten werfen und damit nachvollziehen und überprüfen, ob der Versuch tatsächlich so erfolgreich war wie behauptet.

Leider wurde meine Transparenzanfrage zu dem Projekt über ein Jahr lang nicht beantwortet. Und auch dann wurde nur ein kleiner Teil der angefragten Dokumente zur Verfügung gestellt. In diese Dokumente, Evaluations- und Projektabschlussbericht, schauen wir nun einmal rein.

„Der Hansaplatz-Versuch war kein Erfolg“ weiterlesen

Verhaltensüberwachung am Hansaplatz

flamenc, Neue Hansaplatz 2011, CC BY-SA 3.0
flamenc, Neue Hansaplatz 2011, CC BY-SA 3.0

Die Hamburger Polizei experimentiert am Hamburger Hansaplatz mit einer Verhaltenserkennung. Offenbar genügt die Kameraüberwachung nicht mehr, um Personen auf die angrenzenden Spielplätze zu verdrängen. Die Polizei rüstet also auf. Ohne vorherige Ausschreibung investiert sie in intelligente Überwachungssensoren, die Menschen „digital skelettiert“. Die Bewegungen der Skelette werden anschließend analysiert. Skelette, die sich nicht angepasst und unauffällig verhalten, lösen einen Alarm aus.

Das System, das vom Fraunhofer IOSB entwickelt wird, funktioniert nicht. Deren Pilotprojekt in Mannheim soll mangels Lerndaten verlängert werden. Das System soll Schwierigkeiten haben, Umarmungen von „kriminalistisch bedeutsamen Handlungsabläufen“ zu unterscheiden.

Inzwischen gibt es zu dem Thema auch allerlei Anfragen (und einen Antrag) in der Bürgerschaft: