Big Data in den Behörden

Im Zweifel für den Algorithmus

Predictive Policing, datenbasierte Diskriminierung und Künstliche Intelligenz im Dienste des Fiskus – wenn Behörden Big Data für sich entdecken, profitiert nicht unbedingt der Bürger davon.

Nahaufnahme von Justitia

Daten und Algorithmen können heutzutage über das Schicksal von Menschen entscheiden.

Ämter und Behörden haben bekanntlich nicht das beste Image, wenn es um die Digitalisierung geht. Den Einrichtungen wird gerne vorgeworfen, zu zögerlich und konfus zu agieren, wenn es um die Umsetzung von digitalen Projekten geht. Aktuell ist etwa immer wieder das behäbige Tempo bei der Realisierung von E-Government-Prozessen ein weit verbreiteter Kritikpunkt. Doch auch in anderen Sparten zeigen sich regelmäßig Defizite. So soll etwa der Effekt der im Koalitionsvertrag festgelegten Blockchain-Ambitionen im Behördenalltag kaum zu spüren sein. Eine Umfrage der Management- und Technologieberatung Bearingpoint ergab demnach, dass satte 62 Prozent der Befragten aus der öffentlichen Verwaltung bisher nicht mal von dem Begriff gehört haben.

Der Glaube an die digitalen Kompetenzen der Behörden ist hierzulande erwartungsgemäß niedrig. Laut einer Studie der Körber-Stiftung trauen die Deutschen der Wirtschaft beim Umgang mit den Folgen der Digitalisierung weitaus mehr zu. Doch das Bild von der unbeholfenen und rückständigen Verwaltung kann bisweilen trügen, nicht alle Einrichtungen hinken dem aktuellen Stand der Technik hinterher. Vor allem bei der Analyse von großen Datenmengen rüsten immer Stellen auf. Warum das für die Bürger bisweilen problematisch werden kann, zeigt ein Blick in die Praxis.

Rasterfahndung 2.0

Das vermutlich kontroverseste Beispiel für den Einsatz von Big-Data-Technologie in einer Behörde findet sich mitten in Deutschland. Dort arbeitet die hessische Polizei seit dem vergangenen Jahr mit einer angepassten Version der Analyse-Software Gotham. Das Programm zapft sowohl interne als auch externe Quellen für die Ermittler an und bereitet die Daten schließlich visuell auf. Dieser Vorgang soll dabei helfen, terroristische Gefährder frühzeitig zu erkennen. Doch schon jetzt will die Regierung den Einsatz der Software ausweiten und auch abseits terroristischer Verdachtsfälle nutzen.

Kritiker befürchten, dass die Software der US-amerikanischen Firma Palantir auf lange Sicht nicht nur für die vorgesehenen Ermittlungstaktiken genutzt wird, sondern mehr und mehr in einen Bereich vordringen könnte, der „Predictive Policing” genannt wird. Dabei können Bürger schon alleine auf Basis von gewissen Daten und den daraus resultierenden Vorhersagen in den Verdacht geraten, ein spezielles Verbrechen zu begehen. Palantir soll diese Technologie bereits in New Orleans erprobt haben, wie das Onlinemagazin The Verge im vergangenen Jahr publik machte. Ein Anwendungsfall, der auch insofern problematisch ist, als dass die dafür notwendigen Algorithmen entgegen der allgemeinen Annahme nicht besonders objektiv und neutral sind, sondern bestehende Ressentiments sogar reproduzieren und verstärken können. 

Von den verantwortlichen Stellen heißt es dagegen, dass der Erfolg dem Einsatz recht gebe. Palantir-CEO Alexander Karp behauptete im Gespräch mit Springer-Vorstand Matthias Döpfner, dass in Europa jede Woche ein Attentat auf Basis seiner Software vereitelt werde. Nähere Informationen zu den Fällen bekommt man freilich kaum – alles unter Verschluss, wie so vieles im Dunstkreis dieser Firma. Aus Hessen ist lediglich bekannt, dass man über die Software einen 17-jährigen Iraker festsetzen konnte, der bereits in den Vorbereitungen für einen Anschlag gesteckt habe.

Wie viele Menschen schon zu Unrecht per Algorithmus mit vermeintlichen oder potentiellen Verbrechen in Verbindung gebracht wurden und was mit diesen Relationen letztendlich geschieht, wird natürlich nicht weiter ausgeführt. Sicher ist nur, dass die Verarbeitung solcher Informationen auch aus datenschutzrechtlichen Gründen sehr problematisch sein könnte – nicht zuletzt auch, weil Palantir für seine konspirativen Verbindungen zu CIA, FBI und dem US-Militär bekannt ist. „Der Beweis, dass deutsche Personendaten oder Daten deutscher Sicherheitsbehörden mittels ausländischer Software nicht ins Ausland gelangen, kann nicht erbracht werden”, antwortete die Regierung im vergangenen Jahr auf eine Anfrage der FDP zum Thema. Es könnten lediglich „Best Practices“ (z.B. in Form von Sicherheitskonzepten und BSI-Empfehlungen) umgesetzt werden, um einen solchen Datenabfluss zu erschweren und äußerst unwahrscheinlich zu machen.

Fragwürdige Prognosen

Während in Hessen das terroristische Gefahrenpotential der Bürger von einem Algorithmus veranschaulicht wird, berechnet in Wien seit dem vergangenen Jahr ein Programm die Chancen auf einen neuen Job für Arbeitssuchende. Die Software des österreichischen Arbeitsmarktservices (AMS) unterscheidet dabei grundsätzlich zwischen drei verschiedenen Gruppen: N, M und H. Für Personen aus der Gruppe N sind laut Algorithmus nur geringe Chancen vorhanden, wieder in ein stabiles Arbeitsverhältnis zu finden. Bei Arbeitssuchenden aus der Gruppe H wird dagegen angenommen, dass eine zügige Rückkehr in den Job erfolgen könnte. M wird dagegen auf Personen angewendet, die zwischen diesen beiden Segmenten liegen. Diese Kategorisierung soll den Mitarbeitern des AMS dabei helfen, passende Fördermaßnahmen für die Arbeitssuchenden zu bewilligen. Das könnte konkret aber auch heißen, dass einer Person der Gruppe N gewisse Fördermaßnahmen pauschal verwehrt werden, weil sie sich aufgrund der vom Algorithmus errechneten Chancen am Arbeitsmarkt nicht rechnen würden.

Wie im Feld des „Predictive Policing” kann bei der Berechnung der Chancen am Arbeitsmarkt bereits der dem Algorithmus zugrunde liegende Datensatz problematisch sein. Im Fall der AMS-Software soll es sich dabei um historische Daten der Behörde handeln, auf dessen Basis ermittelt wird, welche Faktoren sich positiv oder negativ auf die Integrationschancen auswirken. Ein Dokument der verantwortlichen Synthesis Forschung GmbH zeigt, wie selbstverständlich dort Vorurteile in die Formel des Algorithmus aufgenommen und schließlich in den Ergebnissen reproduziert wurden.

So ist bereits das Geschlecht einer arbeitssuchenden Person ein Faktor dafür, ob jemand mit einem Vorteil bei der Bewertung der Software gesegnet wird – oder eben nicht, sofern man eine Frau ist. Das mag zwar einen realen Umstand der aktuellen Arbeitsmarktentwicklung abbilden, wird durch die Verewigung in einem staatlichen Algorithmus aber dauerhaft Institutionalisiert und somit zur selbsterfüllenden Prophezeiung. Weitere Negativfaktoren in der Formel der AMS-Software sind Aspekte wie fortgeschrittenes Alter, körperliche Beeinträchtigungen oder die Herkunft. AMS-Chef Johannes Kopf weist im Interview mit dem österreichischen Technologie-Portal Futurezone darauf hin, dass das System nicht diskriminiere, sondern lediglich Auskunft über die Arbeitsmarktchancen gebe. „Richtig ist, dass Diskriminierung zwar am Markt vorkommt, aber mit unseren Förderungen haben wir ja gerade die Aufgabe dieser Diskriminierung entgegen zu wirken”, so sein Befund.

Neue Kontrollmechanismen

Es kommt nicht von ungefähr, dass ausgerechnet die Verwaltung ein zunehmendes Interesse an der Auswertung von großen Datenmengen entwickelt, sind diese Informationen dort doch schon von Natur aus in großen Mengen vorhanden. Die fortschreitende Strukturierung und Analyse dieser Daten kann im Zweifel aber nicht nur die Arbeit der Behörden vereinfachen, sondern auch autoritäre Kontrollmechanismen etablieren. So hat etwa der Ausbau des elektronischen Datenabrufes in der Steuerverwaltung nicht nur dazu geführt, dass gewisse Dinge für den Steuerzahler plötzlich sehr bequem geworden sind, sondern ganz klar auch das staatliche Interesse an den persönlichen Daten der Bürger bedient. Wo früher eine gewisse Vertrauensbasis herrschte, werden inzwischen einfach Informationen abgeglichen werden.

Dass die automatisierte Auswertung von großen Datenemengen auch der nächste Schritt im Kampf gegen die Steuerkriminalität sein wird, erläuterte Hessens Finanzminister Dr. Thomas Schäfer im vergangenen September bei einer Diskussion des Landtags. Als Reaktion auf die immer komplexer werdenden Dimensionen beim Steuerbetrug werde man am Finanzamt Kassel II-Hofgeismar eine Forschungsstelle zur Anwendung Künstlicher Intelligenz einrichten, so der CDU-Politiker. „Ein Forschungsvorhaben mehrerer Wissenschaftler und unserer IT-Spezialisten soll dort der Frage nachgehen, wie wir Künstliche Intelligenz einsetzen können, um große Datenmengen auszuwerten. Neben der Auswertung der Panama Papers wird in Kassel künftig auch ein Spezialisten-Team für die Auswertung großer Datenmengen angesiedelt“, sagte Schäfer. Dafür wolle man die Stellen der IT-Forensik und der Netzadministration verdoppeln und über zwei Millionen Euro in neue Hard- und Software investieren.

In Anbetracht des schieren Datenvolumens, das bei einem Fall wie den Panama Papers anfällt, sind die Pläne des Finanzministers durchaus nachvollziehbar. Weitere Bundesländer dürften früher oder später nachziehen und im Kampf gegen die Steuerkriminalität ebenfalls aufrüsten – das ist schließlich auch ihr Job. Die Vergangenheit zeigt jedoch, dass es in der Regel kein Zurück mehr gibt, wenn solche Infrastrukturen erst einmal etabliert wurden. Werden die Anwendungsgebiete dieser immer mächtiger werdenden Mittel plötzlich über den eigentlichen Zweck hinaus ausgeweitet, können die eigenen Daten ganz schnell auch ohne konkreten Verdachtsfall in die Mühlen der datenhungrigen Behörden geraten. Wie schnell das gehen kann, zeigen etwa die Bestrebungen der schwarz-grünen Regierung in Hessen, ihre umstrittene Fahndungssoftware auch abseits von staatsgefährdenden Taten einzusetzen. Von der Polizeigewerkschaft GdP hört man überdies, dass auch ein Einsatz der Software bei der Bekämpfung von Rauschgiftkriminalität und Einbruchsdelikten sinnvoll wäre. Man ahnt, dass dieser Enthusiasmus bei der Ausweitung der Anwendungsgebiete keine Ausnahme ist – Privatsphäre hin oder her. Bürgern bleibt lediglich die Hoffnung, dass die DSGVO den meisten dieser Ambitionen einen früher oder später einen Riegel vorschieben wird.

Bildquelle: Getty Images/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok