Algorithmen gefährden die Demokratie

Wenn man künstliche Intelligenz einsetzt, muss man sich ihrer Schwächen bewusst sein. Und vor allem: ihre Arbeitsweise immer transparent machen.

Ein US-Polizist arbeitet mit Predpol, einer Software für vorsorgende Polizeiarbeit. Foto: Getty Images

Ein US-Polizist arbeitet mit Predpol, einer Software für vorsorgende Polizeiarbeit. Foto: Getty Images

Feedback

Tragen Sie mit Hinweisen zu diesem Artikel bei oder melden Sie uns Fehler.

Einige haben sie schon, viele wollen sie – aber nur wenige verstehen sie: künstliche Intelligenz. Auch Schweizer Polizeikorps setzen auf künstliche Intelligenz. Sie soll helfen, vorauszusagen, wo die nächste Straftat zu erwarten ist. «Predictive Policing», vorausschauende Polizeiarbeit, heisst das im Jargon. Das zeigte kürzlich eine Recherche des Schweizer Fernsehens. Wer allerdings bei der Kantonspolizei Zürich nachfragt, wie das System funktioniert, erhält die Auskunft: Details des Algorithmus seien geheim – aber Experten hätten ihn gut getestet.

Alle, die von künstlicher Intelligenz mehr als eine oberflächliche Ahnung haben und an freiheitlich verfasste Gesellschaften glauben, erschaudern bei einer solchen Auskunft. Denn die intransparente Anwendung von Algorithmen untergräbt eine zentrale Grundannahme der Justiz- und Polizeiarbeit einer Demokratie: dass eine Person nur aufgrund ihrer Taten, nicht wegen ihres Herkommens, ihres Geschlechts oder ihrer Hautfarbe verdächtigt, überwacht und verfolgt werden darf. Und genau dieses Prinzip wird beim Einsatz von Algorithmen regelmässig missachtet.

System mit Vorurteilen

Eigentlich ist das Problem schon lange bekannt: Die angesehene Medizinische Universität St. George’s in London nutzte in den 80er-Jahren einen Algorithmus, um Bewerber zu selektionieren. Das Programm identifizierte in den eingereichten Unterlagen aufgrund früherer erfolg­reicher Bewerbungen die wichtigsten Voraussetzungen für eine erfolgreiche Arztkarriere.

Aber das System hatte mehr gelernt als die Deutung von Verhaltensmustern des erfolgversprechenden akademischen Nachwuchses. Das System neigte dazu, Frauen und Bewerber mit nicht-europäisch klingenden Namen abzulehnen, ungeachtet ihrer akademischen Leistungen. Das System hatte das Geschlecht und Vorurteile, welche in den historischen Trainingsdaten vorhanden waren, als relevante Merkmale identifiziert. Dadurch lernte es, dass Frauen und Ausländer keine valablen Kandidaten für den Ärztestand darstellen.

Das Problem haben auch neuere Systeme nicht gelöst. Google zum Beispiel zeigt Frauen mehr Stellenanzeigen für schlecht bezahlte Jobs als Männern. Die Software auf Digitalkameras verschiedener Hersteller hat Probleme, Gesichter von nicht-weissen Benutzern zu erkennen; in einem Fall wurden Afrikaner von der Software als Gorillas identifiziert. Google konnte das Problem bis heute nicht beheben. In den USA wurden Afrikaner durch einen Algorithmus, den Strafverfolgungsbehörden einsetzen, doppelt so oft als potenziell rückfällige Straftäter klassifiziert als Menschen mit heller Haut.


Mit diesen Tricks fliegen Sie billiger Hinter Flugpreisen stecken komplizierte Algorithmen. Doch mit ein paar Handgriffen können Passagiere aus Fleisch und Blut die Maschinen austricksen. (Abo+)


Noch verzichten in der Schweiz Richter auf den Einsatz von künstlicher Intelligenz. Aber wie lange noch? Denn auch hierzulande gibt es immer mehr Systeme, die aufgrund historischer Daten Muster identifizieren und so Aufgaben lösen. Am letzten Sonntag berichteten verschiedene Zeitungen, dass die SBB, Credit Suisse und die UBS bei der Stellenbesetzung Algorithmen nutzen. In Appenzell Ausserrhoden prüfen Algorithmen künftig, ob eine Steuererklärung korrekt eingegeben wurde. Am Universitätsspital Zürich experimentieren Ärzte mit einer Diagnoseempfehlungsmaschine, die mit IBM entwickelt wird.

Ungewollte Verzerrungen in den Algorithmen auszumachen, ist schwierig und kostenintensiv. Das ist einer der Gründe, weshalb sich Betreiber und Entwickler solcher Systeme nicht genug um das Problem bemühen. Umso wichtiger ist es, dass von Behörden bis zu Technologieunternehmen alle in die Pflicht genommen werden, damit der Umgang mit Daten komplett transparent gemacht wird. Welche Daten werden wie in welchen Systemen verbaut und dazu gebraucht, um die künstliche Intelligenz zu trainieren? Denn nur wenn alle Beteiligten exakt wissen, was beim Einsatz dieser Technik passiert, können wir noch behaupten, in einer freien Demokratie zu leben.

Marcel Blattner und Tim Nonner sind Datenwissenschafter bei Tamedia, dem Verlagshaus von DerBund.ch/Newsnet. (Tages-Anzeiger)

Erstellt: 10.04.2018, 19:34 Uhr

Artikel zum Thema

Roboter treiben Flugpreise in die Höhe

Knapp die Hälfte aller Suchanfragen bei Airlines stammen von automatisierten Computerprogrammen. Mit Folgen für den Passagier. Mehr...

«Jeder sollte wissen, wie ein Algorithmus funktioniert»

Interview Digitalisierung und künstliche Intelligenz: Die Berufswelt verändert sich radikal. Zukunftsforscher Georges T. Roos erklärt, wie wir im Jahr 2037 arbeiten werden. Mehr...

Die Redaktion auf Twitter

Stets informiert und aktuell. Folgen Sie uns auf dem Kurznachrichtendienst.

Kommentare

Werbung

Weiterbildung

Ausbildung & Weiterbildung Finden Sie die passende Weiterbildung Technischer Kaufmann, Deutsch lernen, Coaching Ausbildung, Präsentationstechnik, Persönlichkeitsentwicklung

Die Welt in Bildern

Festival vereint die verschiedenen Kulturen des Landes: Eine Frau singt und tanzt bei einem Strassenfest in Südafrika in einem traditionellen Kleid. (14. Dezember 2018)
(Bild: Rajesh JANTILAL) Mehr...