Grafik KI künstliche Intelligenz
Story

Im Namen des Algorithmus

Judith Blage

Viele Gerichte in den USA nutzen eine Software, um das Rückfallrisiko von Angeklagten zu bewerten. Sollte künstliche Intelligenz auch im deutschen Justizsystem eingesetzt werden? Auf die spannenden Fragen in diesem Kontext sucht eine interdisziplinäre Forschungsgruppe Antworten.

Sechs Jahre Haft für das unerlaubte Benutzen eines fremden Autos und mangelnde Kooperation mit der Polizei: Ein Algorithmus entschied vor rund zwei Jahren im amerikanischen Wisconsin, dass Eric Loomis dafür ins Gefängnis musste. Die Software Compas der Firma Northpointe erstellte für Loomis' Richter eine Sozialprognose – basierend auf seinem Lebenslauf und 137 Fragen, die er beantwortet hatte. Der Algorithmus befand, dass Loomis auch künftig eine Gefahr für die Gesellschaft sein werde. Obwohl ihm in diesem konkreten Fall kaum etwas nachzuweisen war, schickte der Richter Loomis ins Gefängnis – und er sitzt die Strafe trotz Klage heute noch ab.

Rechtsprechung mithilfe von künstlicher Intelligenz ist keine Science-Fiction, sie wird auch in Großbritannien längst praktiziert. Dahinter steht die Erwartung, Gefahren für die Allgemeinheit besser einschätzen zu können, aber auch die Hoffnung auf schnellere, kostengünstigere Verfahren und eine rationalere Rechtsprechung. Soll die automatisierte Entscheidungsfindung auch in deutschen Gerichten angewendet werden? Die Frage steht im Raum.

Wir müssen die Entscheidung treffen, was wir in unserer Rechtsprechung als ethisch richtig empfinden.

Aber wollen wir das wirklich? Sollen künftig Maschinen über das Schicksal einzelner Menschen mitentscheiden? Wo sind sie nützlich, wie muss der gesetzliche Rahmen aussehen, wo liegen die ethischen Grenzen? Die Informatikprofessorin Katharina Zweig von der Technischen Universität Kaiserslautern will gemeinsam mit Kolleginnen und Kollegen aus Psychologie, Informatik, Jura, Politik- und Sozialwissenschaften diesen Fragen in einem Verbundprojekt auf den Grund gehen.

Die Probleme hinter der Software

Zweig kennt sich mit der Software Compas bestens aus, da sie sich gemeinsam mit ihrem Team am Algorithm Accountability Lab intensiv mit dem System beschäftigt, das Eric Loomis für sechs Jahre hinter Gitter brachte. Compas ermittelt, wie wahrscheinlich ein Täter wieder eine Straftat begehen wird – und das hat großen Einfluss auf das von Richterin oder Richter verhängte Strafmaß. Dabei gibt es allerdings einige Probleme hinter der Software. "Ein Haken ist, dass algorithmische Entscheidungsfindungssysteme Menschen in Risikoklassen einteilen, die Richterinnen und Richter aber nicht sehen können, wie die Software zu dieser Entscheidung gekommen ist", sagt Zweig. Möglicherweise befinde sich eine Person mit ihrer eingeschätzten Rückfälligkeit eher am unteren Ende der Skala "Hohes Rückfallrisiko", der die Richterin oder der Richter sehe aber nur die Zuteilung zu dieser Hochrisikoklasse und könne keine Abgrenzung von der problematischsten Gruppe am oberen Ende der Skala vornehmen.

Illustration Künstliche Intelligenz und die Gesellschaft von morgen

Zum Themenschwerpunkt "Künstliche Intelligenz und die Gesellschaft von morgen" der VolkswagenStiftung

Mehr erfahren

Die Firma Northpointe werbe zudem damit, dass ihre Software sehr korrekt arbeitet und behaupte, dass 70 Prozent der von Compas als hochgradig rückfallgefährdet Eingestuften tatsächlich wieder Straftaten begehen. Verschiedene Untersuchungen in den USA hätten aber gezeigt, dass nur 25 Prozent der Straftäterinnen und Straftäter, die von der Software zur Hochrisikogruppe gerechnet werden, wirklich rückfällig wurden.

"Da wird die ethische Verantwortung natürlich sichtbar. Wir müssen uns als Gesellschaft die Frage stellen, was uns wichtiger ist: die Sicherheit? – Dann landen mehr Unschuldige vorsorglich hinter Gittern. Oder dass gefährliche Straftäterinnen und Straftäter eventuell nicht bestraft werden, weil die Software eher weniger streng entscheidet." Beide Ausrichtungen könne man problemlos einprogrammieren. "Wir müssen also die Entscheidung treffen, was wir in unserer Rechtsprechung als ethisch richtig empfinden – und vor allem müssen wir alle Beteiligten schulen", sagt Katharina Zweig. So müssten auch die Richterinnen und Richter in den USA den Umgang mit solcher Software lernen, um etwa den Vorschlag von Compas bewerten zu können.

Im Grunde seien die Überlegungen, die die Gesellschaft jetzt anstellen müsse, uralte Fragen aller Zivilisationen: Was ist Gerechtigkeit? Was ist Rache? Was soll Strafe leisten? "Um Technik geht es dabei kaum", sagt Zweig und liefert damit zugleich die Begründung dafür, warum bei vielen Fragestellungen zur künstlichen Intelligenz interdisziplinäre Zusammenarbeit so wichtig ist – und der enge Austausch untereinander.

Wer entscheidet wie – und warum

Wesentlich sei dabei, die verschiedenen Ausgangspositionen und Sichtweisen der Beteiligten erst einmal in Einklang zu bringen. Im aktuellen Projekt diente das erste Treffen dazu, Begriffe auf Tauglichkeit für alle abzuklopfen. "Die zentrale Frage war: Was ist eigentlich eine gute Entscheidung? Das bedeutet für Informatikerinnen und Informatiker oder Juristinnen und Juristen etwas anderes als für Psychologinnen und Psychologen", sagt Anja Achtziger. Die Psychologieprofessorin von der Zeppelin Universität Friedrichshafen beschäftigt sich seit mehr als zwölf Jahren mit kognitiver Entscheidungspsychologie. Achtziger sieht ihre Aufgabe innerhalb des Projekts zunächst auch darin, den Kolleginnen und Kollegen anderer Disziplinen zu vermitteln, wie Menschen über Menschen entscheiden.

Was ist eigentlich eine gute Entscheidung? Das bedeutet für jeden etwas anderes.

"Natürlich sind Menschen von Stereotypen und Klassifizierungen geprägt, wenn sie Entscheidungen treffen. Das ist einfach nötig, denn sonst wären wir von der Komplexität der Welt überwältigt", sagt Achtziger. Mit anderen Worten: Vorurteile bestimmen immer mit, kein Mensch kann sich davon freimachen. Manche glauben deshalb, eine technische Justizhilfe wäre ein Weg zu mehr Gerechtigkeit – theoretisch. "Das ist nicht der Fall, leider. Denn Menschen programmieren Algorithmen, die selbstlernenden Systeme lernen aus den Daten, die wir ihnen zur Verfügung stellen." Da diese Daten nicht neutral sein können, sind es auch algorithmische Entscheidungsfindungssysteme nicht.

Menschen sind von Stereotypen geprägt, wenn sie Entscheidungen treffen.

"Hat ein System beispielsweise eine Palette Verdächtiger für eine Straftat zur Auswahl und soll auswählen, wer es war, dann wird es mit hoher Wahrscheinlichkeit ein schwarzer Mann im Alter zwischen 18 und 22 Jahren sein", sagt Achtziger. Denn diese Gruppe ist bei bestimmten Straftaten wie Drogendelikten in den USA besonders häufig vertreten, besagt die Statistik. Die Gründe dafür sind vielfältig: Vermutlich würden schwarze Menschen häufiger kontrolliert, was natürlich zu einer häufigeren Verurteilung führt. Außerdem sei Armut ein wichtiger Faktor.

Ich frage mich, durch welche Ziele und Motive menschliche Entscheider beeinflusst sind – und ob Algorithmen diese genauso abbilden können.

Achtziger möchte im Projekt genauer klären, wie sich menschliche Denk- und Informationsverarbeitungsprozesse in den Datensätzen spiegeln, die für das Machine Learning verwendet werden. "Ich frage mich, durch welche Ziele und Motive menschliche Entscheiderinnen und Entscheider beeinflusst sind – und ob Algorithmen diese genauso abbilden und übernehmen können."

Vereinbar mit den Menschenrechten?

Auch auf die Rechtswissenschaften wirkt der Einsatz von algorithmischen Entscheidungsfindungssystemen  (ADM, von engl. Algorithmic Decision Making) zurück. "Es muss geprüft werden, welche gesetzlichen Vorschriften dafür relevant wären und ob ADM-Systeme diesen überhaupt entsprechen können", stellt Wolfgang Schulz fest. Der Direktor des Hans-Bredow-Instituts für Medienforschung in Hamburg ist der Rechtsexperte in der Forschergruppe und bringt die notwendige juristische Perspektive in das Projekt mit ein. "Ein Fokus soll dabei Artikel 6 der Europäischen Menschenrechtskonvention sein, der das Recht jedes Einzelnen auf ein gerechtes Verfahren fordert."

Weitere Artikel zum Thema Künstliche Intelligenz bietet das Stiftungsmagazin "Impulse".

Mehr erfahren

Ist die Anwendung von Maschinen vor Gericht überhaupt mit diesem Artikel vereinbar? Wie können Gerichte und die Strafjustizsysteme einzelner Länder sicherstellen, dass das Gesetz eingehalten wird – und damit Menschenrechte und -würde beachtet bleiben? "Vermutlich ist es auch von Bedeutung, auf welche Art und Weise ein solches System der Richterin oder dem Richter eine Entscheidung präsentiert", sagt Schulz. So könne es wichtig sein, dass ein ADM-System mehrere Vorschläge unterbreite, damit Richterinnen und Richter diese gegeneinander abwägen könnten. Bei nur einem Vorschlag sei ja die Wahrscheinlichkeit höher, dass sie ihn einfach übernähmen und so die Entscheidung tatsächlich dem System überließen. "Solche Überlegungen in Einklang mit juristischen Vorgaben zu bringen und juristische Vorgaben auszuformulieren, ist eines meiner Ziele im Projekt", sagt Schulz.

Neben juristischen Richtlinien sollen im Projekt auch Vorgaben für Softwareentwicklerinnen und -entwickler und andere an der KI-Entwicklung Beteiligte erarbeitet werden. Katharina Zweig betont: "Wenn wir jetzt als Gesellschaft die richtigen Entscheidungen und Regelungen treffen und in Zukunft die Möglichkeiten der neuen Technologien in unserem Sinne nutzen, ist künstliche Intelligenz eine Riesenchance für die Menschheit. Aber nur dann."

Ihr Anspruch zeigt sich auch in ihrem Engagement jenseits der Forschung: Sie ist Mitgründerin der gemeinnützigen Organisation AlgorithmWatch, die die Entwicklung der neuen Technologie beobachtet, laienverständlich erklärt, einordnet, und sie hinterfragt.

eine Cyborg Hand welches ein künstliches Menschenhorn hält

Die Förderinitiative "Künstliche Intelligenz"

Weitere Informationen zur Förderinitiative und über kommende Stichtage finden Sie unter "Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen".

Mehr erfahren