The Doppler Quarterly (DEUTSCHE) Sommer 2017 | Page 69

Öffnen Sie die Foto-App auf Ihrem Mobiltelefon, geben Sie „Hund“ als Suche ein und es werden Ihnen alle Bilder von Hunden angezeigt. Das war kein Kin- derspiel. Aber Ihr Telefon weiß, wie ein Hund aussieht. Dieses und andere moderne Wunder sind das Ergeb- nis maschinellen Lernens. Es sind Programme, die Millionen von Daten durchforsten und Korrelationen und Vorhersagen über die Welt machen. Und sie üben einen immensen Reiz aus. Diese Maschinen können alte, konkrete Daten nutzen und darauf basierend Entscheidungen fällen, die manchmal genauer als die von Menschen sind. Aber maschinelles Lernen hat auch eine dunkle Seite. „Viele Leute glauben, dass Maschinen unvoreinge- nommen und neutral sind“, so Aylin Caliskan, Infor- matiker der Princeton University. „Aber Maschinen lernen anhand menschlicher Daten. Und Menschen sind voreingenommen.“ Ähnlich wie ein Kind von seinen Eltern, lernen Com- puter rassistisch, sexistisch und voreingenommen zu sein – und zwar von ihren Erschaffern. Wir denken, dass künstliche Intelligenz unparteiisch ist. Sie ist es oftmals nicht. Fast alle neuen Verbrauchertechnologien nutzen in irgendeiner Weise maschinelles Lernen. Wie Google Translate: Kein Mensch wies die Software an zu ler- nen, wie man vom Griechischen ins Französische und dann ins Englische übersetzt. Sie durchkämmte ein- fach unzählige Texte und lernte es selbstständig. In anderen Fällen machen ML-Programme Vorhersagen darüber, welche Lebensläufe wahrscheinlich erfolg- reiche Bewerber ergeben oder wie ein Patient auf ein bestimmtes Medikament reagiert. Beim maschinellen Lernen handelt es sich um ein Programm, das Milliarden von Datenpunkten durch- sucht, um Probleme zu lösen (wie z. B. „identifiziere das Tier auf dem Foto“), jedoch ist nicht immer klar, wie es das Problem gelöst hat. Und es wird immer klarer, dass diese Programme Vorurteile und Stereo- typen entwickeln können, ohne dass wir es über- haupt bemerken. Im vergangenen Mai veröffentlichte ProPublica eine Untersuchung über ein ML-Programm, das von Gerichten zur Vorhersage verwendet wird, wer nach einer gezielten Verwarnung wahrscheinlich ein wei- teres Verbrechen begehen wird. Die Reporter stellten fest, dass die Software schwarze Menschen mit einem höheren Risiko einstufte als weiße. „Auswertungen wie diese – auch als Risikobewertun- gen bekannt – werden in den Gerichtssälen im gan- zen Land immer häufiger eingesetzt“, erklärt ProPu- blica. „Sie dienen dazu, Entscheidungen darüber zu treffen, wer in jeder Phase des Strafrechtssystems freigelassen werden kann, von der Festsetzung einer Kaution ... bis zu noch grundlegenderen Entschei- dungen über die Freiheit der Angeklagten.“ Das Programm hat anhand von Daten realer Haft- strafen gelernt, wer am ehesten im Gefängnis landen wird. Und historisch gesehen war das Strafrechtssys- tem in der realen Welt gegenüber schwarzen Ameri- kanern unfair. Diese Geschichte offenbart eine grundlegende Ironie des maschinellen Lernens. Die Attraktivität dieser Systeme ist, dass sie unparteiische Entscheidungen treffen können, die frei von menschlichen Vorurteilen sind. „Wenn Computer genau vorhersagen könnten, welche Angeklagten wahrscheinlich neue Verbre- chen begehen, könnte das Strafrechtssystem fairer und selektiver dahingehend sein, wer und wie lange inhaftiert wird“, schrieb ProPublica. Was aber stattdessen passierte, war, dass Programme des maschinellen Lernens unsere Vorurteile in gro- ßem Umfang verfestigt haben. Es war kein Richter, der gegen Afroamerikaner voreingenommen war, es war ein Roboter. Es sind Geschichten, wie die von ProPublica veröf- fentlichten, die Caliskan dazu brachten, dieses Prob- lem zu untersuchen. Als Informatikerin, die in der Regel auch die einzige Frau in ihren Kursen an der Universität war, ist sie sensibel für dieses Thema. Caliskan hat bemerkt, dass sich die Voreingenom- menheit auf oft subtile Weise in das maschinelle Ler- nen eingeschlichen hat – zum Beispiel in Google Translate. Türkisch, eine ihrer M uttersprachen, hat zum Bei- spiel keine geschlechtlichen Pronomen. Wenn sie aber Google Translate für Türkisch verwendet, endet die Übersetzung „immer mit ‚er ist Arzt‘ in einer geschlechterspezifischen Sprache.“ Dabei ließ der türkische Ausgangssatz nicht erkennen, ob es sich um eine Frau oder einen Mann handelte. Der Compu- ter nahm einfach an, dass es sich bei einem Arzt um einen Mann handelt. SOMMER 2017 | THE DOPPLER | 67