Alex Gessner dungen getroffen wurden . KI ist in der Lage , Muster zu erkennen , die auf Diskriminierung hinweisen , um dann diskriminierungsärmere Entscheidungen zu treffen .
Alles , was du sagst , steht und fällt damit , dass am Anfang die richtigen Menschen ohne riesigen Bias stehen .
Es gibt zum Glück viele , viele Menschen , die sich damit beschäftigen , wie KI fairer funktionieren kann , zum Beispiel die Algorithmic Justice League . Und diese Expert : innen für „ Ethical AI “ braucht es auch in den Banken . Eine KI ist ja erstmal wie ein kleines Kind , und man muss genau aufpassen , was man dem Kind beibringt . Wenn man die KI füttert mit Ja , wir haben halt nun mal nach wie vor unglaublich rassistische , sexistische , trans * feindliche und ableistische Strukturen , dann ist es auch genau das , was rauskommt – und das will man nicht für das kleine KI-Kind .
Was heißt denn das jetzt für das Thema Kreditvergabe in fünf Jahren ? Als Bank muss ich mit meinem Riesentanker überhaupt erstmal dahin kommen , mich Diversität und Inklusion zu widmen . Und dann brauche ich noch die richtigen Leute .
Kommen wir mal zu deinem Worst Case : Bei vielen Entscheider : innen in unserer immer noch sehr konservativen Bankenwelt herrscht das Denken vor , dass es keine Ungleichheiten gibt . Wenn die jetzt auf den KI-Zug aufspringen , zum Beispiel weil es ihre Prozesse effizienter macht , dann lassen sie sich von der KI trotzdem nicht sagen , dass ihr System diskriminierend ist und neu gebaut werden muss . Das ist aber teuer . Wollen wir das überhaupt ? Das System funktioniert doch . Ist mir doch ehrlich gesagt egal , ob da nach der zweiten Kommastelle noch mal was anders ist für die eine oder andere Person . Sie muss ja nicht in Marzahn oder am Görli leben . Zieh doch einfach um .
Und deshalb fürchte ich , dass es gar nicht so undenkbar ist , dass die Ungleichheiten einfach noch mehr vertieft werden . Also dass Ungleichheiten und Vorurteile , die wir heute schon haben , weiter verstärkt werden und das System noch unfairer wird . Denn wenn Datensätze weiterhin einseitig und unausgewogen sind , dann werden die Modelle die Ungleichheiten einfach nur reproduzieren
NOVEMBER 2023 KI-DISRUPTION
INTERVIEW
Alex Gessner dungen getroffen wurden . KI ist in der Lage , Muster zu erkennen , die auf Diskriminierung hinweisen , um dann diskriminierungsärmere Entscheidungen zu treffen .
Alles , was du sagst , steht und fällt damit , dass am Anfang die richtigen Menschen ohne riesigen Bias stehen .
Es gibt zum Glück viele , viele Menschen , die sich damit beschäftigen , wie KI fairer funktionieren kann , zum Beispiel die Algorithmic Justice League . Und diese Expert : innen für „ Ethical AI “ braucht es auch in den Banken . Eine KI ist ja erstmal wie ein kleines Kind , und man muss genau aufpassen , was man dem Kind beibringt . Wenn man die KI füttert mit Ja , wir haben halt nun mal nach wie vor unglaublich rassistische , sexistische , trans * feindliche und ableistische Strukturen , dann ist es auch genau das , was rauskommt – und das will man nicht für das kleine KI-Kind .
Was heißt denn das jetzt für das Thema Kreditvergabe in fünf Jahren ? Als Bank muss ich mit meinem Riesentanker überhaupt erstmal dahin kommen , mich Diversität und Inklusion zu widmen . Und dann brauche ich noch die richtigen Leute .
Kommen wir mal zu deinem Worst Case : Bei vielen Entscheider : innen in unserer immer noch sehr konservativen Bankenwelt herrscht das Denken vor , dass es keine Ungleichheiten gibt . Wenn die jetzt auf den KI-Zug aufspringen , zum Beispiel weil es ihre Prozesse effizienter macht , dann lassen sie sich von der KI trotzdem nicht sagen , dass ihr System diskriminierend ist und neu gebaut werden muss . Das ist aber teuer . Wollen wir das überhaupt ? Das System funktioniert doch . Ist mir doch ehrlich gesagt egal , ob da nach der zweiten Kommastelle noch mal was anders ist für die eine oder andere Person . Sie muss ja nicht in Marzahn oder am Görli leben . Zieh doch einfach um .
Bild : ALex Gessner
Und deshalb fürchte ich , dass es gar nicht so undenkbar ist , dass die Ungleichheiten einfach noch mehr vertieft werden . Also dass Ungleichheiten und Vorurteile , die wir heute schon haben , weiter verstärkt werden und das System noch unfairer wird . Denn wenn Datensätze weiterhin einseitig und unausgewogen sind , dann werden die Modelle die Ungleichheiten einfach nur reproduzieren