Goldilocks Desktop & Tablet Ausgabe 17 | Page 21

Merkmale wie Wohnort und Herkunft explizit nicht mehr als Parameter für Risikoklassifizierungsverfahren .“ Was kann KI in der Kreditvergabe in Sachen Diversität und Inklusion bedeuten ?
Es ist eines meiner Lieblingsthemen , dass wir in Deutschland immer noch machen , was in den USA schon vor über 50 Jahren verboten wurde : Redlining . Dabei ging es darum , bestimmte Gebiete nach Race oder Ethnizität aufzuteilen . Wo viele weiße Menschen wohnten , gab es die besser finanzierten Schulen und Krankenhäuser etc . Drei Straßen weiter lebten viele People of Color ( PoC ), die Schulen bekamen weniger Finanzierung , Infrastruktur wurde weniger gefördert etc . Das ist inzwischen offiziell verboten , aber die Folgen sind nach wie vor weitreichend . In Deutschland ist es dagegen in vielen Finanzinstituten immer noch Gang und Gebe , dass deine Herkunft und Wohnort Teil der Risikobewertung sind . Das widerspricht den Prinzipien von KI , wo es um Gleichheit und Fairness geht . Natürlich ist eine KI immer nur so gut wie das Material , mit dem man sie füttert . Wenn sie gut trainiert ist , kann sie etwas tun , was die Scorer – also die Berechnungsmodelle – heute nicht können .
Nämlich ?
Schnelle Korrektur der Scorer-Logik , schnelleres Überprüfen , ob die Kriterien so Sinn ergeben . Die heutigen Berechnungsmodelle sind super schwer im Nachhinein anzupassen . Das Schnellste , was ich gesehen habe , waren drei , vier Monate . Das kann zum Beispiel beim Sollzins für eine Immobilie einen krassen Unterschied ausmachen . Eine KI – selbst wenn sie nur solala trainiert ist – könnte für eine fairere Kreditvergabe sorgen , einfach weil sie schon mal bessere Modelle entwickeln kann , um fairer zu bewerten . Ich bin überzeugt , dass wir mittlerweile wesentlich bessere Daten haben als die Postleitzahl .
Hast du noch ein weiteres Beispiel , wo ein KI-Scorer fairer sein könnte ?
Wenn du zum Beispiel einen Kreditantrag stellst und wir stellen parrallel mit deinen Daten , aber als „ Mann “ einen – dann bekommst du automatisch für genau dieselben Rahmenbedingungen die schlechteren Zinsen , einfach nur weil du eine Frau bist . Das System denkt : Ach ja , Frauen , die haben ja weniger Geld , dann ist das Kreditrisiko höher . Obwohl wir aus vielen Studien wissen , dass
NOVEMBER 2023 KI-DISRUPTION

INTERVIEW

Alex Gessner

Merkmale wie Wohnort und Herkunft explizit nicht mehr als Parameter für Risikoklassifizierungsverfahren .“ Was kann KI in der Kreditvergabe in Sachen Diversität und Inklusion bedeuten ?
Es ist eines meiner Lieblingsthemen , dass wir in Deutschland immer noch machen , was in den USA schon vor über 50 Jahren verboten wurde : Redlining . Dabei ging es darum , bestimmte Gebiete nach Race oder Ethnizität aufzuteilen . Wo viele weiße Menschen wohnten , gab es die besser finanzierten Schulen und Krankenhäuser etc . Drei Straßen weiter lebten viele People of Color ( PoC ), die Schulen bekamen weniger Finanzierung , Infrastruktur wurde weniger gefördert etc . Das ist inzwischen offiziell verboten , aber die Folgen sind nach wie vor weitreichend . In Deutschland ist es dagegen in vielen Finanzinstituten immer noch Gang und Gebe , dass deine Herkunft und Wohnort Teil der Risikobewertung sind . Das widerspricht den Prinzipien von KI , wo es um Gleichheit und Fairness geht . Natürlich ist eine KI immer nur so gut wie das Material , mit dem man sie füttert . Wenn sie gut trainiert ist , kann sie etwas tun , was die Scorer – also die Berechnungsmodelle – heute nicht können .
Nämlich ?
Schnelle Korrektur der Scorer-Logik , schnelleres Überprüfen , ob die Kriterien so Sinn ergeben . Die heutigen Berechnungsmodelle sind super schwer im Nachhinein anzupassen . Das Schnellste , was ich gesehen habe , waren drei , vier Monate . Das kann zum Beispiel beim Sollzins für eine Immobilie einen krassen Unterschied ausmachen . Eine KI – selbst wenn sie nur solala trainiert ist – könnte für eine fairere Kreditvergabe sorgen , einfach weil sie schon mal bessere Modelle entwickeln kann , um fairer zu bewerten . Ich bin überzeugt , dass wir mittlerweile wesentlich bessere Daten haben als die Postleitzahl .
Hast du noch ein weiteres Beispiel , wo ein KI-Scorer fairer sein könnte ?
Bild : ALex Gessner
Wenn du zum Beispiel einen Kreditantrag stellst und wir stellen parrallel mit deinen Daten , aber als „ Mann “ einen – dann bekommst du automatisch für genau dieselben Rahmenbedingungen die schlechteren Zinsen , einfach nur weil du eine Frau bist . Das System denkt : Ach ja , Frauen , die haben ja weniger Geld , dann ist das Kreditrisiko höher . Obwohl wir aus vielen Studien wissen , dass