Der_CreditManager_05.2022_LR | Page 18

HINTERGRUND

WIE INTERPRETIERBARE SYSTEME DER BLACK BOX KONKURRENZ MACHEN

Es ist Freitagnachmittag , vor Ihnen liegt der letzte Kreditantrag , den Sie diese Woche bearbeiten . Es geht um eine junge , berufstätige Frau , die sich ein Teilzeitstudium finanzieren möchte . Die Frau wurde beim Ausfüllen ihres Antrags darum gebeten , eine Vielzahl an Informationen von sich zu teilen , von persönlichen Daten über Einkommensnachweise bis hin zu verschiedensten Verträgen . Diese sind wichtig - eine Künstliche Intelligenz ( KI ) kann die Informationen innerhalb von Sekunden auswerten und Ihnen eine Kreditempfehlung liefern . Darauf aufbauend machen Sie sich nun daran , eine finale Entscheidung zu treffen .
Interpretierbar versus Black Box : Die Rolle der KI im Credit Management Zum Glück gibt es nicht nur die nanndenn das würde völlig die KI-interne Gewichtung der einzelnen Faktoren missachten . Gleichzeitig setzt dies voraus , dass die KI eine gute Datengrundlage nutzen kann . Dies ist häufig jedoch nicht gegeben .
Das Problem ist nur : Dieser augenscheinlich zuverlässigen und solventen Frau wird der Kredit von der KI verwehrt . Weder die Kundin noch Sie wissen , wie diese Entscheidung getroffen wurde . Liegt es an einer unbezahlten Rechnung von vor 10 Jahren ? Am häufigen Wechsel ihres Wohnorts ? Oder gar an ihrem ungewöhnlichen Nachnamen ?
Sie müssten all die Zeit und Arbeit , die Ihnen die KI erspart hat , wieder investieren , um es herauszufinden , und selbst dann würde die Black Box Ihnen ihre inneren Prozesse nicht preisgeben . So bleibt es also bei der Ablehnung des Kredits , und sowohl Sie als auch die Kundin gehen ratlos ihrer Wege , beide mit einem unterschwelligen Ohnmachtsgefühl .
18 ten Black Box KIs , die größtmögliche Mengen an Datenpunkten auf eine dem Menschen völlig uneinsichtige Weise analysieren . Ein gänzlich neuer Ansatz in der KI-Forschung zeigt , wie interpretierbare KI den Menschen in den Entscheidungsprozess einbinden kann , um optimale Ergebnisse zu erzielen . Unternehmen wie die Max- Planck Ausgründung Simply Rational haben dies bereits früh entdeckt und bieten Lösungen mit interpretierbarer KI in verschiedensten Bereichen an .
Zunächst einmal steht die Nützlichkeit und Optimierbarkeit des Ergebnisses im Vordergrund . Eine Black Box mag zwar häufig das richtige Ergebnis liefern , aber in den Fällen , in denen sie es nicht tut , gibt es keine Möglichkeit der gezielten Verbesserung . Es ist nicht einmal sinnvoll , einen Mitarbeiter die jeweilige Entscheidung noch mit eigenen Informationen und Einschätzungen ergänzen zu lassen ,
Wirklich problematisch kann dies werden , wenn systematisch aufgrund gewisser Informationen diskriminiert wird . Ein Unternehmen kann zum Beispiel Datensets einkaufen , um eine eigene KI daran zu trainieren , die automatisch über den Umgang mit Schuldnern entscheidet . Wenn diese Datensets aber überwiegend aus Personen einer gewissen Nationalität bestehen , dann könnte das resultierende Modell gegen Schuldner mit anderen Nationalitäten diskriminieren . Bei einer Black Box kann dies nicht durch das einfache Weglassen dieser konkreten Information verhindert werden , denn die KI kann sich entsprechende Muster trotzdem aus den restlichen Informationen wie Lebensläufen oder Einkommensnachweisen ableiten . Amazon zum Beispiel nutzte für eine Weile eine KI , um die Vielzahl an Bewerbungen auszuwerten , die das Unternehmen bekommt . Es stellte sich jedoch schnell heraus , dass die KI systemisch hochqualifizierte Frauen vernachlässigte , da Frauen in den Trainingsdaten der KI stark unterrepräsentiert waren .
Interpretierbare KI setzt hier auf das Weniger-ist-mehr-Prinzip . Oft genügt eine geschickte Verrechnung der wichtigsten Faktoren , um Entscheidungen mit ähnlicher Präzision zu treffen . Der große Vorteil : Der Mensch wird wieder in den Entscheidungs-