Der_CreditManager_05.2022_LR | Page 19

HINTERGRUND prozess eingebunden und kann seine eigenen Erfahrungen mit einfließen lassen . Dies stärkt Vertrauen und Verständnis auf beiden Seiten der Entscheidung . Außerdem kann das System jederzeit gezielt angepasst werden , um verändernden Umständen gerecht zu werden . Credit Manager müssen dann nicht wie im oben genannten Szenario die Entscheidung der KI blind annehmen oder verwerfen , sondern können die Validität des Ergebnisses selbst einschätzen und auch bei zukünftigen Verbesserungen des Algorithmus mitwirken .
Interpretierbare KI in Aktion : Erste praktische Anwendungen Büßt eine interpretierbare KI aufgrund ihrer Simplizität zwingend an Leistungsfähigkeit ein ? Die Antwort ist in den meisten Fällen ein klares Nein !
Einen direkten Vergleich von komplexer Black Box und interpretierbarer KI bietet eine Studie aus den USA . Forscher haben verglichen , wie Richter bei der Entscheidung unterstützt werden können , Angeklagte vor der Verhandlung mit oder ohne Kaution freizulassen . Eine Black Box , die 64 Variablen komplex miteinander verrechnet , verbesserte die Vorhersagen der Richter , welche der Angeklagten ohne Kaution zur Verhandlung erscheinen würden . Ein simples KI-basiertes Punktesystem , basierend auf den wichtigsten Prädiktoren und für die Richter einfach selbst auszurechnen , führte jedoch zu einer identischen Verbesserung .
Im Credit Management gibt es natürlich viele KI-Anwendungen , die über binäre Entscheidungen wie die Vergabe oder Nicht-Vergabe eines Kredites hinausgehen . Doch gerade bei diffuseren Aufgabenbereichen ist es wichtig , den Menschen weiterhin in die analytischen Prozesse einzubinden . Dies geschieht bereits bei vielen KI-Newcomern der letzten Jahre .
Eine für Maschinen besonders komplexe Aufgabe übernimmt zum Beispiel die Software von Deep Neuron Lab . Diese Ausgründung der TU Berlin hat eine KI entwickelt , die Geschäftsberichte und andere Textdokumente auswerten kann , um bei der Kreditvergabe zu assistieren . Sprache statt reiner Zahlen zu analysieren ist ein weiterer Schritt von KI , dem Menschen zeitaufwändiges und zermürbendes Scannen von Akten zu ersparen . Der Clou : Trotz der beeindruckenden Leistung sollen die Analysen von Deep Neuron Lab für den Benutzer komplett nachvollziehbar sein .
Hürden und Chancen Auch wenn eine KI die Daten für den Menschen analysieren und Entscheidungen vorschlagen kann , ist das Unternehmen letztendlich dafür verantwortlich , die Datengrundlage dafür zu schaffen und für das Endresultat zu haften . Gerade finanzielle Institutionen wie im Credit Management müssen häufig ihre internen Prozesse offenlegen , was im Falle einer ungewollt diskriminierenden KI ernsthafte Konsequenzen nach sich ziehen kann .
Dies ist einer der Gründe , warum ein Mangel an Transparenz eine Hürde für die großflächige Implementierung von KI im Finanzwesen darstellt . Eine Umfrage der Hochschule Köln und PwC zeigt , dass fast ein Drittel der befragten Finanzdienstleister Transparenzmangel von Black Box KIs als Grund dafür sieht , dass KIs nicht mehr Anwendung finden . Um dieses Problem zu lösen , braucht es mehr Umdenken in Richtung interpretierbarer KI , was indirekt auch anderen in der Umfrage genannten Hürden entgegenkommen würde , wie zum Beispiel Datenmangel und hohen Kosten .
Die große Chance besteht letztendlich aus der Synergie von Mensch und Maschine . KIs werden langfristig immer mehr Aufgaben übernehmen müssen , um den wachsenden Datenströmen und der Nachfrage nach schnelleren und reibungsloseren Interaktionen gerecht zu werden . Allerdings kann nur diejenige KI auf Dauer ethische , effiziente und gezielt optimierbare Ergebnisse liefern , die durch ihre Interpretierbarkeit dem Menschen als Werkzeug dient , anstatt ihn zu ersetzen .
Prof . Dr . Florian Artinger Founder + Managing Partner
SIMPLY RATIONAL GmbH
florian . artinger @ simplyrational . de
19