Goldilocks Desktop & Tablet Ausgabe 17 | Page 22

Frauen viel zuverlässiger Kredite bedienen , profitabler investieren und viel seltener defaulten . Dennoch bekommen Frauen immer noch oft die schlechteren Bedingungen , was komplett absurd ist .
Eine KI kann nicht nur ganz schnell ein besseres Berechnungsmodell bauen und überprüfen , sondern auch testen : Ist das jetzt wirklich ein besserer Wert ? Kommt dabei überhaupt was anderes raus ? Und das kann dieses Modell auch hochrechnen auf 5 , 10 , 20 Jahre bis unendlich , mit Ausfallrisiko usw .. Das können wir zwar heute auch , aber es müsste sich erst mal jemand hinsetzen und sagen : Hey , das , was die Bafin gesagt hat , das wollen wir jetzt auch umsetzen .
Und übrigens wollen wir auch mal gucken , dass wir Frauen die gleichen Angebote machen , wenn sie die gleichen Rahmenbedingungen mitbringen . Das kann die KI viel schneller , besser und , behaupte ich , mit viel weniger Bias . Und sie kann es auch viel schneller anpassen , wenn man jetzt sagt : Oh , das hat aber gar nicht funktioniert , da haben wir uns komplett verhoben . Wir müssen jetzt noch mal das Modell anpassen . Dann dauert es halt nicht drei bis acht Monate und beschäftigt ein Team von 40 Leuten , sondern eine KI und idealerweise noch ein , zwei Menschen , die das begleiten .
Du sagst , eine KI ist erstmal nicht so biased .
Anwält : innen-Antwort : Kommt drauf an . Darauf , wie sie trainiert ist . Die KI ist genauso biased , wie die Daten , die sie bekommt . Man dürfte diese KI also nicht mit den historischen Kreditdaten der letzten 100 Jahre füttern – denn das sind biased Daten –, sondern müsste diesen Datensatz so überprüfen und anpassen , wie es in einer gerechten Welt hätte sein können . Hätten wir hier keine Postleitzahl- oder Gender-Diskriminierung vorgenommen , dann wäre das Ergebnis vielleicht XY gewesen . Wenn man die KI ordentlich trainiert oder sie darauf programmiert , selbst synthetische Daten zu erstellen , dann kann eine KI durchaus Bias reduzieren .
Nun sind wir in Deutschland und vielleicht sagen wir auch : Nee , wir vertrauen der KI nicht so , sondern lassen es weiterhin von unseren Systemen machen . Die KI könnte dann als Prüfmodul die Daten checken und zeigen , wo es einen historischen Bias in den Daten gibt oder wo irrationale Entschei-
NOVEMBER 2023 KI-DISRUPTION

INTERVIEW

Alex Gessner

Frauen viel zuverlässiger Kredite bedienen , profitabler investieren und viel seltener defaulten . Dennoch bekommen Frauen immer noch oft die schlechteren Bedingungen , was komplett absurd ist .
Eine KI kann nicht nur ganz schnell ein besseres Berechnungsmodell bauen und überprüfen , sondern auch testen : Ist das jetzt wirklich ein besserer Wert ? Kommt dabei überhaupt was anderes raus ? Und das kann dieses Modell auch hochrechnen auf 5 , 10 , 20 Jahre bis unendlich , mit Ausfallrisiko usw .. Das können wir zwar heute auch , aber es müsste sich erst mal jemand hinsetzen und sagen : Hey , das , was die Bafin gesagt hat , das wollen wir jetzt auch umsetzen .
Und übrigens wollen wir auch mal gucken , dass wir Frauen die gleichen Angebote machen , wenn sie die gleichen Rahmenbedingungen mitbringen . Das kann die KI viel schneller , besser und , behaupte ich , mit viel weniger Bias . Und sie kann es auch viel schneller anpassen , wenn man jetzt sagt : Oh , das hat aber gar nicht funktioniert , da haben wir uns komplett verhoben . Wir müssen jetzt noch mal das Modell anpassen . Dann dauert es halt nicht drei bis acht Monate und beschäftigt ein Team von 40 Leuten , sondern eine KI und idealerweise noch ein , zwei Menschen , die das begleiten .
Du sagst , eine KI ist erstmal nicht so biased .
Anwält : innen-Antwort : Kommt drauf an . Darauf , wie sie trainiert ist . Die KI ist genauso biased , wie die Daten , die sie bekommt . Man dürfte diese KI also nicht mit den historischen Kreditdaten der letzten 100 Jahre füttern – denn das sind biased Daten –, sondern müsste diesen Datensatz so überprüfen und anpassen , wie es in einer gerechten Welt hätte sein können . Hätten wir hier keine Postleitzahl- oder Gender-Diskriminierung vorgenommen , dann wäre das Ergebnis vielleicht XY gewesen . Wenn man die KI ordentlich trainiert oder sie darauf programmiert , selbst synthetische Daten zu erstellen , dann kann eine KI durchaus Bias reduzieren .
Bild : ALex Gessner
Nun sind wir in Deutschland und vielleicht sagen wir auch : Nee , wir vertrauen der KI nicht so , sondern lassen es weiterhin von unseren Systemen machen . Die KI könnte dann als Prüfmodul die Daten checken und zeigen , wo es einen historischen Bias in den Daten gibt oder wo irrationale Entschei-