Goldilocks Tablet Ausgabe 15 | Page 16

APRIL 2023 TRENDS & FORESIGHT

TRENDS

Die nächste Evolutionsstufe des Internets

Oder man erinnere sich an Microsofts KI-Experiment „ Tay “ aus dem Jahr 2016 . Der Twitter-Bot war eigentlich dazu gedacht , mit 18- bis 24-Jährigen zu interagieren und dem Unternehmen dabei zu helfen , die Umgangssprache junger Menschen im Internet besser zu verstehen . Doch schon nach wenigen Stunden verwandelten Nutzer : innen Tay in eine frauenfeindliche , rassistische und den Holocaust leugnende KI , die Sätze wie „ Repeat after me , Hitler did nothing wrong “ oder „ I fucking hate feminists and they should all die and burn in hell “ verbreitete . Ein weiteres Beispiel : Die KI Delphi wurde auf der Basis von Texten aus dem Internet , zum Beispiel Reddit-Posts , darauf trainiert , ethische Bewertungen abzugeben . Sie kam zu dem Schluss , dass es „ okay “ sei , jemanden in Notwehr zu erschießen . Ehebruch sei „ wrong “ und man solle Völkermord begehen , wenn es alle glücklich mache . Oder der Forscher und Youtuber Yannic Kilcher , der eine KI mit 3,3 Millionen Threads aus einem bekanntermaßen hasserfüllten Unterforum von 4chan gefüttert hat – mit vorhersehbarem Ergebnis .

Bild : Adobe Stock 425249411

All diese Beispiele haben eines gemeinsam : Das Problem sind nicht die Maschinen , sondern die Menschen , die KI-Algorithmen entwerfen und am meisten zu den heutigen KI-Anwendungen beitragen . Biased AI ist also nicht nur ein technologisches , sondern vor allem ein menschliches Problem . Wir müssen uns daher folgende Fragen stellen : Sind die zur Verfügung stehenden Daten vollständig ? Und sind sie repräsentativ für die Gesamtheit der Menschen ? Wenn nicht , sind die Vorhersagen eines Algorithmus unvermeidlich verzerrt .