Dark Corners eine Bias Testing Station (dgwk2024)

Published: March 2, 2024, noon

Dark Corners ist eine von der Turing Agency gebaute Teststation. Mit dieser k\xf6nnen die diskriminierenden Abgr\xfcnde, die \xabdunklen Ecken\xbb von GPT und Konsorten erkundet werden. Um den Einstieg ins Testen zu erleichtern, schlagen wir ein paar entlarvende Prompts vor, die man einfach anklicken kann. Die Nutzer:innen k\xf6nnen dann selber ausprobieren, ob sie damit sexistische oder rassistische Texte und Bilder provozieren k\xf6nnen. Der Bias-Tester soll sich noch weiterentwickeln \u2013 in Zukunft soll er auch Vergleiche zwischen verschiedenen Modellen erlauben.\n\nDark Corners: Willkommen zum Vorurteile-Tester KI hat Vorurteile In den aktuellen generativen KI-Modellen (beispielsweise ChatGPT oder DALL\xb7E) stecken nicht nur riesige Mengen an Daten, in ihnen stecken auch unsere eigenen Vorurteile und unsere diskriminierenden Strukturen. Man k\xf6nnte auch sagen: die KI hat die Machtverh\xe4ltnisse der \u2013 westlichen \u2013 Gesellschaft souver\xe4n \xfcbernommen, sie hat sie gelernt. Und reproduziert sie nun dementsprechend. F\xfcr die Ausstellung \xabMacht\xbb im V\xf6gele Kultur Zentrum in Pf\xe4ffikon SZ hat die Turing Agecny eine Teststation gebaut, mit der die diskriminierenden Abgr\xfcnde, die \xabdunklen Ecken\xbb von GPT und Konsorten erkundet werden k\xf6nnen. Um den Einstieg ins Testen zu erleichtern, schlagen wir ein paar entlarvende Prompts vor, die man einfach anklicken kann. Die Besuchenden k\xf6nnen dann selber ausprobieren, ob sie damit sexistische oder rassistische Texte und Bilder provozieren k\xf6nnen. Sie d\xfcrfen auch selber kreativ werden! Vielleicht kommen Ihnen weitere Szenerien in den Sinn, um dunkle Ecken in den Sprach- und Bildmodellen auszuleuchten. AI Bias \u2013 was ist das? K\xfcnstliche Intelligenz kann all die Dinge die sie kann nur weil sie auf die jeweilige Funktion hin "trainiert" worden ist, wie das im Fachjargon heisst. Dieses Training ist eine mathematisch komplexe Sache, aber entscheidend dabei ist: Grundlage des Trainings sind Unmengen an Daten. Und diese sind zumeist menschgemacht. Bei grossen Text-KIs also: Terabytes und Terabytes an Texten, die \xfcberall da gesammelt werden, wo sie frei verf\xfcgbar sind. Manche sagen auch: f\xfcr das Training h\xe4tten sich ChatGPT und Konsorten "das komplette Internet" einverleibt. In diesen Daten steckt viel menschliches Wissen, aber was auch drin steckt: viele Vorurteile, viel gesellschaftliche Ungleichheit. Diese sogenannten "Biases" tauchen in den Sprachausgaben der KI dann wieder auf, manchmal versteckt, manchmal auch offensiv offen. Da ist die KI nicht besser, nicht kl\xfcger, nicht fairer als wir. Ausserdem dr\xe4ngt sich die Frage auf: welcher Teil der Welt ist dominant im Internet vertreten \u2013 und wof\xfcr ist das Internet blind? Funktionieren und urteilen Maschinen objektiver und unvoreingenommener als Menschen, k\xf6nnen sie "neutral" sein? Das h\xe4tten wir gern. Und es mag vielleicht bei einem Kamera-Bild noch halbwegs stimmen, das eine Szenerie zeigt "wie sie ist", im Gegensatz zur unverl\xe4sslichen Erinnerung eines Zeugen. Aber bei KI l\xe4uft diese Hoffnung ins Leere. Die KI trifft ihre Entscheidungen nicht nach einem maschinell-logischen Raster, sondern nach Wahrscheinlichkeit. Und was sie als mehr oder weniger wahrscheinlich erachtet hat sie allein anhand menschlicher Beispiele gelernt. Es gibt zwar Versuche, KIs die menschlichen Vorurteile ganz gezielt abzugew\xf6hnen oder sie mit Filtern zu neutralisieren. Zum Beispiel bei automatisierten Bewerbungsverfahren: K\xf6nnen Kandidatinnen von einer KI wom\xf6glich fairer ausgew\xe4hlt werden? N\xe4mlich anhand tats\xe4chlicher Qualit\xe4ten und nicht aufgrund von Geschlecht oder ausl\xe4ndisch klingendem Nachnamen? So etwas wird gerade intensiv erforscht. Leider zeigt sich: Die Macht der Trainingsdaten ist gross, die "perfekt vorurteilsfreie" Maschine wird wohl eine Illusion bleiben. Denn am Schluss sind alle Flick-Versuche auch wieder subjektiv, jeder Filter zeigt auch wieder ein Wertsystem auf. Welche Ismen hat die KI von uns gelernt? Und wie offensichtlich reproduziert sie sie?\nabout this event: https://winterkongress.ch/2024/talks/dark_corners_eine_bias_testing_station/