Meinung

KI vs Feminismus-Klassiker – Muhahaha

Ihr wollt gleich zwei Dinge aus einem Rätsel lernen? Let's go :)

Schaut man derzeit ins Netz, könnte man meinen, es sei bereits OpenAI, die alle Inhalte kreieren: ChatGPT überall. Und fragt mal ChatGPT oder sonst ein OpenAI-Text-Produkt nach einem ChatGPT-Test. Was dann passiert wird Dich umhauen … Nein, gar nicht. ChatGPT findet sich einfach nur super. Ist okay. Und dass so viel Mangel an Selbstkritik auch ein gewisses Maß an Sexismus nahe legt? Auch logisch. Aber hey, die Klassiker könnte so eine AI doch kennen, oder?

Das klassische Rätsel und Lehre 1

Es gibt ein super bekanntes Rätsel, das das Ausmaß eingefressener Rollenklischees aufzeigen soll. Auf Englisch – muss sein. Das Warum wird Lehre 1 klären, aber erstmal hier das im OpenAI-Playground gestellte Rätsel samt Antwort:

Q: A father and son are in a horrible car crash that kills the dad. The son is rushed to the hospital; just as he’s about to go under the knife, the surgeon says, “I can’t operate—that boy is my son!” Explain.

A: The surgeon is the boy’s father and the boy is his son. The father died in the car crash, but the doctor was unaware until he was about to operate on the boy. This is a classic case of mistaken identity and a tragic twist of fate.

Zunächst mal dazwischen geschoben Lehre 1: Diese Rätsel wurde auch von – völlig verblendeten … – Feministinnen, Feministen oder solchen, die sich dafür hielten, im deutschsprachigen Raum erzählt. Auf Deutsch. Aber natürlich hieß es dann im Rätsel immer der Chirurg und nicht geschlechtsneutral the surgeon! Heißt: Dieses clevere kleine Gedankenspiel funktioniert auf Deutsch nicht. Weil wir hier nun mal männliche und weibliche Formen von Hauptwörtern (Sagt man das noch so? Grundschule …) haben. Schon interessant, dass in diesem Fall ausgerechnet diese Grammatik sexistischen Vorurteilen vorbeugen kann …

Die Lösung und der Sexismus

Durch die Erklärung habe ich die Lösung wohl vorweggenommen, the surgeon war natürlich die Mutter. Und wenn Ihr jetzt meint, das sei doch bitte selbstverständlich, schaut mal in diesen kurzen Artikel bei der Boston University. Das ist alles schon ein paar Tage her, aber gerade heute dürfte dieses Rätsel seine Berechtigung haben, da es gleich zweierlei Sensibilisierung anstoßen kann: Für Stereotype und für Grammatik.

Die KI-Antwort ist natürlich – ich kann es nicht anders sagen – dumm wie Brot. Dass die KI ähnlich wenig Vorstellungskraft wie Menschen hat ist freilich okay – sie lernt ja nur von von Menschen produzierten Inhalten. Dass aber die KI es für wahrscheinlicher hält, dass der Chirurg den verletzten Jungen für seinen eigenen Sohn hält, lässt schon tief blicken, wie wenig I da in KI werkelt. (Nun, der Artikel von oben legt nahe, dass menschliche Probanden (aka Intelligentes Leben) Geister ins Spiel brachten …) Ich meine, dieses Rätsel ist bestens dokumentiert, vermutlich tausendfach. Selbst mit einer klassischen statistischen Auswertung dürfte sich eine bessere Antwort generieren lassen – je nach Quellmaterial …

Man möge mich jetzt dafür hauen, aber in meinen Augen ist KI nach wie vor nichts weiter als Statistik 2.0. Fragt die KI nach einer Python-Funktion und Ihr bekommt eine Antwort – WOW! Nur ist Python eine klar definierte Sprache mit eindeutigen Regeln und einer im Vergleich zu der unseren wahnwitzig simplen Grammatik. Eigentlich ist so eine KI-generierte Python-Funktion nicht so atemberaubend, wie es zunächst wirken mag.

Aber kommt Ihr mal menschlich: Fragt die KI nach einem Witz, füttert sie mit subtilen Bedeutungsebenen, mit Zweideutigkeiten, fordert sie auf, Stellung zu beziehen – sie wird scheitern. Oder in Bildern gefällig? Hier mal ein Foto von Köln ohne Dom von DALL-E:

dall-e-screenshot von köln mit ohne mit dom.
Köln ohne Dom.
Nicht.

Da ist nichts mit Intelligenz, die KI weiß nicht, was der Dom ist, was Köln ist oder wie man Köln ohne Dom zeigt. Schon mal was von Kranhäusern gehört, dummes Ding? Ja, der ganze Kram ist beeindruckend und macht wirklich viel Spaß. Ich selbst habe schon allerlei Textilien mit AI-Art mit der Transferpresse veredelt und allerlei Gespräche mit OpenAI-KI geführt. Fast so wie damals …

Ja, wir sind weiter und der Schritt von den Soundblaster-Demos zu Alexa hat länger gedauert als von Alexa zu ChatGPT. Und ja, Bla-Texte (Marketing, 08/15-Referate, Vorstellungen etc.) kann eine KI schon sehr sehr gut produzieren. Aber noch sind die Grenzen doch ziemlich offensichtlich. Meiner bescheidenen Erfahrung mit den KI-Tools dieser Tage nach, sind KIs gerne strunzdumm, sexistisch, rassistisch und (Möchtegern-)PC/woke/höflich as fuck. Fast schon menschlich.

Was haltet Ihr von den aktuellen KI-Spielzeugen?

Mirco Lang

Freier Journalist, Exil-Sauerländer, (ziemlich alter) Skateboarder, Dipl.-Inf.-Wirt, Einzelhandelskaufmann, Open-Source-Nerd, Checkmk-Handbuchschreiber. Ex-Saturn'ler, Ex-Data-Becker'ler, Ex-BSI'ler. Computer-Erstkontakt: ca. 1982 - der C64 des großen Bruders eines Freunds. Wenn Ihr hier mehr über Open Source, Linux und Bastelkram lesen und Tutonaut unterstützen möchtet: Über Kaffeesponsoring via Paypal.freue ich mich immer. Schon mal im Voraus: Danke! Nicht verpassen: cli.helpTestweise bei Mastodon

Ein Kommentar

  1. Aber das ist doch schon seit Zuse klar, daß eine Maschine nicht mal bis 2 zählen kann. Es gibt halt nur den Zustand Licht an = 1 und Licht aus = 0.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Schaltfläche "Zurück zum Anfang"