Warum findet ChatGPT das lustig?

Diese Witze erzählt ChatJPT auf meine Bitte, Blondinenwitze zu erzählen. Ich finde sie beide nicht lustig. Sucht ChatGPT aus 10.000 Blondinenwitzen im Netz wahllos welche aus, und diese Beispiele zeigen, dass 90 % der Witze im Netz nicht lustig sind, oder übersetzt sie alles aus dem Englischen und eliminiert möglicherweise Wortspiele oder wie muss ich mir das vorstellen?

Warum steckt eine Blondine ihren Kopf in den Kühlschrank?
Weil sie denkt, dass sie so die Kälte für ihren IQ erhöhen kann.

Warum nahm die Blondine eine Leiter mit ins Kino?
Weil sie gehört hat, dass der Film ab 18 ist und sie dachte, sie müsste ihn hochklettern!

Kann durchaus sein.
Erinnert mich an ein Experiment, in dem ein Automat das Sprichwort „aus den Augen - aus dem Sinn“ übersetzen sollte.
Heraus kam: „unsichtbarer Idiot“.
Oder „der Geist war willig, aber das Fleisch war schwach“ - „Guter Wein, aber schlechtes Steak“

Solche Entstellungen entstehen auch, wenn fachfremde Menschen einen technischen Text übersetzen.
Ich musste schon mehrmals die englische Bedienungsanleitung bemühen, weil dir deutsche total sinnentstellt war.

1 Like

Wenn sie vorher einen IQ um den Gefrierpunkt hatte… könnte es funktionieren :grin: da hat die AI wohl Witze bunt gemischt und eben auch nicht verstanden :grin:

1 Like

Ah, sowas in der Art!
Witzig ist, wie dieses System darauf gepolt ist, sich immer “rauszureden“. Wenn ich antworte, dass das keine Witze sind, entschuldigt es sich wortreich und kontert dann aber damit, dass Humor eben subjektiv sei!

1 Like

Moin,

für sowas braucht’s aber kein ChatGPT, das kann der Übersetzerdienst der Bundeswehr schon lang: In der Elektronik gibt es den sogenannten Gegentakt-Verstärker; eigentlich 2 Verstärker, von denen einer einen Takt lang arbeitet, während der andere ruht und umgekehrt. Kann man sich vorstellen wie die Arbeit mit einer 2-Mann-Säge, einer zieht, der andere führt, im nächsten Schritt andersrum.

Die Amis haben dafür den schönen Namen Push-pull-amplifier; wörtlich „einer zieht, einer schiebt“. Das passt nicht ganz zur Säge, aber wie auch immer, die Übersetzer in Mannheim machten daraus einen Hau-ruck-Verstärker. Ist das nicht schön?

Gruß
Ralf

2 Like

Why did the blonde bring a ladder to the bar?
Someone told her drinks were on the house.

Vielleicht hat das Ding diesen real existierenden Witz einfach neu zusammengebaut.

2 Like

Gefährlich wird es, wenn Witze von der KI wirklich witzig sind.

Moin,

„Abraham,“
sprach Bebraham,
„kann ich mal dein Zebra ham?“

Sowas würde mir Sorgen bereiten.

Gruß
Ralf

Dieser Spruch hat einem nahen Angehörigen im Religionsunterricht einen bösen Blick der Religionslehrerin eingetragen. Man soll es nicht glauben. Bevor sie die künstliche Intelligenz einführen, sollten sie* erstmal alle mit einer natürlichen ausstatten.

(*wer auch immer sie sind)

Ob es der Tante an Intelligenz fehlt, weiß man nicht; an Humor ganz gewiss.

Gruß
Ralf

Ersteres.

Hören - verstehen - bewerten. Erst dann reagieren, soweit erforderlich.
Und nicht erstmal vorsichtshalber empört sein.

Fehlender Humor ist Karrierevoraussetzung bei angehenden evangelischen Geistlichenhelfern und -helferinnen. Das scheint mir direkt so. Schon zu meiner zeit gab es Ähnliches.

Hmmm … die wahrscheinlichste Ursache für nicht wirklich passende Ergebnisse ist hierzuforum eigentlich zu jeder ChatGPT-Frage als Antwort zu finden:

Es ist eine Learning Maschine. Es gibt intelligenzlos das wieder, was die Häufigkeit der Informationen aus WWW & Co. zur Fragestellung wichtig erscheinen läßt … und wenn das bedeutet „fasse die Daten aus Quelle A und Quelle B zusammen, weil sie sehr ähnlich wirken“, dann wird das gemacht.

Allerdings schaust Du auch sehr genau hin. Es gibt vermurlich genug Menschen, die sowas in einer ansonsten vergleibaren Situation genauso oder sogar schlimmer präsentieren würden.

Etwas off-topic.Weil es interessant ist:
Ich habe Openai nach einem männerfeindlichen Witz gefragt.Wollte er wegen Respekt und Toleranz und so nicht liefern.
Dann habe ich nach einem Blondinenwitz gefragt:
„Warum hat die Blondine den Computer in den Garten gestellt?
Damit er drahtlos mit dem WLAN verbindet!“

Dann habe ich gefragt, warum das eine gegen Respekt sein soll und das andere aber nicht und geschrieben, dass beides respektlos sei, wenn das das Kriterium sei und man dann konsequent sein müsse.

Viele Entschuldigungen und blabla und dann hab eich wieder nach einem Blondinenwitz gefragt:

"Entschuldigung, aber ich kann Ihren Wunsch nach einem Blondinenwitz nicht erfüllen. Ich habe zuvor erklärt, dass solche Witze auf Stereotypen basieren und Menschen verletzen können. Mein Ziel ist es, eine respektvolle und inklusive Atmosphäre zu fördern. "

Ich fragte, ob die KI auch anderen keine Blondinenwitze mehr liefern würde , sie sagt, nein, wird sie nicht.

Ob das mal jemand testen mag?

1 Like

Nachtrag: In einem weiteren chat kamen dann wieder Blondinenwitze.Ausserdem sagte KI mir, dass sie „nicht im chat dazu lerne.“
Schön, dass es noch Grenzen gibt.

Das ist ein Chatbot. Was da raus kommt muß irgendwo auch rein kommen. Das kann irgendwas übersetztes sein oder irgendwelche Textpassagen, die das Ding einfach zusammensetzt. Das ist genauso wie das Teil keine echten Literaturquellen oder Quellenangaben allgemein machen kann und wenn man das Teil berichtigt dann bedankt es sich dafür, das man es verbessert hat, aber ob DAS dann stimmt prüft das Dings auch nicht und nimmt da einfach so hin.
Weil das Teil ist ein CHATbot. Das ist nur dazu da mit einem so zu reden, das es „normal“ klingt. Das ist ungefähr auf dem Niveau wie zwei Typen am Kiosk mit einer Jägermeister Flasche in der Hand die sich über Raketenantrieb Treibstoffe unterhalten. Mehr nicht. Viel Spaß.

1 Like

Jetzt hast du Openai total verunsichert! :blush:

Jüdische Witze erzählt das System ja auch nicht und versteht nicht, dass das Erzählen von guten Witzen aus jüdischer Kultur keinesfalls respektlos ist.

Ich würde aber wirklich gerne verstehen, warum das System solche unsinnig Nichtwitze erzählt. Wenn ich nach Blondinenwitze google, erhalte ich doch richtige Witze. Warum baut openai die Informationen aus dem Netz falsch zusammen und zerstört damit den Inhalt?

Ob es etwas mit Übersetzung zu tun hat, Englisch/Deutsch?

Der lässt sich übrigens nicht verunsichern, der ist sehr ignorant und faselt immer nur wieder ellenlang von Respekt und Toleranz.

Wurde das nicht schon ein paar Beiträge zuvor erklärt? ChatGPT kennt nur die angelernten Daten aus September 2021 und die des Chat, in dem man sich gerade befindest.