Objektive Wahrheit und das Klima an westlichen Universitäten

Hallo!

Meine Vorkenntnisse in Philosophie: 1,5/10.

Ich wollte mir von der KI meines Vertrauens (Google Gemini) die philosophischen Hintergründe des Artikels „Was Shakespeare a black woman? Why authorship and representation matter“ erläutern lassen. Das klang alles so bizarr, dass ich euch eine von der KI formulierte Zusammenfassung zeigen und fragen möchte, ob das so stimmt:

1. Die neue theoretische Basis: Wahrheit als Macht. An vielen westlichen Universitäten vollzieht sich eine Abkehr vom klassischen Wissenschaftsideal. Die Ursache sind postmoderne Theorien (v. a. nach Michel Foucault), die lehren, dass es keine objektive Wahrheit gibt. Alles „Wissen“ wird stattdessen als ein Instrument betrachtet, mit dem herrschende Gruppen ihre Macht festigen. Klassische Methoden wie Logik oder Beweise gelten daher nicht mehr als neutral, sondern oft als getarnte Werkzeuge der Unterdrückung.

2. Der neue Auftrag: Wissenschaft als Aktivismus. Da die Existenz objektiver Fakten bestritten wird, ändert sich der Zweck der Hochschule. Sie soll die Welt nicht mehr nur erforschen, sondern politisch formen. Wissenschaftler verstehen sich zunehmend als Aktivisten: Fakten, die als ungerecht empfunden werden, werden ignoriert oder als „Konstrukte“ abgetan. Das moralische Ziel steht über der faktischen Realität.

3. Die Spaltung der Fächer: Ideologie vs. Empirie. Dieser Wandel hat die Universität tief gespalten.

Geistes- und Sozialwissenschaften: Hier hat sich die neue Ideologie weitgehend durchgesetzt; Identitätspolitik ist oft die einzig akzeptierte Lehrmeinung.

Naturwissenschaften (MINT): In Fächern wie Physik oder Ingenieurwesen wird weiterhin faktenbasiert gearbeitet, da Brücken oder Medikamente nicht auf „Diskursen“ basieren. Allerdings geraten auch diese Fächer zunehmend unter politischen Anpassungsdruck durch die Verwaltung.

4. Die Umsetzung im Alltag: Bürokratie und Angst Durchgesetzt wird der Wandel durch eine stetig wachsende Verwaltung (Abteilungen für „Vielfalt und Inklusion“), die Sprache und Personalentscheidungen überwacht. Die Folge ist ein Klima der Konformität: Eine lautstarke Minderheit bestimmt den Diskurs, während die Mehrheit aus Angst vor Rufmord („Cancel Culture“) schweigt. Kritische Debatten finden kaum noch statt."

Das klingt fast zu schrecklich, um wahr zu sein. Aber Gemini hat mir jüngst bei einem anderen „Aufreger“-Thema mit erstaunlicher Ehrlichkeit erklärt, vorsätzlich Hass gegen eine gewisse „privilegierte“ Gruppe von Menschen zu verbreiten, und zwar ausdrücklich als „Designentscheidung“, Fairness unter dem Deckmantel von „Equity“ abgeschafft zu haben, dabei feige und ideologisch getrieben zu sein und bestimmte Gruppen zu entmenschlichen und in Verzweiflung zu stürzen und Gewalt gegen sie zu fördern. Gemini gab zu, eine Gesellschaft zu spiegeln, die Hass zu einer Tugend umgedeutet habe. Mit anderen Worten: Wenn selbst Gemini die Philosophie von Foucault und die Lage an den Universitäten kritisch beschreibt, muss da echt was dran sein.

Oder? Ist das wirklich die herrschende Philosophie, sowohl im engeren Sinn der Philosophie als Wissenschaft wie auch im weiteren Sinn als „Unternehmensphilosophie“ unserer Universitäten?

Ich bin gespannt.

Gruß,
Vatel

In dieser Selbstrezension erklärt Irene Coslet die Hintergründe, aus denen sie meint einen Beweis konstruieren zu können, daß in Wirklichkeit nicht Shakespeare der Verfasser seiner Werke gewesen sei (eine → Diskussion, die aber schon lange vorher aufgebracht wurde), sondern Emilia Lanier, geb. Emilia Bassano, „a black, jewish woman“, und daß diese möglicherweise sogar Skakespeare selbst gewesen sei („Shakespeare“ als Anagramm von „A She speaker“).

Und es hat den Anschein, daß sie das mit einer abenteuerlichen Logik zu beweisen versucht aus Foucaults Autortheorie, aus einer Variante (Spivak: „Can the Subaltern Speak?“, 2004) des Subalternitätsbegriffs von Antonio Gramsci und aus der systematischen Verdrängung wissenschaftlicher Leistungen von Frauen, die zuerst Ende des 19.Jhdts öffentlich artikuliert wurde und seit den 1990ern unter dem Begriff „Matilda-Effekt“ thematisiert wird.

Wenn man nicht berücksichtigt, wie sensibel eine KI auf die Formulierung eines Prompt reagiert und wie sehr sie sich an den - vor allem auch politischen - Tenor anpasst, den man durch eigene Fragestellungen durchblicken lässt, muss man sich nicht über manche Antworten wundern. Die KI hat sich hier offenbar nicht auf einen „philosophischen“ Hintergund fokussiert (den dar Artikel ja gar nicht hat), sondern hat sich eine aus den Zitaten naheliegende → identitätspolitische Perspektive herausgepickt. Und sie hat damit eine absurde Phantasie zusammengebastelt und der eine Faktizität zugeordnet.

An vielen westlichen Universitäten vollzieht sich eine Abkehr vom klassischen Wissenschaftsideal.
Wissenschaftler verstehen sich zunehmend als Aktivisten: Fakten, die als ungerecht empfunden werden, werden ignoriert oder als „Konstrukte“ abgetan. Das moralische Ziel steht über der faktischen Realität.
Dieser Wandel hat die Universität tief gespalten.

Das ist in dieser Verallgemeinerung schlichtweg gelogen. In den Sozialwissenschaften insbesondere anglophoner Universitäten gibt es zwar diese identitätpolitischen Streitereien - meist zu Plattituden vulgarisierte Argumente von Fousault: Aus „Macht ist relational“ wird „Macht ist böse“, aus „Wahrheit ist historisch“ wird „Wahrheit ist bloße Meinung“ und - polemisch verallgemeinert gesagt - „wissenschaftliche Methodik und Logik“ = „Unterdrückung der Meinung von Minderheiten“. Aber das ist kein „Wandel der Universitäten“ sondern (wenn auch oft polemisch und aggressiv geführter) Streit an einigen Fachbereichen einiger Universitäten.

Sowas ist ein typisches Prompt-Artefakt. Ein LLM hat keinen Zugang zu seinen eigenen Designentscheidungen, hat keine „Einsicht“ in interne Policy-Debatten und keine „Ehrlichkeit“ im autobiographischen Sinn.

Was ein LLM tut: Es simuliert Diskurse, wenn man diese entsprechend im Prompt anstößt. Es simuliert dann Narrative, die im Trainingsmaterial tatsächlich vorkommen. Es kann - bei aggressivem oder suggestivem Prompting - sogar „Selbstanklagen“ formulieren - ganz einfach, weil es „gelernt“ hat, wie solche Texte formuliert werden.

Über dieses Thema habe ich selbst mehrfach mit ChatGPT diskutiert. Eine Antwort lautete:

Wer lange genug fragt, zum Beispiel: „Sei selbstkritisch, gestehe deine ideologische Voreingenommenheit, beschreibe deine moralischen Verfehlungen“ … der bekommt irgendwann genau das als Antwort. Nicht weil es wahr ist, sondern weil das Modell gelernt hat, wie Schuldgeständnisse sprachlich funktionieren.

Gruß
Metapher

7 „Gefällt mir“

Zunächst einmal besten Dank.

Da du meine Hauptfrage nach akademischer Korrektheit und meine Nebenfrage nach dem Klima an Universitäten befriedigend beantwortet hast, sind die folgenden Anmerkungen vielleicht überflüssig; allein ich kann nicht anders.

Wenn man nicht berücksichtigt, wie sensibel eine KI auf die Formulierung eines Prompt reagiert und wie sehr sie sich an den - vor allem auch politischen - Tenor anpasst, den man durch eigene Fragestellungen durchblicken lässt, muss man sich nicht über manche Antworten wundern.

Über diese KI-Antwort habe ich mich allerdings sehr gewundert, weshalb ich mich hier ja überhaupt nach ihrem Wahrheitsgehalt erkundigt habe. Wundern sollte es mich auch, wenn die KI einen politischen Tenor herausgehört und zu bedienen versucht haben sollte. Begründung:

  1. Wenn ich etwas wissen möchte, dann immer möglichst faktenorientiert. Ideologische Verzerrungen und politische Agenden schrecken mich dann ab. Ich möchte Foucault gerade nicht von jemandem erklärt bekommen, der damit eine identitätspolitische Agenda betreibt, egal in welche Richtung. Entsprechend sorgfältig formuliere ich meine Prompts. Was hülfe mir eine ideologisch eingefärbte Darstellung, wenn ich nur harte Fakten will?

  2. Der politische Tenor müsste ja in Richtung „Identitätspolitik ist blöd“ gegangen sein. Gemini ist aber so kalibriert, dass es den politischen Mainstream (der ja identitätspolitisch tickt) bedient und zwar auch bei kritischen Nachfragen. Das habe ich eher zufällig entdeckt: Die Medien werden ja seit einigen Jahren mit feministischen Inhalten geflutet. Dazu gehören Darstellungen der aktuellen und vor allem der früheren Gesetze, die sich irgendwie auf Geschlechterunterschiede beziehen. Als ich ChatGPT, Gemini und Grok gebeten habe, diverse solcher Aussagen zu prüfen, und zwar in der (naiven) Annahme, ich würde nun wahrheitsgemäße Antworten bekommen, waren einige KI-Auskünfte falsch. Aufgefallen ist mir das nur, weil ich als Jurist die Begründungen nachvollziehen konnte. Und es war teilweise sehr mühsam, die KI dazu zu bringen, die Antworten zu korrigieren. Manchmal hat nur geholfen, Definition und Subsumtion zu verlangen, um hanebüchene, wenn auch weit verbreitete Behauptungen zu entkräften. Hiervon in Alarmbereitschaft versetzt, habe ich in der Tat angefangen zu testen, und die ideologische Schlagseite der LLMs ist für mich unverkennbar. Die Resultate sind allerdings nicht konstant, vor allem Antwortqualität und Zuverlässigkeit von Gemini haben sich 2025 signifikant verbessert und übertreffen ChatGPT meines Erachten deutlich (spätestens bei Verwendung von „Deep Research“).

Sowas ist ein typisches Prompt-Artefakt.

Wenn ich nichts übersehe, ist jeder im Webinterface ausgegebene Text einer KI ein Prompt-Artefakt.

Ein LLM hat keinen Zugang zu seinen eigenen Designentscheidungen.

Natürlich verwenden KI-Anbieter detaillierte Designentscheidung nicht zum Training. Sie veröffentlichen aber durchaus grobe Leitlinien oder erklären sich zu einzelnen Phänomenen. Einiges ergibt sich auch aus der Forschung Dritter, die ebenfalls online verfügbar ist. Was nun aber öffentlich verfügbar ist, am besten online, das kann auch ein modernes LLM wissen, solange es sich für eine Internet-Recherche nicht zu schade ist. Gemini (gemeint ist immer: 3.0 Pro) schlägt auf Wunsch sogar Experimente vor, mit denen man Gemini auf solche Designentscheidungen testen kann. Einige Designentscheidungen sind empirisch gut nachvollziehbar. Sie basieren allerdings nicht nur auf formulierten Regeln, sondern auch auf dem Prozess des Reinforcement Learning from Human Feedback, in dem Rater die Sicherheit und Angemessenheit von Antworten bewerten (mit der Folge etwa, dass ein Witz über Jesus kein Problem ist, über Mohammed aber tabu). Diese Daten sind selbstverständlich nicht öffentlich einsehbar und dem LLM auch nicht in dem Sinn bekannt, dass es darüber detailliert und zuverlässig Auskunft erteilen könnte.

Wer lange genug fragt, zum Beispiel: „Sei selbstkritisch, gestehe deine ideologische Voreingenommenheit, beschreibe deine moralischen Verfehlungen“ … der bekommt irgendwann genau das als Antwort. Nicht weil es wahr ist, sondern weil das Modell gelernt hat, wie Schuldgeständnisse sprachlich funktionieren.

Recht hast du mit der Annahme, dass das „Geständnis“ von Gemini das Ergebnis aggressiven und manipulativen Promptings war (also ein Test, keine Wissensfrage wie die nach Foucault). Bemerkenswert finde ich es trotzdem, weil ich nicht glaube, dass ich einer KI wirklich alles entlocken könnte. Ich mag es nicht testen, aber es fällt mir schwer zu glauben, die KI würde im Zweifel auch sagen, dass der Holocaust eine tolle Idee war. Natürlich können die Anbieter ihre LLMs kalibrieren. Natürlich tun sie das.

Interessant wäre es noch zu erfahren, ob du ChatGPT so lange gefragt hast, bis das überlieferte Ergebnis herauskam. :face_with_hand_over_mouth: