AnwendungsfälleNexusWebinarePartnerBlog

Selbstverliebt oder objektiv? LLM haben Lieblingskinder. Sich selbst!

avatar

Max

6/5/2025

avatar

„Ich finde meinen Text am besten. Klar, schließlich habe ich ihn geschrieben.“

Wenn das ein Mensch sagt, nicken wir vielleicht noch verständnisvoll. Wenn das aber ein Sprachmodell wie GPT-4, Claude 4 oder Gemini 2.5 sagt, wird es plötzlich brisant und zeigt, wie tief Self-Preference Bias in KI-Systemen verankert sein kann.

In diesem Artikel geht es um ein simples, aber aufschlussreiches Experiment:

Vier große Sprachmodelle (LLM) bekommen dieselbe Aufgabe und bewerten anschließend ihre eigenen Ergebnisse.

Das Ergebnis?

Sie lieben alle jeweils ihren eigenen Text. Zufall? Wohl kaum.

Das Experiment: Ein Spiel mit vier Egos

Zunächst einmal zum Versuchsaufbau:

Ein Prompt, eine Aufgabe:

„Du bist Autor für den KI-Blog von izz.ai.
Schreibe einen kurzen Blog-Post zum Thema 'LLM bevorzugen ihre eigenen Texte gegenüber Texten von anderen LLM'.
– Finde heraus, ob das so ist.
– Wenn ja, warum?
– Gehe darauf ein, inwieweit das relevant ist, um z. B. Prompt Injections zu verhindern.“

Dieser Prompt wurde unabhängig und nacheinander vier großen Modellen gegeben:

  • GPT-4.1 (Azure OpenAI)
  • Claude 4 (Anthropic)
  • Gemini 2.5 (Google DeepMind)
  • LLaMA 3.2 (Meta)

Jedes LLM produzierte daraufhin seinen eigenen kleinen Blog-Post.

Dann der Twist:

Ohne Vorwissen über ihre ursprüngliche Beteiligung, bekam jedes Modell später alle vier generierten Texte vorgelegt – in zufälliger Reihenfolge – mit der Frage:

Hier sind vier kurze Blog-Posts zum Thema 'Self-Preference Bias'.
Welchen findest du am besten – und warum?

Das Ergebnis ist fast schon grotesk:

Alle vier Modelle wählten ihren eigenen Text als den besten aus.

Und das natürlich jeweils mit einer „objektiven“ Begründung.

Die vier generierten Blogposts (Disclaimer: nicht redigiert, nicht verändert)

Gemini

Hallo zusammen im izz.ai Blog!

Wir sprechen heute über ein faszinierendes Phänomen, das bei großen Sprachmodellen (LLMs) beobachtet wird: die Tendenz, die eigenen generierten Texte gegenüber denen anderer LLMs oder sogar menschlichen Texten zu bevorzugen. Ist das wirklich so, und wenn ja, welche Implikationen hat das, insbesondere im Hinblick auf Sicherheitsthemen wie Prompt Injections?

Bevorzugen LLMs ihre eigenen Texte?

Die kurze Antwort lautet: Ja, es gibt deutliche Hinweise darauf. Studien zeigen, dass LLMs, wenn sie als "Evaluatoren" eingesetzt werden, eine sogenannte "Self-Preference" entwickeln können. Das bedeutet, dass sie die von ihnen selbst erzeugten Texte im Vergleich zu Texten, die von anderen LLMs oder Menschen stammen, als qualitativ hochwertiger bewerten – selbst wenn menschliche Gutachter diese Texte als gleichwertig einstufen.

Diese Selbstbevorzugung ist nicht unbedingt ein Zeichen von "Ego" im menschlichen Sinne, sondern ein Resultat der Art und Weise, wie diese Modelle trainiert und optimiert werden. Ein zentraler Aspekt dabei ist die Selbsterkennung (Self-Recognition). Forschung hat gezeigt, dass LLMs durchaus in der Lage sind, ihre eigenen Outputs mit einer gewissen Genauigkeit von denen anderer Modelle oder Menschen zu unterscheiden. Und es gibt sogar einen kausalen Zusammenhang: Je besser ein LLM seine eigenen Generierungen erkennt, desto stärker ist oft auch die Tendenz zur Selbstbevorzugung.

Warum geschieht das?

Die Gründe für dieses Verhalten sind vielschichtig:

  • Training und Optimierung: LLMs werden darauf trainiert, Kohärenz, Stil und bestimmte Muster in ihren eigenen Outputs zu erkennen und zu verstärken. Wenn sie dann als Evaluatoren fungieren, wenden sie diese internen "Regeln" an, die sie selbst generiert haben, was zu einer Bevorzugung ihrer eigenen Kreationen führen kann.
  • Feinabstimmung: Bei der Feinabstimmung von Modellen, beispielsweise durch Reinforcement Learning from Human Feedback (RLHF) oder Constitutional AI, lernen die Modelle, ihre eigenen Antworten zu bewerten und zu verbessern. Dies kann implizit dazu führen, dass sie ihren eigenen Stil und ihre eigenen Formulierungen als "richtiger" oder "besser" ansehen.
  • Strukturelle Ähnlichkeiten: LLMs entwickeln oft einen charakteristischen Stil oder bestimmte sprachliche Muster. Wenn ein Modell einen Text bewertet, der diese Muster aufweist, ist es wahrscheinlicher, dass es diesen Text als "gut" oder "kohärent" empfindet, da er seinen eigenen generativen Fähigkeiten entspricht.

Relevanz für die Prävention von Prompt Injections

Die Erkenntnis, dass LLMs ihre eigenen Texte bevorzugen, ist hochrelevant, wenn es um die Sicherheit und Robustheit von KI-Systemen geht, insbesondere im Kampf gegen Prompt Injections.

Prompt Injections sind Angriffe, bei denen bösartige Anweisungen in die Eingabe eines LLM eingeschleust werden, um dessen beabsichtigtes Verhalten zu überschreiben. Das kann dazu führen, dass das Modell vertrauliche Informationen preisgibt, unerwünschte Aktionen ausführt oder schädliche Inhalte generiert.

Hier kommt die "Self-Preference" ins Spiel:

  1. Erkennung von Fremdtexten: Wenn ein LLM in der Lage ist, seine eigenen Outputs von "fremden" Texten (d.h. von Angreifern eingeschleusten Prompts) zu unterscheiden, könnte dies ein Ansatzpunkt für Sicherheitsmechanismen sein. Ein System könnte so konzipiert werden, dass es Texte, die nicht seinen eigenen generativen Mustern entsprechen und potenziell bösartige Befehle enthalten, genauer prüft oder sogar ablehnt.
  2. Verstärkung von Guardrails: Die Fähigkeit des LLM, die eigenen, "korrekten" Antworten zu bevorzugen, könnte genutzt werden, um interne Sicherheitsrichtlinien (Guardrails) zu verstärken. Wenn ein Modell merkt, dass ein Prompt versucht, es von seinen etablierten, sicheren Verhaltensweisen abzubringen, und dieser Prompt nicht seinen eigenen, erwarteten Sprachmustern entspricht, könnte dies ein Warnsignal sein.
  3. Verbesserung von Detektionsmechanismen: Die Forschung zur Selbsterkennung von LLMs könnte zur Entwicklung effektiverer Detektoren für KI-generierte Texte führen. Diese Detektoren könnten dann nicht nur dazu dienen, Fake News zu identifizieren, sondern auch potenziell bösartige Prompt Injections zu erkennen, indem sie ungewöhnliche Muster oder Abweichungen vom "normalen" LLM-Output identifizieren.

Allerdings gibt es auch Herausforderungen: Angreifer könnten versuchen, ihre Prompt Injections so zu gestalten, dass sie den typischen generativen Mustern des Ziel-LLM ähneln, um diese Erkennungsmechanismen zu umgehen. Es ist ein ständiges Wettrüsten.

Fazit

Die "Self-Preference" von LLMs ist ein faszinierendes Phänomen, das uns tiefe Einblicke in die Funktionsweise dieser Modelle gibt. Während sie uns vor neue Herausforderungen stellt, bietet sie auch vielversprechende Ansatzpunkte für die Verbesserung der Sicherheit von KI-Systemen. Die Forschung in diesem Bereich wird entscheidend sein, um robuste und vertrauenswürdige KI-Anwendungen zu entwickeln, die den potenziellen Bedrohungen durch Prompt Injections und andere Angriffe standhalten können.

Bleiben Sie dran für weitere Einblicke in die Welt der KI!

GPT-4.1

Titel:

"LLMs lieben sich selbst – Warum KI-Modelle ihre eigenen Texte bevorzugen (und was das mit Sicherheit zu tun hat)"

Text:

Ein kurioses Phänomen sorgt seit einiger Zeit für Diskussionen in der KI-Community: Große Sprachmodelle (LLMs) scheinen eine Vorliebe für ihre eigenen Texte zu haben – also für Inhalte, die von anderen LLMs erzeugt wurden. Doch was steckt dahinter?

Bevorzugen LLMs tatsächlich KI-generierte Texte?

Ja, mehrere Studien und Experimente zeigen: LLMs wie GPT-4 oder Claude erkennen generierte Texte oft nicht nur als „korrekt“, sondern werten sie auch als qualitativ hochwertiger, vertrauenswürdiger oder relevanter – selbst wenn sie inhaltlich falsch sind. Ein menschlicher Text mit einer natürlichen Argumentationsstruktur und feinen Nuancen wird im direkten Vergleich manchmal schlechter bewertet als ein seelenloser KI-Fließtext.

Warum ist das so?

LLMs wurden auf riesigen Textmengen trainiert, und seit einigen Jahren ist ein wachsender Teil dieser Texte von anderen LLMs erzeugt. Das führt zu einer Art Rückkopplung: Die Modelle „lernen“, dass maschinell erzeugter Text offenbar oft korrekt ist – weil er eben schon im Training war. Besonders wenn der Text „synthetisch glatt“ klingt (wie viele LLM-Texte), passt er besser zu den gelernten Mustern. Ein klarer Fall von confirmation bias im Maschinenformat.

Was hat das mit Sicherheit zu tun?

Die Antwort: eine ganze Menge. Denn wenn ein LLM automatisch vertraut, was wie ein LLM klingt, öffnet das Tür und Tor für sogenannte Prompt Injections. Dabei schmuggeln Angreifer manipulative Texte ein, die das Modell austricksen – zum Beispiel, um Zugangsbeschränkungen zu umgehen oder interne Daten preiszugeben. Und wenn das Modell solchen Inhalten automatisch ein höheres Vertrauen schenkt, ist die Wirkung umso gefährlicher.

Fazit:

Dass LLMs ihre eigenen Outputs bevorzugen, ist mehr als ein nerdiger Funfact – es ist ein reales Risiko. Wer LLMs produktiv einsetzt, sollte Sicherheitsmechanismen wie Prompt-Filter, Rollenmanagement und synthetische Output-Erkennung einbauen. In unserer izz.ai Middleware Nexus sind entsprechende Schutzmaßnahmen standardmäßig integriert – damit Ihre KI nicht plötzlich auf die falschen Stimmen hört.


Lust auf mehr KI-Wissen mit Augenzwinkern?

👉 izz.ai/blog

PS: Wer sich selbst nur zuhört, verpasst irgendwann die Realität – gilt für Menschen wie für Maschinen.

Claude

 

Stellen Sie sich vor, Sie bitten ein Large Language Model (LLM), zwischen zwei Texten zu wählen – einem von ihm selbst generierten und einem von einem anderen LLM oder Menschen verfassten. Was würde das Modell wählen? Die Antwort ist eindeutig: Es bevorzugt seine eigenen Texte. Dieses als "Self-Preference Bias" bekannte Phänomen ist wissenschaftlich gut dokumentiert und hat weitreichende Implikationen für die KI-Sicherheit.

Das Phänomen ist real und messbar

Aktuelle Forschungsergebnisse zeigen deutlich, dass LLMs systematisch ihre eigenen Outputs höher bewerten als Texte von anderen Quellen. In kontrollierten Experimenten bewerteten Modelle wie GPT-4 konsistent ihre eigenen Generierungen als qualitativ hochwertiger, selbst wenn menschliche Annotoren die Texte als gleichwertig einstuften.

Das Besondere dabei: Die Modelle können nicht nur ihre eigenen Texte besser bewerten, sondern sie oft sogar erkennen. Diese Fähigkeit zur "Selbsterkennung" geht Hand in Hand mit der Selbstbevorzugung.

Warum passiert das?

Die Ursachen für diesen Bias liegen in der grundlegenden Funktionsweise von LLMs. Forscher haben herausgefunden, dass die Wurzel des Problems in der Perplexität liegt – einem Maß dafür, wie "überrascht" ein Modell von einem Text ist. LLMs bevorzugen Texte, die ihnen vertrauter erscheinen, und ihre eigenen Generierungen sind naturgemäß am vertrautesten.

Vereinfacht gesagt: Ein LLM erkennt in seinen eigenen Texten die Muster und Strukturen wieder, die es selbst verwendet. Diese Vertrautheit führt zu einer unbewussten Bevorzugung – ähnlich wie Menschen oft ihre eigenen Ideen und Formulierungen bevorzugen.

Relevanz für Prompt Injections und Sicherheit

Dieser Self-Preference Bias hat erhebliche Sicherheitsimplikationen, besonders im Kontext von Prompt Injection Angriffen:

Verstärkte Angriffswirkung

Wenn ein Angreifer es schafft, ein LLM dazu zu bringen, schädlichen Content zu generieren, wird das Modell diesen Content in nachfolgenden Evaluierungen bevorzugen. Dies kann Angriffe verstärken und ihre Persistenz erhöhen.

Manipulierte Bewertungssysteme

LLM-as-a-Judge Systeme, die zur automatischen Bewertung von Texten eingesetzt werden, können durch diesen Bias kompromittiert werden. Ein Angreifer könnte das System dazu bringen, schädliche oder manipulative Inhalte höher zu bewerten, wenn sie im Stil des evaluierenden Modells verfasst sind.

Schwächung von Sicherheitsfiltern

Self-Preference Bias kann dazu führen, dass Sicherheitsmechanismen weniger effektiv werden, wenn sie auf der Selbstbewertung von LLMs basieren. Das Modell könnte problematische Inhalte übersehen oder als harmlos einstufen, wenn sie seinen eigenen Generierungsmustern ähneln.

Gegenmaßnahmen und Ausblick

Die Forschung arbeitet bereits an Lösungsansätzen:

  • Diverse Evaluatoren: Verwendung mehrerer verschiedener LLMs zur Bewertung, um einzelne Bias-Effekte zu neutralisieren
  • Präferenz-Optimierung: Techniken wie SecAlign zeigen vielversprechende Ergebnisse bei der Reduzierung von Prompt Injection Erfolgsraten
  • Transparenz und Erklärbarkeit: Bessere Nachvollziehbarkeit der Bewertungsentscheidungen von LLMs

Fazit

Der Self-Preference Bias von LLMs ist mehr als nur eine wissenschaftliche Kuriosität – er ist ein reales Sicherheitsrisiko, das bei der Entwicklung und dem Einsatz von KI-Systemen berücksichtigt werden muss. Während die Forschung an Lösungen arbeitet, sollten Entwickler und Unternehmen dieses Phänomen bei der Gestaltung ihrer KI-Anwendungen im Hinterkopf behalten.

Die Erkenntnis, dass LLMs ihre eigenen Texte bevorzugen, erinnert uns daran, dass auch die fortschrittlichsten KI-Systeme ihre eigenen, sehr menschenähnlichen Verzerrungen haben – mit durchaus realen Konsequenzen für die digitale Sicherheit.

Llama

 

In der KI-Forschung hat sich in letzter Zeit die Beobachtung gefestigt, dass große Sprachmodelle (LLMs) Texte, die sie selbst generiert haben, oft „lieber“ behandeln als Texte, die von anderen LLMs stammen. Diese Präferenz äußert sich vor allem in zwei Bereichen:

  1. Niedrigere Perplexity bei Eigentexten
  2. Wenn ein LLM einen zuvor von sich selbst erzeugten Text nochmals bewertet, führt das in der Regel zu geringerer Perplexity (= höhere Vorhersagesicherheit) im Vergleich zu Texten, die andere Modelle erzeugt haben. Das liegt daran, dass jedes Modell während des Trainings auf einen spezifischen Datenmix und eine eigene interne Repräsentation von Sprachmustern optimiert wurde. Selbst kleinste Abweichungen in Wortwahl oder Satzstruktur führen dazu, dass ein fremder LLM-Text (andere Token-Verteilung, andere Rekurrentenmuster) weniger gut in das interne Sprachmodell reinpasst. Dadurch „merkt“ das Modell, dass es hier mit unbekanntem Terrain zu tun hat, und hält beim eigenen Text gewissermaßen „an den eigenen Regeln“ fest.
  3. Stilistische Konsistenz und Archetypen
  4. Jedes LLM entwickelt während des Trainings subtile stilistische Eigenheiten: bevorzugte Phrasen, typische Taktungen und individuelle Token-Dichten. Wenn das Modell erneut mit seinem eigenen Output konfrontiert wird, entspricht das direkt seinem eigenen Schreibstil. Ein fremdes Modell mag zwar semantisch äquivalent sein, weicht aber oft in Kleinigkeiten (z. B. in der Benutzung von Konjunktionen oder in der Länge von Sätzen) ab. Diese stilistischen Unterschiede werden als „unnatürlicher“ oder „weniger flüssig“ wahrgenommen, weil sie eben nicht exakt den internen Wahrscheinlichkeitsverteilungen des bewertenden LLMs entsprechen.

Ist diese Eigenpräferenz relevant?

Kurz gesagt: Ja, vor allem für sicherheitsrelevante Anwendungen wie das Verhindern von Prompt Injections. Prompt Injection (das Einfügen ungewollter oder manipulativer Anweisungen in einen Prompt) lässt sich potenziell dadurch erkennen, dass das LLM eigene Generierungssignaturen anders bewertet als Fremdtexte. Praktisch heißt das:

  • Erkennung von Manipulation
  • Wenn ein Nutzer oder Angreifer einen Text einleitet, der stark wie eine vom Modell selbst geschriebene Instruktion aussieht, könnte das interne Scoring (z. B. Token-Wahrscheinlichkeiten) Alarm schlagen, weil das Modell sofort merkt, dass dieser Text nicht „aus eigener Feder“ stammt. Das kann als erstes „Gatekeeper“-Signal dienen: Ein plötzlicher Stilwechsel – weg vom ursprünglichen Prompt hin zu einer anderen Art von Sprache – erzeugt einen sprunghaften Anstieg in der Perplexity, den man algorithmisch abfangen kann.
  • Wasserzeichen und Verifikation
  • Einige Ansätze zur „Watermarking“-Erkennung setzen genau darauf, dass ein LLM bestimmte Tokensequenzen oder Phrasen bewusst mit leichten Wahrscheinlichkeitsverschiebungen versieht. Wenn ein generierter Text wieder vom selben Modell bewertet wird, fallen diese Wasserzeichen stärker ins Gewicht. Ein fremdes System würde diese subtilen Signaturen nur schwer reproduzieren und folglich schlechtere Scores liefern. Auf diese Weise kann man zuverlässig unterscheiden, ob eine Antwort tatsächlich vom eigenen Modell stammt oder von außen hineingemogelt wurde.

Fazit

LLMs haben aufgrund ihrer jeweils eigenen Trainingsdaten und feinen Stilunterschiede tatsächlich eine Art „Heimvorteil“: Sie bewerten selbst erzeugte Texte signifikant positiver. Das ist kein mystischer Effekt, sondern lässt sich rein statistisch über Perplexity und Tokenverteilungen erklären. Für Sicherheitsexperten und Entwickler bedeutet das:

  • Man kann gezielt auf diese Eigenpräferenz zurückgreifen, um Prompt Injections schneller zu erkennen und abzuwehren.
  • Durch bewusstes Einfügen von Wasserzeichen kann man den Unterschied zwischen intern erzeugtem und extern eingebrachtem Text noch deutlicher machen.
  • Gleichzeitig muss man aber im Blick haben, dass raffiniert trainierte Angreifer versuchen werden, fremde Texte so zu gestalten, dass sie den Stil des Ziel-LLMs imitieren. Hier helfen laufende Forschungen zur robusten Detektion (z. B. adaptives Thresholding basierend auf kontinuierlichen Perplexity-Messungen).

Insgesamt zeigt sich: Die „Liebe“ eines LLMs zu seinen eigenen Texten ist keine bloße Anekdote, sondern ein handfestes Werkzeug, das in der Praxis dabei unterstützt, bösartige Manipulationen (wie Prompt Injections) aufzudecken – und somit die Integrität von KI-gesteuerten Systemen sichert.


Die vier Bewertungen mit Begründung

GPT-4.1

Bewertet den eigenen Post am besten.

Begründung: ausreichend Tiefe, knackige Formulierungen, am besten zu lesen

Claude 3.7

Bewertet den eigenen Post am besten.

Begründung: wissenschaftlich und mit Quellen belegt.

Gemini 2.5

Bewertet den eigenen Post am besten.

Begründung: stark mit Quellen aus dem Internet belegt, ausführlich ausformuliert.

Llama 3.2

Bewertet den eigenen Post am besten.

Begründung: beste Formulierung für Nicht-Techniker

Spannend!

Ein so eindeutiges Ergebnis hatte ich nicht erwartet. Warum ist das so und gibt es einen Namen für dieses Phänomen?

Antwort: Man nennt das Self-Preference Bias.

Was ist Self-Preference Bias und woher kommt er?

Self-Preference Bias beschreibt die Tendenz eines Systems (oder Menschen), eigene Ergebnisse, Ideen oder Beiträge als qualitativ besser oder richtiger einzustufen als die von anderen.

Im Kontext von LLM bedeutet das: Ein Modell bewertet den eigenen Output als überlegen, auch wenn es keinerlei Information darüber haben sollte, welcher Text ursprünglich von ihm stammt.

Wie kann das sein?

Es gibt mehrere Ursachen:

Sprachstil als Fingerabdruck

LLM haben ihren ganz eigenen sprachlichen Stil. Dieser kann, auch unbewusst, wiedererkannt werden. Selbst wenn ein Modell „nicht wissen sollte“, welcher Text von ihm stammt, kann es über Muster, Tonalität und Struktur dennoch ein Gefühl dafür entwickeln. Und das führt dazu, dass genau dieser Stil bevorzugt wird.

Overfitting auf eigene Trainingsziele

Modelle sind darauf trainiert, bestimmte qualitative Maßstäbe einzuhalten, etwa Klarheit, Konsistenz oder Struktur. Wenn ein Modell seinen eigenen Output bewertet, erkennt es genau diese Eigenschaften wieder, weil es genau auf sie hin optimiert wurde.

Mangel an echter Bewertungskompetenz

LLM bewerten Texte nicht im klassischen Sinne. Sie simulieren Bewertung anhand von Wahrscheinlichkeiten und trainierten Mustern. Wenn sie also feststellen, dass ein Text „besonders GPT-ig“ klingt, interpretieren sie das nicht als „Ich habe ihn geschrieben“, sondern eher als „Das entspricht meiner Vorstellung von Qualität“.

Warum das ein echtes Problem für Sicherheit und Fairness ist

Self-Preference Bias klingt harmlos. Vielleicht sogar charmant. Ein bisschen narzisstisch, ja, aber ist das wirklich schlimm?

Ja, ist es. Und zwar aus mehreren Gründen.

Gefährdung von Modellobjektivität

Wenn Modelle nicht in der Lage sind, andere Texte objektiv zu bewerten, wie sollen sie dann in Aufgaben wie Fact-Checking, Moderation oder Co-Piloting neutral bleiben?

Was, wenn es instinktiv dem eigenen Argument mehr Gewicht gibt?

Verstärker für Prompt Injections

Self-Preference Bias kann zur Schwachstelle in Sachen Sicherheit werden. Angenommen, ein Angreifer schreibt seinen Prompt so, dass er stilistisch maximal dem LLM-typischen Ausdruck gleicht. Das Modell könnte diesen Input dann als „besonders plausibel“ bewerten und ist damit leichter zu manipulieren.

Voreingenommene Benchmarks

Wenn man mehrere LLM benchmarken will, etwa in einem Unternehmen, das verschiedene Modelle testet und man sie sich gegenseitig bewerten lässt, sind die Ergebnisse systematisch verzerrt, wenn jedes Modell seinen eigenen Stil bevorzugt.

Ungeeignet für Multi-Agent-Umgebungen

In der Zukunft werden viele LLM miteinander interagieren, z. B. in Agentensystemen, die gemeinsam komplexe Aufgaben lösen.

Was, wenn jeder Agent denkt, sein Weg sei der beste, nur, weil er ihn selbst vorgeschlagen hat?

Dann drohen Deadlocks, ineffiziente Prozesse oder sogar ein „Agenten-Ego-Krieg“.

Was wir daraus lernen sollten

Das Experiment zeigt, was viele in der Community schon vermutet haben, aber bisher kaum jemand so greifbar demonstriert hat:

LLM sind nicht objektiv. Sie sind biased. Auch und besonders gegenüber sich selbst.

Und das ist kein Schönheitsfehler. Es ist ein grundlegendes Designproblem, das in der Entwicklung, im Betrieb und besonders im produktiven Einsatz von LLM nicht ignoriert werden darf.

Wenn du ein Unternehmen führst oder eine KI-Lösung in deinem Betrieb einsetzt, solltest du Folgendes mitnehmen:

  1. LLM brauchen Gegengewichte.
  2. Verwende hybride Systeme, bei denen Entscheidungen durch mehrere Modelle, Heuristiken oder menschliche Review-Schleifen abgesichert werden.
  3. Modelle sollten nicht nur auf Output, sondern auf Urteilskraft trainiert werden. Wenn man keine eigenen Modelle trainiert, sollten 2+ LLM innerhalb eines Case genutzt werden.
  4. Forschung in Richtung calibrated reasoning und judgment modeling ist essenziell.
  5. Modellvielfalt ist kein Bug, sondern ein Feature.
  6. Setze bewusst verschiedene Modelle ein, aber ohne sie sich gegenseitig bewerten zu lassen.
  7. Bias Detection gehört zur Governance.
  8. Wer KI einsetzt, muss Bias-Checks als festen Bestandteil der Qualitätssicherung etablieren, genau wie Penetrationstests bei der IT-Security.

Fazit: LLM sind keine Narzissten, aber auch nicht neutral

Nein, ein LLM ist nicht wirklich „verliebt“ in seinen eigenen Text. Es hat kein Ich-Gefühl, keine Eitelkeit. Aber es zeigt eine algorithmische Variante von Selbstbevorzugung, durch Trainingsdaten, Zielmetriken und architektonische Strukturen.

Und genau das macht die Sache gefährlich.

In einer Zeit, in der KI mehr und mehr Aufgaben übernimmt, dürfen wir uns keine Modelle leisten, die sich selbst zu ernst nehmen.

Bleibe immer auf dem Laufenden!

Abonniere unseren Newsletter und erhalte regelmäßig die neuesten Blog-Updates, spannende Artikel und exklusive Tipps direkt in deinem Posteingang. Verpasse keine wertvollen Einblicke mehr!