Interview Im Gespräch: Wie große Sprachmodelle den Eindruck eines menschlichen Gegenübers erwecken
7. November 2025
Ekkehard Felder und Marcel Kückelhaus zur sprachlichen Konstituierung von LLMs
Nicht nur Menschen neigen dazu, Maschinen oder Technologien menschliche Eigenschaften und Handlungen zuzuschreiben. Große Sprachmodelle wie ChatGPT oder Gemini – sogenannte Large Language Models oder LLMs – erwecken mithilfe bestimmter sprachlicher Strategien selbst den Eindruck eines bewussten, lebendigen Gegenübers. Das zeigen Untersuchungen der Sprachwissenschaftler Prof. Dr. Ekkehard Felder und Marcel Kückelhaus, die ihre Ergebnisse in der „Zeitschrift für Literaturwissenschaft und Linguistik“ veröffentlicht haben. Über die Erkenntnisse, die sie im Gespräch mit ChatGPT und Google Gemini zur Vermenschlichung von LLMs gewonnen haben, berichten sie im Interview.
Wie sind Large Language Models aus sprachwissenschaftlicher Sicht einzuordnen und warum interessieren Sie sich dafür?
Felder: Als Sprachwissenschaftler interessieren wir uns für die Musterhaftigkeit von Sprache. Und wenn wir bestimmte Sprachhandlungen vollziehen, wie sich zu entschuldigen oder jemanden höflich um etwas zu bitten, dann nutzen wir zumeist bestimmte Muster, die wir leicht variieren. Sprachmodelle nutzen diese Musterhaftigkeit sehr stark aus und generieren einen Output in Form von Sätzen oder kleinen Texten, die sofort irgendwie auch menschlich erscheinen. Dieser Output wird vermenschlicht, wohlwissend, dass da nur Strom fließt. Dies nennt man Anthropomorphisierung, und das ist letztlich das Faszinierende daran.
Kückelhaus: Sprachmodelle gibt es schon länger. Die Modelle, die wir seit dem Release von ChatGPT haben, stellen jedoch eine Besonderheit dar. Sie gehen auf das Gesagte ein oder können sich besser darauf einstellen. Das macht die wissenschaftliche Auseinandersetzung damit so spannend.
Sprachmodelle nutzen diese Musterhaftigkeit sehr stark aus und generieren einen Output in Form von Sätzen oder kleinen Texten, die sofort irgendwie auch menschlich erscheinen. Dieser Output wird vermenschlicht, wohlwissend, dass da nur Strom fließt. Dies nennt man Anthropomorphisierung.
Ekkehard Felder
Um nachzuvollziehen, wie sich LLMs als sprachliches „Gegenüber“ konstituieren, haben Sie ein Gespräch mit ChatGPT in der Version 4o vom September 2024 und mit Google Gemini geführt. Was war dabei Ihr Ansatz?
Felder: Die Grundidee war ein sokratischer Dialog, um die „Maschine“ aus der Reserve zu locken.
Kückelhaus: In meiner Dissertation „Menschliche Künstliche Intelligenz“ habe ich mich damit auseinandergesetzt, wie Künstliche Intelligenz im journalistischen Diskurs dargestellt wird. Meine erste Frage war, was momentan die größte Angst der Menschheit in Bezug auf KI ist. Diese Frage habe ich den LLMs gestellt und in dem sich daraus entwickelnden Dialog, wenn man so will, immer weitere Fragen angefügt. Irgendwann fiel auf, dass die „Maschine“ mit Pronomen auf sich selbst referiert. Die KI sprach dann von sich selbst als einem „Ich“ oder „Wir“, wobei damit nicht gemeint war, „Wir, künstliche Intelligenztechnologien“, sondern „Wir, die Menschheit“. Darüber bin ich gestolpert. Den Output habe ich dann immer wieder hinterfragt und das Sprachmodell herausgefordert und gefragt, warum es von sich als Teil der Menschheit spricht, obwohl es natürlich kein Mensch ist.
Welche Strategien nutzen die LLMs, um uns davon zu überzeugen, dass wir es mit einem echten Dialogpartner zu tun haben?
Kückelhaus: Bei ChatGPT hat es sehr lange gedauert, bis das Modell überhaupt auf sich selbst verwiesen hat. Die Antworten waren zunächst sehr enzyklopädisch. Gemini hingegen hat sofort angefangen, Personalpronomen zu verwenden, vor allem „Ich“ und „Wir“, außerdem bestimmte Verben, die eigentlich auf eine Persönlichkeit schließen lassen. Mein Lieblingszitat ist der Output: „Ich bin mir bewusst, dass ich kein Mensch bin.“ Die erste Person Singular setzt die Wahrnehmung eines Egos, eines „Ich“, voraus. Das ist eigentlich eine Fähigkeit, die wir nur Menschen zuschreiben. Dann ist das Modell sich seiner selbst „bewusst“. Bewusstsein gestehen wir jedoch nur einer limitierten Anzahl an Lebewesen zu, allen voran dem Menschen. Wir haben also zwei sprachliche Merkmale, die eigentlich auf ein Menschsein hinweisen, dennoch antwortet die KI, dass sie kein Mensch sei. Solche Widersprüche finden sich immer wieder im Dialog mit Künstlicher Intelligenz. Dabei muss man im Hinterkopf behalten, dass der Sprachgebrauch von den menschlichen Daten abhängt, auf die das jeweilige Modell trainiert ist. Es sind Texte, die von Menschen geschrieben wurden, und die Formulierungen wie „sich bewusst sein“ verwenden. Darauf greift natürlich auch das Sprachmodell zurück – wobei auch diese Aussage bereits vermenschlichend ist. Wir können aber gar nicht anders, als solche Wendungen wie „es greift zurück“ zu verwenden, da wir in unserer Sprache limitiert sind und auf solche sprachlichen Formen angewiesen sind.
Felder: Das hat auch sprachökonomische Gründe. So verwendet zum Beispiel auch die Wirtschaftssprache Metaphern oder sprachliche Verschiebungen. Auch im Zusammenhang mit Sprachmodellen brauchen wir diese Arten der Übertragung, um uns nicht in hochgestochenen Verweisen auf rein technologische Aspekte zu verlieren.
Vielleicht leistet generative Künstliche Intelligenz einen Beitrag dazu, dass wir uns wieder mehr auf Inhalte fokussieren.
Ekkehard Felder
Welche Folgen hat die Diskrepanz zwischen der Wirklichkeit und dem, was Sie im Paper als „medial vermittelte Realität“ bezeichnen?
Kückelhaus: Die Vermenschlichung von LLMs birgt aus meiner Sicht durchaus Risiken, da wir sie nicht permanent reflektieren. Und das kann Konsequenzen für den User haben.
… wie den Verlust der kritischen Distanz?
Felder: Hier würde ich widersprechen. Eigentlich wollen wir doch auch unsere Studierenden so weit bringen, dass sie Aussagen für sich beurteilen und nicht primär danach, wer sie getätigt hat. Vielleicht leistet generative Künstliche Intelligenz einen Beitrag dazu, dass wir uns wieder mehr auf Inhalte fokussieren. Natürlich benötigen wir im Alltag Hilfsmittel, etwa in Form von Expertenmeinungen, auf die wir uns verlassen. Diese Orientierung geht momentan ein wenig verloren. Vielleicht hat es durchaus etwas Positives, wenn uns der Umgang mit LLMs dazu anleitet, die dargestellten Sachverhalte etwas personenunabhängiger auf ihren Wahrheitsgehalt und ihre Geltungsansprüche hin zu überprüfen.
Kückelhaus: Das kann ich nur begrenzt unterschreiben. Sind Informationen mit einer bestimmten Person verbunden, können wir einen Realitäts- und Faktencheck vornehmen. Wir können nachforschen, ob der Mensch, der eine Aussage getroffen hat, in irgendeiner Form qualifiziert ist. Bei ChatGPT und anderen LLMs ist das nicht möglich, weil wir nicht wissen, auf welche Quellen sie sich beziehen – mag eine Aussage auch absolut überzeugend klingen und die Argumentation stringent sein. Dass wir uns zu stark auf das verlassen, was wir lesen oder hören, ist ein allgemeines Problem, das sich zugespitzt im Zusammenhang mit Sprachmodellen zeigt. Es wird bereits sehr viel – aus meiner Sicht zu viel – Vertrauen in diese Technologie gelegt.
Felder: Zweifellos gibt es inadäquaten Gebrauch, und Künstliche Intelligenz macht natürlich Fehler. Allerdings halte ich es für problematisch, diesen Umstand als Argument dafür anzuführen, sich erst gar nicht mit dieser neuen Technologie auseinanderzusetzen.
Kückelhaus: Wofür wir uns sicher beide aussprechen, ist ein reflektierter Gebrauch der Technologie. Und das betrifft wiederum auch die Sprache. Angesichts der sprachlichen Muster, die die „Maschine“ so menschlich wirken lassen, gilt es, damit reflektiert umzugehen und sich immer wieder bewusst zu machen, dass es sich nicht um ein menschliches Gegenüber handelt.
Angesichts der sprachlichen Muster, die die „Maschine“ so menschlich wirken lassen, gilt es, damit reflektiert umzugehen und sich immer wieder bewusst zu machen, dass es sich nicht um ein menschliches Gegenüber handelt.
Marcel Kückelhaus
Der Titel Ihres Papers lautet „Das definierende Sprachmodell“. Was ist damit gemeint?
Kückelhaus: Ein weiterer Schritt, den ich in meiner Dissertation gemacht habe, bestand darin, die beiden Sprachmodelle ChatGPT und Gemini über den Menschen auszufragen. Ich wollte herausfinden, welche menschlichen Eigenschaften diese LLMs den Menschen zuschreiben. Sonst sind wir es, die Gegenständen Eigenschaften zuweisen, auch der KI. Nun ist es eine Technologie, die zurückspricht. Für mich war es sehr spannend, der Frage nachzugehen, wie wir von Künstlicher Intelligenz charakterisiert werden. Natürlich beruht diese Charakterisierung auf menschlichen Daten. Das heißt, dass der Mensch mithilfe des Sprachmodells letztlich auf sich selbst verweist. Aber aufgrund der Anthropomorphisierung können wir sagen, dass die LLMs den Menschen definieren. Daher stammt der Ausdruck des „definierenden Sprachmodells“.
Wie sehen Sie den Einsatz von generativer KI an der Hochschule?
Kückelhaus: Das müssen die unterschiedlichen Fachbereiche für sich beurteilen. Für uns ist gerade die Frage relevant, wie Studierende Sprachmodelle nutzen, um Hausarbeiten zu schreiben. Ich sehe das weniger als Risiko, sondern vielmehr als Chance. Unser Ziel muss sein, Studierende in einem bewussten Umgang mit Künstlicher Intelligenz zu schulen, um die sprachliche Qualität ihrer Hausarbeiten zu verbessern. Die Verantwortung für die inhaltliche Qualität sollte natürlich bei den Studierenden verbleiben.
Felder: Es ist aus meiner Sicht völlig illusionär, die Verwendung von Sprachmodellen zu verbieten. Im Gegenteil, wir müssen sie in unsere Lehr-Lern-Prozesse und auch in ein forschungsnahes Lehren und Lernen integrieren. Wir müssen unseren Studierenden ein Gespür für die Verlässlichkeit von LLMs vermitteln. Dies gilt vor allem auch vor dem Hintergrund, dass KI insbesondere im geistes- und sozialwissenschaftlichen Bereich auf dem Arbeitsmarkt zu einer echten Konkurrenz wird. Meinen Studierenden empfehle ich daher eine aktive Auseinandersetzung mit der Thematik. Darüber hinaus möchte ich noch auf einen bildungspolitischen Aspekt hinweisen. Wir beobachten mittlerweile sehr sensibel, welche Sozialisationsbedingungen junge Menschen mitbringen. Auch hier an der Universität ist das Thema First Academics mit Studierenden aus nichtakademischen Elternhäusern sehr wichtig. Vielleicht können Sprachmodelle dort unterstützen, wo andere Hilfestellung fehlt.
Projekt „FrameIntell“
Mit ihren Untersuchungen zur sprachlichen Konstituierung von LLMs sind Ekkehard Felder und Marcel Kückelhaus eingebunden in ein vom Bundesministerium für Forschung, Technologie und Raumfahrt gefördertes Forschungsprojekt mit dem Titel „FrameIntell“. Darin untersuchen sie gemeinsam mit Kolleginnen und Kollegen aus den Neurowissenschaften, der Medizinethik und der Informatik unterschiedliche Konzepte von künstlicher und biologischer Intelligenz. Dabei gehen sie von der Hypothese aus, dass die Konzeptualisierung in der Biologie, der Psychologie und den Kognitionswissenschaften zunehmend von KI-Konzepten beeinflusst werden. Die Forscherinnen und Forscher analysieren und vergleichen dazu wissenschaftliche Veröffentlichungen und große Datenbanken wie PubMed und arXiv, um aufzudecken, welche Vorstellungen von Intelligenz dort formuliert werden und welchen Einfluss Künstliche Intelligenz darauf hat. Anliegen ist es, implizite und explizite Konzepte von Kognition und ihre ethischen Konsequenzen aufzudecken.
Zur Person
Nach dem Studium der Germanistik und Anglistik in Heidelberg und Rennes (Frankreich) ist Marcel Kückelhaus seit 2022 als Doktorand und wissenschaftlicher Mitarbeiter am Germanistischen Seminar der Universität Heidelberg tätig. Seine Dissertation zum Thema linguistische Rahmung von künstlicher und biologischer Intelligenz hat er aktuell vorgelegt. Darüber hinaus ist er am Käthe Hamburger Kolleg für Apokalyptische und Postapokalyptische Studien der Ruperto Carola im Bereich Wissenschaftskommunikation beschäftigt. Ekkehard Felder ist seit 2005 Professor für Germanistische Linguistik mit besonderer Berücksichtigung der Gegenwartssprache an der Universität Heidelberg. Zu seinen Forschungsinteressen gehören unter anderem die Linguistische Diskursanalyse und die Fachkommunikation in den Bereichen Recht, Medizin, Wirtschaft sowie Bio- und Gentechnologie. Zudem befasst er sich mit Fragen der Grammatik, der Rhetorik und der Argumentationsanalyse.
Originalpublikation
E. Felder, M. Kückelhaus: Das definierende Sprachmodell (LLM): Anthropomorphisierung in der Mensch-Maschine-Interaktion. Zeitschrift für Literaturwissenschaft und Linguistik (11 April 2025)

