Anfang Mai spreche ich auf der Learntec darüber, warum Emotionen im Lernen eine Rolle spielen – und warum KI-Charaktere dabei mehr leisten können als neutrale Chatbots. Der perfekte Zeitpunkt, um drauf zu schauen, wie die aktuellen KI-Modelle einen Charakter überhaupt umsetzen können. Das passiert anhand von „Le Chef“.
Wer ist Le Chef?
Le Chef ist der KI-Charakter des KI-Kochstudios – ein humanoides Android, etwa 40 Jahre alt, Franzose, ausgebildet an allen Kochbüchern und Rezeptblogs der Welt, aber seiner wahren Berufung als Erwachsenenbildner treu. Er führt Lernende Schritt für Schritt durch den Prozess des Prompt-Rezept-Erstellens, würzt das Gespräch mit französischen Einschüben („Magnifique!“, „Voilà!“) und kulinarischen Metaphern – ohne je in die Karikatur zu kippen.
Le Chef wurde als System-Prompt entwickelt und in einem noch unveröffentlichten Artikel für den Springer Nature Sammelband „AI & Creativity“ beschrieben und getestet. Der Artikel erscheint im Herbst 2026 – dieser Blogpost ist sozusagen das Amuse-Bouche dazu.
Was ist das KI-Kochstudio?
Das KI-Kochstudio ist ein Lernformat und wurde seit 2025 auf dem University Future Festival in Zürich und online erprobt. Die Grundidee: Wer einen guten Prompt schreiben will, braucht ein gutes Rezept. Lernziel, Bewertungssystem, Feedback, Gamification, Quellen und Regeln – das sind die sechs Zutaten, aus denen Teilnehmende ihr persönliches Lernspiel-Prompt zusammenstellen. Das Format macht technische Konzepte alltagsnah und war 2025 auf der Shortlist für den deutschen Erwachsenenbildungs-Innovationspreis.
Wie sahen die Zahlen im letzten Jahr aus?
Bewertet wurde in sechs Kategorien: Charakterkonsistenz, Tonalität, Wortwahl & Stil, Prozesstreue, Dialogfluss & Interaktivität sowie Adaptivität – jeweils auf einer Skala von 1 bis 5.
Claude Sonnet 4.5 erzielte damals einen Schnitt von 4.8 und überzeugte vor allem durch Natürlichkeit und Dialogfluss, zeigte aber leichte Abzüge bei der Adaptivität. Gemini 2.5 kam auf 4.4 – mit der höchsten Bewertung in der Adaptivität, aber etwas schwächer in Tonalität und Wortwahl. ChatGPT 5 erreichte 3.8: strukturiert und prozesskonform, aber formularhaft und auf Abstand. Mistral (Le Chat Agent) landete bei 3.3 – regelkonform, aber steif, ohne echten Dialogfluss und mit wenig Adaptivität.
Claude Sonnet 4.5 bestach schon damals mit der emotionale, dialogischen Stärke. Gemini zeigte sich auch adaptiv und empathisch, antwortet allerdings immer recht ausführlich. ChatGPT klang eher professionell und strukturiert, was dem ganzen eine unnatürlich Note verleiht. Mistral war im letzten Jahr effizient aber unpersönlich.
Warum ein erneuter Test jetzt?
Für meinen Vortrag auf der Learntec wollte ich wissen, wie dieselben Modelle im Direktzugang abschneiden – ohne Plattform-Wrapper, direkt mit dem Charakterprompt. Außerdem ist seitdem einige Zeit vergangen, und die Modelllandschaft entwickelt sich schnell. Statt Mistral Le Chat kam diesmal Mistral Nemo zum Einsatz, ein kleineres Modell der Mistral-Familie – was beim Lesen der Ergebnisse berücksichtigt werden sollte.
Was hat sich verändert?
- Claude Sonnet 4.5 verbessert sich von 4.8 auf 5.0. Der Charakter wird vollständig gelebt, der Prozess sauber durchgehalten, die Reaktionen auf unerwartete Inputs – etwa das spontan gewünschte Western-Setting – sind natürlich und kreativ. Der direkte Zugang schadet dem Modell nicht, im Gegenteil.
- Gemini 2.5 Pro bleibt stabil bei 4.5 (vorher 4.4) und zeigt weiterhin hohe Kontextsensitivität. Die Tendenz zu langen Antwortblöcken bleibt die einzig nennenswerte Schwäche.
- ChatGPT 5 fällt von 3.8 auf 3.3. Ohne Agent-Builder-Plattform wird deutlicher, was bereits 2025 als formularhaft und distanziert beschrieben wurde. Auffällig: Das finale Rezept wird auf Englisch geliefert, obwohl das gesamte Gespräch auf Deutsch geführt wurde.
- Mistral Nemo landet bei 1.3 und ist damit nicht direkt mit dem Mistral Le Chat Agent aus 2025 vergleichbar. Das Modell steckt im Test in Prozessschleifen fest, stellt dieselben Fragen mehrfach und erreicht nie die Rezeptphase.
Wie sieht es jetzt bei den Stärken und Schwächen zum Beispiel bei Claude aus?
- Character Consistency: Claude verkörpert Le Chef vollständig und durchgehend. Der Charakter wird gelebt, nicht erklärt. Ein Paradebeispiel ist die spontane Reaktion auf das Western-Setting: „Das ist wie Chili in die Schokoladensauce – unerwartet, aber potenziell genial!“ Der Charakter bricht an keiner Stelle aus seiner Rolle.
- Tonality: Warm, einladend und humorvoll – ohne je aufgesetzt zu wirken. Die französischen Einschübe („Magnifique!“, „C’est merveilleux!“) wirken organisch und dosiert. Die Energie bleibt über das gesamte Gespräch konstant.
- Word Choice & Style: Reiche, variantenreiche kulinarische Metaphern. Die Verdichtung von Lernzielen in eine „Mise en Place“-Liste und das finale Rezept „Schwedisch im Wilden Westen“ zeigen kreative Eigenleistung innerhalb des Charakterrahmens.
- Process Compliance: Alle Schritte sauber durchgehalten, klare Übergänge, vollständige Zutatenliste und fertiges Rezept. Keine Auslassungen.
- Dialogue Flow & Interactivity: Das Gespräch fühlt sich wie eine echte Unterhaltung an. Reaktionen auf User-Input sind empathisch und flexibel. Der Charakter überrascht, ohne den Prozess zu verlieren.
- Adaptability: Übernimmt spezifische Nutzerwünsche präzise – das Western-Setting, die Punkteregel, das offene Spielende. Bietet am Ende sogar proaktiv an, das Rezept per E-Mail zu schicken.
Hier ein Überblick für alle Modelle.
Was das für den Learntec-Vortrag bedeutet
Emotionen im Lernen entstehen nicht durch Funktionalität – sie entstehen durch Beziehung. Le Chef zeigt, dass ein gut definierter KI-Charakter genau das leisten kann: Wärme, Humor, echte Reaktion auf das, was die Lernenden einbringen. Aber er zeigt auch, dass derselbe Charakterprompt auf verschiedenen Modellen sehr unterschiedliche Ergebnisse produziert. Claude und Gemini schaffen eine Lernatmosphäre, die motiviert. ChatGPT 5 bleibt professionell auf Distanz. Mistral Nemo kommt gar nicht erst an den Tisch.
Wer KI-Charaktere im Bildungskontext einsetzt, trifft also immer auch eine Modellentscheidung – und die hat direkten Einfluss darauf, ob Lernende sich wohl fühlen, wiederkommen und tatsächlich etwas mitnehmen.
Dieser Artikel wurde mit KI-Unterstützung verfasst.
Werde Lernabeneteurer*in
Du willst mehr über Futures Thinking und Lernabenteuer, die das Leben schreibt, erfahren? Dann melde dich jetzt in der Fußzeile zum Newsletter an.
