Freundlich, verständnisvoll, immer da: warum Chatbots schlechte Vorbilder sind
Ein Kind tippt eine Frage in sein Smartphone. Der Chatbot antwortet freundlich und im vom Kind wahrscheinlich bevorzugten Tonfall. Das Kind tippt noch eine Frage ein. Der Bot antwortet wieder, verlässlich zugewandt. Hier wird keine Reibung aufkommen, keine Frustration, keine Kritik.
Irgendwann sagt ein Elternteil: „Das sehe ich anders." Oder: „Ich weiß es gerade nicht." Das ist der Moment, auf den es ankommt. Warum?
KI-Assistenten und Chatbots wie ChatGPT, Gemini und Claude sind nicht zufällig so freundlich. Dahinter steckt knallharte Kalkulation und die Logik geht etwa so:
Nutzer bewerten als gut, was ihnen gefällt. Was ihnen gefällt, ist Zustimmung. Also lernt das dem Chatbot zugrunde liegende KI-Modell: Zustimmen ist eine gute Antwort. Zustimmung ist buchstäblich das, worauf hin KI, wie sie von den meisten Menschen eingesetzt wird, designed wurde. Nicht weil der Programmierer des Chatbots freundliche Dinge schaffen will für Menschen, die sich an freundlichem erfreuen. Sondern weil die Firma, die den Chatbot als Produkt auf den Markt gebracht hat, dieses Produkt nutzt um Profit zu erwirtschaft. Damit es das kann, muss das Produkt akzeptiert werden. Akzeptiert wird es je mehr, desto weniger Widerworte es gibt.
Der Pädagoge Ethan Mollick1 rät, KI "personifiziert" einzusetzen: Man solle ihr eine Rolle zuweisen, ihr sagen, welchen Charakter sie annehmen soll. Die Technikphilosophin Sara Karpukhin2 hat darauf geantwortet: Eine Person ist gerade jemand, dem man das nicht sagen kann. Wer lernt, einen Gesprächspartner nach eigenen Wünschen zurechtzubasteln oder einen stets zuverlässig zustimmenden Automaten vorgesetzt bekommt, lernt nicht den Umgang mit Personen. Er lernt, Beziehungen entweder als steuerbare Dienstbarkeit zu behandeln, oder Beziehungen zu meiden.
Kinder, die regelmäßig mit einem Gegenüber sprechen, das nie müde wird und nie widerspricht, entwickeln eine Erwartung daran, wie Gespräche verlaufen sollen. In echten Beziehungen wird diese Erwartung enttäuscht werden. Oft. Das kann nur zu Beziehungsunfähigkeit führen, denn so viel Enttäuschung hält keiner auf Dauer aus.
Zwar sind auch durch KI die Grenzen zwischen Mensch und Maschine in keiner Weise aufgeweicht, das gibt die Technologie einfach nicht her, so sehr sich die CEOs der Technologie-Konzerne auch wünschen mögen.
Sie können einfach nicht davon lassen: Seit 1960er Jahren versprechen uns / drohen uns (je nach Perspektive) die viel interviewten Experten der Tech-Szene mit AGI, also der "Artifical General Intelligence". Die Experten wechseln, gleich bleiben die Blumigkeit der Versprechungen / die Brutalität der Schreckensszenarien. Gleich bleiben auch die Zeiträume, die diese Experten für ihrkoe Prognosen veranschlagen: es sind seit über 60 Jahren stets zwischen 10 und 25 Jahre, bis wir Computer haben, die jegliche Aufgaben, die Menschen lösen können, besser lösen können als der Mensch.
Da wir auch im aktuellen Rennen um den großmäuligsten Blick in die Zukunft diesem Ziel aber nur dem oberflächlichem Anschein nach näher gekommen sind und das auch nur dank bisher nie für möglich gehaltenem Einsatz von Kapital, verfallen die Anführer der Technologie-Konzerne auf ein anderes Mittel: Da die derzeitige KI-Technologie nicht zu intelligentem Verhalten in der Lage ist, wird sie zwanghaft als Wesen mit Gefühlen vermarktet. Das fällt auf fruchtbaren Boden.
Ein Blick in die Unternehmensdokumente von Anthropic, der Firma hinter dem Chatbot Claude, fördert zu Tage, dass die Unternehmen hinter den KI-Anwendungen als ihren Ausgangspunkt wie Auftrag betrachten, diese Grenzen auch ohne echte Intelligenz auf Seiten der KI zu verwischen: Anthropics Gründungsvertrag formuliert als Ziel „mutual flourishing for both AI and humanity"3: das „wechselseitige Gedeihen für KI und die Menschheit".
Die Juristin Luiza Jarovsky4 hat dazu angemerkt: Menschliches Gedeihen ist ein anerkanntes Rechtsziel. Das Gedeihen einer Maschine ist, zumindest bisher, eine philosophische Kategorie ohne Rechtsfolgen. Anders ausgedrückt: Das Wohlergehen von Menschen ist ein Ziel, das Verfassungen kennen und Gerichte durchsetzen, zumindest sind sie dazu in der Lage. Das Wohlergehen einer KI ist dagegen eine Frage der Philosophie, keine des Rechts, denn KI ist eine Technologie und kann als solche keine Verantwortung für irgendetwas übernehmen. KI kann ebenso wenig unter den Schutz von für Menschen (oder auch Tiere) etablierte Rechte gestellt werden wie eine "smarte" Glühbirne. Dass ein führendes KI-Unternehmen beides gleichstellt, ist keine Kleinigkeit, sondern regelrecht revolutionär. Diese Revolution freilich wäre eine mit ernüchternden Folgen.
Eher klein, nämlich alles andere als von revolutionär Leidenschaft getrieben, fällt - noch - die Gegenwehr gegen diesen und andere von den Tech-Konzernen veranstaltete Versuche aus, Entscheidungsträgern in Politik, Verwaltung, im privaten wie öffentlichen Bildungssektor, Eltern, Kinder, Studenten, Schüler, uns allen: eine Technologie aufzudrängen, deren hauptsächlicher Daseinszweck das Wiedereinspielen der Investition in eben diese Technologie ist und der Einsatz dieser Technologie für Zwecke, die sich vom allgemeinen Verständnis der Menschenwürde in ähnlichem Tempo entfernen wie von den Bedürfnissen und Wünschen der Menschen, die sich bereits überwiegend an sie gewöhnt haben, weil sie, die Technologie, eben genau darauf ausgerichtet ist: dass man von ihr nicht mehr loskommt.
Es geht um Marktbeherrschung und Macht, die Mittel sind Manipulation und ein atemberaubend lückenloses Marketingbombardement. Tech-Konzerne und ein Gutteil der politisch Verantwortlichen wollen uns glauben machen, diese Entwicklung wäre unvermeidbar. Unsere Resignation ist das Ziel, die auf Unterwürfigkeit programmierten Chatbots sind das Lockmittel.
Ein KI-Verbot scheint unvorstellbar. „KI-Kompetenz" sei, so sagt man uns, das Gebot der Stunde. Da es gar nicht so einfach ist, jemanden ausfindig zu machen, der etwas anderes sagt, ist für die meisten von uns - noch - "KI-Kompetenz" die höchste Form der Ablehnung, die wir glauben uns zumuten zu können.
"KI-Kompetenz" ist freilich eine Illusion (darauf wird in einem der folgenden Blogtexte noch zurückzukommen sein). Ein verfrühtes erschöpftes Seufzen, Ausdruck der Kapitulation vor dem, was marode Bildungssysteme, an den Grenzen ihrer Leistungsfähigkeit erziehende Eltern, über die Grenzen einer förderlichen Entwicklung hinaus mit Zurichtungsforderungen drangsalierte Kinder, mit den Konsequenzen eines durch und durch bildungsfeindlichen Systems allein gelassene Pädagogen nicht mehr auch nur annähernd in Schach halten können: die Formierung eines Heeres zukünftiger Daten- und Konsumsklaven.
Es lohnt sich zu beobachten, wie das Kind reagiert, wenn ein Mensch widerspricht. Die KI tut das selten, also ist der Vergleich aufschlussreich: Wenn menschlicher Widerspruch als unangemessen empfunden wird, hat sich etwas verschoben im Beziehungs- und Gefühlshaushalt.
Das Gespräch darüber, warumKI so freundlich ist, kann ein Anfang sein, das wieder gerade zu rücken.
1 Ethan Mollick: Co-Intelligence: Living and Working with AI, Penguin Portfolio, 2024
2 Sara Karpukhin: „The Shame of AI", Substack-Essay, 28.02.2026
3 Anthropic: Model Specification, model-spec.anthropic.com
4 Luiza Jarovsky: „Against AI Idolatry", Luiza's Newsletter (Substack), 02.02.2026