7 Studien zum Thema "KI und Lernen", die jeder Lehrer kennen sollte
- Standard-ChatGPT schadet dem Lernen nachweisbar (KI-Tutoren mit Leitplanken helfen potentiell, ein wenig)
Bastani et al. (PNAS 2025, ~1.000 Schülerinnen, Mathematik, vorregistriert)
Wer Standard-ChatGPT als reine Antwortmaschine nutzt, erzielt in der Übungsphase zwar 48% bessere Ergebnisse. Aber bei der entscheidenden, ungestützten Prüfung danach brechen die Leistungen um 17% ein. Die KI funktioniert als intellektuelle Krücke, nicht als Lernhilfe. Schüler, die stattdessen einen streng konfigurierten KI-Tutor nutzen, der sokratische Fragen stellt und Antworten verweigert, zeign diesen Leistungsabfall nicht.Die kritische Einordnung: Kürzlich sorftedas Zuürckziehen einer einflussreichen Meta-Analyse von Springer Nature (die ChatGPT pauschal große Lernvorteile bescheinigt) für Aufsehen, weil dort inkompatible und methodisch zweifelhafte Mini-Studien zusammengeworfen wurden. Die Bastani-Studie hingegen ist ein vorregistrierter Feldversuch und liefert harte Evidenz, die viele angebliche Vorteile von EdTech als Marketing entlarven.Das Problem für Schulen: Im Alltag dominieren genau jene unkonfigurierten Consumer-Tools (ChatGPT, Gemini, Claude, Perplexity, Schlimmeres), vor deren leistungshemmenden Effekten diese diese Studie ausdrücklich warnt. - Das Gehirn arbeitet bei passiver KI-Nutzung messbar weniger
Kosmyna et al. (MIT Media Lab, EEG-Studie, 2025, N=54, Preprint)
ChatGPT-Nutzer zeigen bis zu 55% schwächere neurale Konnektivität im Vergleich zu Schülerinnen, die ohne KI-Hilfe schreiben. Auch nach dem Wechsel zur ungestützten Arbeit bleibt die Gehirnaktivität reduziert, was die Autorinnen "cognitive debt" nennen. Der Gegenbefund ist relevant: Wer KI aktiv dirigiert (statt passiv empfängt) zeigte diesen Effekt nicht. (Einschränkung: N=54, Preprint, methodische Kritik existiert.) - Achtzig Prozent folgen falschen KI-Antworten
Shaw & Nave (Wharton, SSRN Working Paper 2026, N=1.372, drei vorregistrierte Experimente)
Wenn KI falsche Antworten liefert, folgen ihr etwa 80% der Teilnehmenden. Das tun sie auch dann, wenn sie die richtige Antwort ursprünglich wissen. Wer KI besonders vertraut, hat ein 3,5-faches Risiko, fehlerhafte Outputs zu übernehmen. Die Autorinnen sprechen von "cognitive surrender". Praxisrelevanz: Schülerinnen überprüfen KI-Outputs seltener als angenommen, hauptsächlich wegen automation bias. - Kritisches Denken ist nicht transferierbar und "KI-Kompetenz" ohne Fachwissen ist kein
Dan Willingham (American Educator 2007, Meta-Review)
Kritisches Denken ist keine allgemeine Fähigkeit, die man einmal lernt und überall anwendet. Es ist fachgebunden. "You can't connect dots you don't have." Konsequenz: KI-kritisch in Geschichte zu denken erfordert geschichtliches Wissen. Das zugrundliege Problem würde auch durch ein "KI-Kompetenz"-Fach nicht angerührt. Lernstile scheitern aus demselben Grund (Pashler et al. 2008): Der Glaube an transferierbare Lernmethoden ohne Domänenwissen ist ein hartnäckiger Bildungsmythos. - Die wirksamsten Lerntechniken werden durch KI-Nutzung systematisch verhindert
Dunlosky et al. (Psychoaogical Science in the Public Interest, 2013)
Meta-Analyse von 10 Lerntechniken. Die zwei wirksamsten - Retrieval Practice und Distributed Practice - erfordern, dass Schülerinnen Antworten aus dem eigenen Gedächtnis abrufen. Genau das überspringt eine KI, die sofort antwortet. Entsprechend ist der Bastani-Befund keine Überraschung, sondern eine Vorhersage der Grundlagenforschung. Bjork (1992): Das produktive Vergessen stärkt Gedächtnisspuren und KI verhindert diesen Mechanismus. - Scaffolding als mechanische Regel funktioniert nicht (und automatisiertes KI-Scaffolding erst recht nicht)
Smit, de Kleijn, Wicherts & van de Pol (Journal of Educational Psychology, 2025, N=285, 26 Standorte, vorregistriert)
Die erste Replikation des ursprünglichen Scaffolding-Experiments von Wood, Bruner & Ross (1978) nach 47 Jahren. Ergebnis: Rein regelbasiertes Scaffolding ("mehr Hilfe nach Fehler, weniger nach Erfolg") verbessert Lernergebnisse nicht. Hendrick (IAE/UNESCO 2026): Scaffolding braucht professionelles Urteil, keine Formel. Für KI-Tutoren, die automatisiertes Scaffolding versprechen, ist das ein grundlegendes Problem - Deutsche Befunde: KI entlastet Lehrkräfte, verbessert aber nicht das Lernen der Schülerinnen
Schulbarometer 2025 (Robert Bosch Stiftung)
56% der Lehrkräfte nutzen KI für Unterrichtsplanung, 58% für Aufgabenerstellung. Aber: Nur 28% setzen KI für individualisierte Lernangebote ein, nur 6% für formatives Feedback. BMBF-Review 2025: Positive Lerneffekte sind für Intelligente Tutoringsysteme (ITS) belegt, also nicht für generative KI im Allgemeinen! HFD-Meta-Study 2026 (15 deutsche Erhebungen): KI-Nutzung steigt, konzeptionelles Lernen ist in keiner Erhebung nachweisbar besser geworden