7 Studien zum Thema "KI und Lernen", die jeder Lehrer kennen sollte

7 Studien zum Thema "KI und Lernen", die jeder Lehrer kennen sollte
Photo by Kari Shea / Unsplash
  1. Standard-ChatGPT schadet dem Lernen nachweisbar (KI-Tutoren mit Leitplanken helfen potentiell, ein wenig)
    Bastani et al. (PNAS 2025, ~1.000 Schülerinnen, Mathematik, vorregistriert)

    Wer Standard-ChatGPT als reine Antwortmaschine nutzt, erzielt in der Übungsphase zwar 48% bessere Ergebnisse. Aber bei der entscheidenden, ungestützten Prüfung danach brechen die Leistungen um 17% ein. Die KI funktioniert als intellektuelle Krücke, nicht als Lernhilfe. Schüler, die stattdessen einen streng konfigurierten KI-Tutor nutzen, der sokratische Fragen stellt und Antworten verweigert, zeign diesen Leistungsabfall nicht.Die kritische Einordnung: Kürzlich sorftedas Zuürckziehen einer einflussreichen Meta-Analyse von Springer Nature (die ChatGPT pauschal große Lernvorteile bescheinigt) für Aufsehen, weil dort inkompatible und methodisch zweifelhafte Mini-Studien zusammengeworfen wurden. Die Bastani-Studie hingegen ist ein vorregistrierter Feldversuch und liefert harte Evidenz, die viele angebliche Vorteile von EdTech als Marketing entlarven.Das Problem für Schulen: Im Alltag dominieren genau jene unkonfigurierten Consumer-Tools (ChatGPT, Gemini, Claude, Perplexity, Schlimmeres), vor deren leistungshemmenden Effekten diese diese Studie ausdrücklich warnt.
  2. Das Gehirn arbeitet bei passiver KI-Nutzung messbar weniger
    Kosmyna et al. (MIT Media Lab, EEG-Studie, 2025, N=54, Preprint)

    ChatGPT-Nutzer zeigen bis zu 55% schwächere neurale Konnektivität im Vergleich zu Schülerinnen, die ohne KI-Hilfe schreiben. Auch nach dem Wechsel zur ungestützten Arbeit bleibt die Gehirnaktivität reduziert, was die Autorinnen "cognitive debt" nennen. Der Gegenbefund ist relevant: Wer KI aktiv dirigiert (statt passiv empfängt) zeigte diesen Effekt nicht. (Einschränkung: N=54, Preprint, methodische Kritik existiert.)
  3. Achtzig Prozent folgen falschen KI-Antworten
    Shaw & Nave (Wharton, SSRN Working Paper 2026, N=1.372, drei vorregistrierte Experimente)

    Wenn KI falsche Antworten liefert, folgen ihr etwa 80% der Teilnehmenden. Das tun sie auch dann, wenn sie die richtige Antwort ursprünglich wissen. Wer KI besonders vertraut, hat ein 3,5-faches Risiko, fehlerhafte Outputs zu übernehmen. Die Autorinnen sprechen von "cognitive surrender". Praxisrelevanz: Schülerinnen überprüfen KI-Outputs seltener als angenommen, hauptsächlich wegen automation bias.
  4. Kritisches Denken ist nicht transferierbar und "KI-Kompetenz" ohne Fachwissen ist kein
    Dan Willingham (American Educator 2007, Meta-Review)
    Kritisches Denken ist keine allgemeine Fähigkeit, die man einmal lernt und überall anwendet. Es ist fachgebunden. "You can't connect dots you don't have." Konsequenz: KI-kritisch in Geschichte zu denken erfordert geschichtliches Wissen. Das zugrundliege Problem würde auch durch ein "KI-Kompetenz"-Fach nicht angerührt. Lernstile scheitern aus demselben Grund (Pashler et al. 2008): Der Glaube an transferierbare Lernmethoden ohne Domänenwissen ist ein hartnäckiger Bildungsmythos.
  5. Die wirksamsten Lerntechniken werden durch KI-Nutzung systematisch verhindert
    Dunlosky et al. (Psychoaogical Science in the Public Interest, 2013)

    Meta-Analyse von 10 Lerntechniken. Die zwei wirksamsten - Retrieval Practice und Distributed Practice - erfordern, dass Schülerinnen Antworten aus dem eigenen Gedächtnis abrufen. Genau das überspringt eine KI, die sofort antwortet. Entsprechend ist der Bastani-Befund keine Überraschung, sondern eine Vorhersage der Grundlagenforschung. Bjork (1992): Das produktive Vergessen stärkt Gedächtnisspuren und KI verhindert diesen Mechanismus.
  6. Scaffolding als mechanische Regel funktioniert nicht (und automatisiertes KI-Scaffolding erst recht nicht)
    Smit, de Kleijn, Wicherts & van de Pol (Journal of Educational Psychology, 2025, N=285, 26 Standorte, vorregistriert)

    Die erste Replikation des ursprünglichen Scaffolding-Experiments von Wood, Bruner & Ross (1978) nach 47 Jahren. Ergebnis: Rein regelbasiertes Scaffolding ("mehr Hilfe nach Fehler, weniger nach Erfolg") verbessert Lernergebnisse nicht. Hendrick (IAE/UNESCO 2026): Scaffolding braucht professionelles Urteil, keine Formel. Für KI-Tutoren, die automatisiertes Scaffolding versprechen, ist das ein grundlegendes Problem
  7. Deutsche Befunde: KI entlastet Lehrkräfte, verbessert aber nicht das Lernen der Schülerinnen
    Schulbarometer 2025 (Robert Bosch Stiftung)

    56% der Lehrkräfte nutzen KI für Unterrichtsplanung, 58% für Aufgabenerstellung. Aber: Nur 28% setzen KI für individualisierte Lernangebote ein, nur 6% für formatives Feedback. BMBF-Review 2025: Positive Lerneffekte sind für Intelligente Tutoringsysteme (ITS) belegt, also nicht für generative KI im Allgemeinen! HFD-Meta-Study 2026 (15 deutsche Erhebungen): KI-Nutzung steigt, konzeptionelles Lernen ist in keiner Erhebung nachweisbar besser geworden

KI, Datenschutz und Pädagogik abonnieren

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Abonnieren