Die Integration von Künstlicher Intelligenz (KI) in Schulen und Kindergärten wirft vielfältige Fragen auf – von technischen Möglichkeiten über pädagogische Relevanz bis hin zu rechtlichen Grenzen. Im Folgenden beantworten wir zehn zentrale Aussagen zur KI-Nutzung im Unterricht und erklären, welche davon true oder false sind. Dabei legen wir besonderen Fokus auf Praxis, Ethik und Recht.
🎯 1. Sprachmodelle „verstehen“ Texte nicht – sie setzen nur Wahrscheinlichkeiten um
Aussage:
„Ein Sprachmodell sagt voraus, welche Wörter als nächstens kommen könnten, anstatt die Inhalte wirklich zu verstehen.“
Bewertung: WAHR
💡 Warum stimmt das?
- Grundprinzip: KI-Systeme wie GPT oder BERT basieren auf statistischer Mustererkennung. Sie analysieren Trainingstexte (, z. B. Bücher, Internetseiten) und lernen, wie Wörter in Beziehung stehen.
- Kein Bewusstsein: Sie haben kein echtes Verständnis für Bedeutung, Emotionen oder Kontext. Sie kombinieren Wörter rein mathematisch – z. B. über Embeddings und Aufmerksamkeitsmechanismen.
- Beispiel: Wenn Sie „Der Baum wurde vom Wind …“ eingeben, schlägt die KI Wörter wie „umgeworfen“ oder „abgebrochen“ vor. Diese Vorschläge basieren nur auf Häufigkeiten im Trainingsdatensatz, nicht auf physischem Wissen über Windstürme.
📌 Fazit: Sprachmodelle sind statistische Korrelationsmaschinen – sie imitieren Verstehen, besitzen aber keine Semantik.
📊 2. Automatische Notenvergabe durch KI ist nicht zuverlässig
Aussage:
„Ich kann durch die KI automatisch Noten vergeben lassen, sofern ich die korrekte Funktionsweise des Systems zuvor mit einem Mustertext überprüft habe.“
Bewertung: FALSCH
⚠️ Risiken und Grenzen:
| Problem | Erklärung |
|---|---|
| Fehlendes tiefes Verstehen | KI bewertet nur oberflächliche Muster, nicht Argumentationsstruktur, Kreativität oder individuellen Lernzusammenhang. |
| Überanpassung (Overfitting) | Eine Prüfung mit einem Mustertext führt dazu, dass das System nur diesen Fall optimiert – bei anderen Aufgaben versagt es. |
| Subjektivität | Noten hängen oft von lehrerspezifischen Kriterien, Kontext oder individuellen Zielen ab – KI erfasst das nicht. |
| Bias im Trainingsdatensatz | Ungerechte Bewertungen bei unterrepräsentierten Gruppen (z. B. Minderheiten, DaZ-Schüler). |
✅ Empfehlung: KI kann Unterstützung bei Strukturanalysen oder Fehlererkennung geben, die endgültige Benotung bleibt jedoch Aufgabe der Lehrkraft.
📜 3. Rechtliche und pädagogische Rahmenbedingungen für KI im Unterricht
Frage: Welche rechtlichen und pädagogischen Regeln gelten?
Richtige Antworten: a, b, c
| Punkt | Entscheidung | Begründung |
|---|---|---|
| a. Urheberrecht | ✅ | Nutzung von Unterrichtsmaterialien (z. B. Schulbücher) nur mit Nutzungsrechten. |
| b. Datenschutz | ✅ | Keine persönlichen Daten (Namen, Adressen) von Schülern in KI-Systeme eingeben – es sei denn, es liegt Einwilligung der Erziehungsberechtigten vor. |
| c. Notenvergabe | ✅ | Automatisierte Systeme, die direkt in Noten einfließen, bedürfen der Genehmigung durch die Schulaufsichtsbehörde. Nur Übungsprogramme sind ausgenommen. |
| d. Delegierte Notenvergabe | ❌ | Vollständige Delegation der Notenvergabe an KI ist auch mit Eltern-Einwilligung unzulässig. |
📌 Zusammenfassung:
- Urheberrecht: Nur mit Lizenz nutzen.
- Datenschutz: Keine Klarnamen ohne Einwilligung.
- Noten: KI nur unterstützend, finale Bewertung durch Lehrkraft.
✏️ 4. KI zur Korrektur von Schülertexten – muss ich die Vorschläge prüfen?
Aussage:
„Wenn ich ein generatives KI-System zur Korrektur von Schülertexten nutze, muss ich die Korrekturvorschläge der KI immer selbst prüfen und gegebenenfalls anpassen.“
Bewertung: WAHR
Warum Prüfung unverzichtbar ist:
- Pädagogische Verantwortung: Lehrkräfte tragen die volle Verantwortung für Bildung und Bewertung.
- Fehleranfälligkeit der KI:
- Voreingenommenheiten im Trainingsdatensatz → ungerechte Rückmeldungen.
- Fehlinterpretationen bei kreativem Schreiben oder regionalen Spracheigenheiten.
- Didaktischer Nutzen: Nur die Lehrkraft kann individuelle Lernziele, Entwicklungsstufe und kontextuelle Bedeutung berücksichtigen.
🛠️ Praktische Anwendung:
- KI als Ergänzung für Grammatikkorrekturen oder Strukturhinweise.
- Menschliche Qualitätssicherung bleibt Pflicht.
🔮 5. Kann KI die Zukunft exakt vorhersagen?
Aussage:
„KI-Systeme können die Zukunft exakt vorhersagen, wenn sie mit genügend Daten gefüttert werden.“
Bewertung: FALSCH
Grenzen der Vorhersage:
| Grund | Erklärung |
|---|---|
| Chaos und Unbestimmtheit | Viele Systeme (z. B. Wetter, Finanzmärkte) sind chaotisch – kleine Änderungen führen zu völlig anderen Ergebnissen. |
| Unbekannte Unbekanntheit | Neuartige Ereignisse (z. B. Naturkatastrophen, technologische Durchbrüche) sind im Trainingsdatensatz nicht enthalten. |
| Datenqualität vs. -menge | Bias, Lücken oder fehlender Kontext führen zu falschen Vorhersagen – auch bei „genügend“ Daten. |
| Physische Grenzen | Heisenbergsche Unschärfeprincip (Quantenphysik) macht exakte Vorhersagen unmöglich. |
📉 Beispiele:
- Wettervorhersagen: Nur probabilistisch möglich – nie exakt.
- Finanzkrisen: KI ignoriert oft plötzliche Umbrüche.
🎓 6. Diagnostische Lernsysteme – zwingende Schritte für Lehrkräfte
Frage: Welche Schritte sind zwingend einzuhalten?
Richtige Antworten: a und b
| Option | Entscheidung | Begründung |
|---|---|---|
| a. Transparenz | ✅ | Schüler:innen müssen Zweck und Funktionsweise des KI-Tools erklärt bekommen – gemäß DSGVO und Schulrecht. |
| b. Pädagogische Begleitung | ✅ | Lehrkräfte müssen KI-Ergebnisse prüfen, didaktisch einordnen und bei Fehlern eingreifen. |
| c. Keine Zeugnisauswirkung | ❌ | Förderbedarf kann in Noten einfließen – solange die Lehrkraft die Entscheidung trifft. |
🎯 Zusammenfassung:
- Information über KI-Einsatz.
- Kritische Prüfung der KI-Auswertungen.
🌐 7. Pseudonymisierte Daten von Schülern in KI-Systemen
Aussage:
„Schüler:innen dürfen pseudonymisierte Daten (z. B. Kürzel) in ein KI-System eingeben, solange keine Rückschlüsse auf ihre Identität gezogen werden können.“
Bewertung: FALSCH
WarumPseudonymisierung nicht ausreicht:
- DSGVO-Definition: Pseudonymisierte Daten sind weiterhin personenbezogene Daten, wenn die Identität mit vertretbaren Mitteln ermittelt werden kann (z. B. über interne Zuordnungstabellen).
- Praktische Risiken:
- Zuordnung möglich → Verstoß gegen DSGVO.
- Kein rechtssicheres Vorgehen ohne Einwilligung der Erziehungsberechtigten.
- Anforderungen:
- Trennen Sie den Schlüssel zur Rückumsetzung von den Daten.
- Sichern Sie Datensicherheit (Verschlüsselung, Zugriffsrechte).
✅ Richtiges Vorgehen:
„Nur mit Einwilligung der Eltern und garantiert rückschlüssfreie Pseudonymisierung darf KI genutzt werden.“
🧩 8. KI kann sinnvoll Unterrichtsmaterialien generieren und anpassen
Frage: Welche Arbeiten kann KI unterstützen?
Richtige Antworten: a, b, c
| Aufgabe | Bewertung | Begründung |
|---|---|---|
| a. Aufgaben/Unterrichtspläne | ✅ | KI generiert Quizfragen, Fallbeispiele oder differenzierte Materialien. |
| b. Audiomaterial/Video | ✅ | KI wandelt Texte in Podcasts oder interaktive Videos um (z. B. Text-to-Speech). |
| c. Sprachniveau-Anpassung | ✅ | KI vereinfacht Texte für DaZ-Lernende oder passt Sprachebene an. |
⚠️ Hinweis: Lehrkräfte bleiben für Qualitätssicherung, didaktische Einbettung und rechtliche Konformität verantwortlich.
📚 9. KI zur Anpassung des Sprachniveaus für DaZ-Lernende
Aussage:
„Ich kann mit einem generativen KI-System das Sprachniveau von Unterrichtsmaterial an die Zielgruppe anpassen, z. B. für DaZ-Lernende.“
Bewertung: WAHR
Praxisbeispiele:
- Vereinfachung von Vokabeln: Ersetzen von „komplexe Strukturen“ durch „schwierige Zusammenhänge“.
- Umgliederung von Sätzen: Lange Sätze aufbrechen in kurze, klare Aussagen.
- Kulturelle Anpassung: Vermeidung von idiomatischen Ausdrücken, die für DaZ-Schüler schwer nachvollziehbar sind.
Wichtiger Hinweis: KI-Ausgaben kritisch prüfen – sie können falsche Vereinfachungen oder inhaltliche Fehler enthalten.
⚖️ 10. KI kann gesellschaftliche Vorurteile verstärken
Aussage:
„KI-Systeme können ungewollt gesellschaftliche Vorurteile verstärken, wenn Trainingsdaten einseitig sind.“
Bewertung: WAHR
Bestätigte Studien:
- Gesichtserkennung: Systemererkennen Hautfarben von dunkler Haut schlechter als helle Haut (Buolamwini & Gebru, 2018).
- Texteanalyse: Affrikanisch-amerikanische Sprache wird oft als negativ eingestuft.
- Bewerbungsverfahren: Historisch männlich dominierte Berufe werden von KI systematisch weniger unterstützt.
Countermaßnahmen:
- Diverse Trainingsdatensätze nutzen.
- Bias-Erkennungs-Tools einsetzen.
- Ethische KI-Richtlinien befolgen (z. B. EU-Afrika-KI-Charter).
✨ Fazit: KI im Bildungsbereich – Chance mit Verantwortung
| Aspekt | KI-Chance | KI-Herausforderung |
|---|---|---|
| Effizienz | Schnell generierte Materialien, personalisierte Förderung. | Vorurteile in Trainingsdaten → Diskriminierung. |
| Individuelles Lernen | Anpassung von Sprachniveau, differenzierte Aufgaben. | Fehlvorhersagen bei komplexen Lernzielen. |
| Datenschutz | Pseudonymisierung kann Anonymität fördern. | Personendaten ohne Einwilligung sind rechtswidrig. |
| Notenvergabe | Unterstützende Fehleranalyse. | Endgültige Benotung bleibt Aufgabe der Lehrkraft. |
🔑 Handlungsempfehlungen für Lehrkräfte:
- Transparenz: Schüler:innen über KI-Einsatz informieren.
- Qualitätssicherung: Jede KI-Ausgabe kritisch prüfen.
- Rechtssicherheit: Einwilligungen einholen, Daten schützen.
- Ethik: Vorurteile aktiv erkennen und Gegenmaßnahmen ergreifen.
KI ist kein Ersatz für gute Pädagogik – sondern ein Werkzeug, das mit Verantwortung, Wissen und Menschenverstand kombiniert werden muss.