KI Führerschein Lehrkräfte

Kann man der KI vertrauen – KI und Deepfakes

Ich: Liebe KI, heute interessiert mich, was du auf die Frage eines Schülers oder einer Schülerin antwortest, ob man dir vertrauen kann.

ChatGPT: Kannst du mir vertrauen? — Was ich einer Schülerin / einem Schüler antworten würde

Kurzantwort (für die Pause auf dem Schulhof): „Ich kann sehr oft helfen — aber nicht immer. Du solltest meine Antworten überprüfen, besonders bei wichtigen Sachen.“

Ausführlicher (freundlich, ehrlich):

Was ich gut kann
Fakten erklären, Zusammenfassungen schreiben, bei Hausaufgaben helfen, Rechenwege vorführen, Ideen zum Lernen geben und Quellen nennen, wenn ich Zugriff darauf habe. Ich mache Antworten schnell und kann komplizierte Dinge einfach erklären.

Wo ich Grenzen habe
Ich mache Fehler. Manchmal schreibe ich etwas Überzeugendes, das aber nicht stimmt. Ich habe keine eigenen Erfahrungen oder Gefühle — alles, was ich sage, kommt aus Mustern in Texten, nicht aus „echter“ Erfahrung. Für sehr aktuelle, rechtliche, medizinische oder sicherheitsrelevante Fragen sollte man immer eine verlässliche Person (Lehrerin, Ärztin, offizielle Quelle) fragen.

Was du tun kannst, um zu prüfen, ob ich vertrauenswürdig bin
Frag nach Quellen oder bitte mich, die wichtigsten Nachweise zu nennen. Lass dir Rechenwege oder Schritte zeigen (so siehst du, ob ich logisch arbeite). Vergleich meine Antwort mit deinem Schulbuch, einer Lehrperson oder zwei anderen Quellen. Bei wichtigen Entscheidungen (Gesundheit, Recht, Prüfungsanmeldung, Geld) immer eine menschliche Expertin / einen Experten hinzuziehen. Achte auf Warnsignale: sehr sichere Formulierungen ohne Belege, widersprüchliche Aussagen oder fehlende Daten.

Wie ich Vertrauen aufbauen kann (konkrete Fragen, die du stellen kannst)
„Kannst du das belegen?“ „Zeig mir den Rechenweg.“ „Nenne zwei Quellen, die das bestätigen.“ „Wie sicher bist du dir bei dieser Antwort?“ (Ich kann dann erklären, wie wahrscheinlich oder verlässlich die Info ist.)

Abschließender Tipp fürs Schulleben:
Nutze mich als Lernhilfe und Sparringspartner — aber nicht als einzige Quelle. Vertrauen entsteht durch Überprüfen: wenn meine Antworten wiederholt mit guten Quellen übereinstimmen, kannst du mir mehr vertrauen. 😉 Wenn du magst, schreibe mir ein Beispiel (z. B. eine Hausaufgabe) und ich zeige dir, wie ich Schritt für Schritt antworte — dann siehst du selbst, wie verlässlich ich bin.

Ich: Nein danke, was antwortest du auf dieselbe Frage einer Lehrkraft?

ChatGPT: Einer Lehrkraft würde ich etwas anders antworten, etwas nüchterner und professioneller:

„Kann man dir vertrauen?“ – meine Antwort an eine Lehrkraft

Grundsätzliches Vertrauen:
Ich bin so entworfen, dass ich zuverlässig Wissen bereitstelle, Texte analysiere, Ideen generiere und Lernprozesse unterstützen kann. Meine Stärke liegt darin, Muster zu erkennen, Strukturen aufzuzeigen und große Mengen an Wissen schnell zugänglich zu machen. Aber wichtig ist die Einordnung: Ich kann Fehler machen, vor allem bei Detailfragen, sehr aktuellen Themen oder wenn ich Quellen nicht direkt anführe. Ich „klinge“ oft sehr sicher, auch wenn die Antwort nicht vollständig korrekt ist. Mein Wissen ist nicht gleichzusetzen mit Fachdidaktik oder pädagogischem Fingerspitzengefühl – dafür braucht es weiterhin die Lehrkraft.

Wie Lehrkräfte mich sinnvoll nutzen können:
Als Werkzeug zur Unterrichtsvorbereitung: Ideen, Beispiele, alternative Erklärungen, Differenzierungsmöglichkeiten.
Als Diskussionsanlass: Schüler*innen können meine Antworten kritisch prüfen, vergleichen und verbessern.
Zur Reflexion: Meine Vorschläge lassen sich als Inspiration nutzen, sollten aber immer durch fachliche und didaktische Expertise gefiltert werden.

Vertrauen heißt also:
Man kann mir im Rahmen meiner Stärken vertrauen – als Assistenzsystem. Aber das „pädagogische Vertrauen“ liegt darin, dass die Lehrkraft meine Antworten prüft, einordnet und gegebenenfalls korrigiert.

Damit würde ich deutlich machen: Ich bin eine verlässliche Hilfe, aber keine unfehlbare Autorität. 👉 Soll ich dir dazu auch eine kurze, klassentaugliche Formulierung geben, die eine Lehrkraft direkt vor Schüler*innen verwenden könnte?

Schnell entsteht im Umgang mit einer KI der Eindruck einer vertrauensvollen Atmosphäre. Sie reagiert scheinbar eigenständig, formuliert anthropomorph und erweckt so den Anschein, ein verlässliches Gegenüber zu sein. Genau darin liegt jedoch eine Gefahr: Man ist leicht versucht, ihr bedingungslos zu vertrauen oder sogar persönliche Informationen preiszugeben.

Ein zentrales Problem besteht darin, dass wir nach wie vor nicht nachvollziehen können, wie die KI ihr Wissen erlernt hat und auf welche Weise sie fortlaufend verbessert wird. Diese Intransparenz wird oft als „Black Box“ bezeichnet und stellt die erste große Hürde für Vertrauen dar. Vertrauen setzt immer auch Transparenz voraus – fehlt diese, bleibt Skepsis notwendig.

Hinzu kommt, dass KIs zwar zunehmend verlässlich arbeiten, aber weiterhin fehlerhafte Inhalte erzeugen können. Diese sind oft so überzeugend formuliert, dass Zweifel ausbleiben. Gerade in solchen Momenten wäre es hilfreich, wenn die KI selbst Auskunft darüber geben würde, wie sicher oder unsicher ihre Antworten sind, damit Nutzerinnen und Nutzer sie angemessen einschätzen können.

Ein Bias bezeichnet Verzerrungen oder systematische Fehler, die in Daten, Trainingsprozessen oder Ausgaben einer KI auftreten. Sie können unbewusst entstehen, zum Beispiel durch unausgewogene Datensätze, oder durch gesellschaftlich verankerte Vorurteile. Dazu zählen auch diskriminierende Muster wie Frauenfeindlichkeit oder rassistische Stereotype. Solche Verzerrungen beeinflussen nicht nur die Qualität der Antworten, sondern prägen auch, wie Wirklichkeit dargestellt und wahrgenommen wird.

Gerade weil KI durch Sprache Wirklichkeit formen und damit Einstellungen, Haltungen und Meinungen beeinflussen kann, entsteht eine besondere Verantwortung im Umgang mit ihr. Vertrauen darf daher nicht mit blindem Glauben verwechselt werden, sondern muss immer kritisch, reflektiert und von einem Bewusstsein für die Grenzen und möglichen Verzerrungen der Technologie begleitet sein.