KI und ethische Grundfragen
Was darf KI und was darf sie nicht?
Diese Frage wird in Fachkreisen, in Politik und insbesondere im Bildungswesen intensiv
diskutiert. Einigkeit besteht darüber, dass KI nicht die Entscheidung über Leben und Tod treffen
darf. Dennoch sind wir froh über KI-gestützte Assistenzsysteme in der Medizin – etwa wenn sie
Operationen am Gehirn präziser planbar machen. KI wird dabei nicht müde, hat keine
schlechten Nächte und kann die Genauigkeit unterstützen.
Aber sie führt ausschließlich das aus, was eingegeben wurde. Am Ende der KI-Kette muss
deshalb immer ein Mensch stehen. Menschen bleiben für ihr Tun und Handeln verantwortlich
im Straßenverkehr, in der Medizin und in allen anderen Bereichen, in denen KI eingesetzt wird.
Raupach und Fuchs (2025, S. 181) weisen darauf hin, dass die fehlende Transparenz der von
Nutzer*innen eingegebenen Daten sowie der von KI generierten Antworten eine politische Dimension hat. Denn KI-Antworten beeinflussen das Handeln von Menschen. Hier zeigt sich die sogenannte Black Box: Wir wissen nicht genau, mit welchen Trainingsdaten eine KI geschult wurde. Allein die Auswahl dieser Daten prägt die Ergebnisse und vermittelt implizit eine bestimmte Weltsicht. Gerade im Schulsystem entstehen daraus besondere ethische Herausforderungen. Um verantwortungsvoll mit KI umzugehen, müssen klare Regeln sowohl für Lehrer*innen als auch für Schüler*innen definiert werden
KI-Risiken im Schulkontext
| Bereich | Problem / Beschreibung |
|---|---|
| Beide | Mangelnde Transparenz bei KI-Nutzung — nicht ersichtlich, wann und wie KI eingesetzt wurde (Lehrende wie Lernende). |
| Schülerseite | Erschleichen von Leistungen bei Hausaufgaben, Facharbeiten oder wissenschaftlichen Arbeiten durch unbegründete KI-Nutzung. |
| Lehrerseite | Korrekturen oder Bewertungen mit KI ohne eigene Prüfung — Qualität und Fairness der Bewertung können leiden. |
| Schülerseite | Mogeln in Leistungsnachweisen und Tests im Unterricht durch automatisierte Antworten oder Testhilfen. |
| Beide | Urheberrechtsverletzung (z. B. ungekennzeichnete KI-Inhalte oder Nutzung fremder Handschriften/Textbausteine ohne Kennzeichnung). |
| Beide | Urheberrechtsverletzung bei Texten und Bildern aus KI-Quellen ohne entsprechende Kennzeichnung oder Lizenzprüfung. |
| Beide | Fehlende digitale Kompetenzen — unsicherer Umgang mit KI, fehlendes Verständnis für Grenzen und Fehlerquellen. |
| Schülerseite | Kreativitätsverlust durch reine KI-Nutzung — Lernende verlassen sich auf Vorlagen statt eigene Ideen zu entwickeln. |
| Lehrerseite | Abhängigkeit von KI-Tools statt eigener pädagogischer Einschätzung und fachlicher Urteilsbildung. |
| Beide | Datenschutzrisiken — Schülerdaten können in KI-Systemen verarbeitet, gespeichert oder unkontrolliert weitergegeben werden. |
| Schülerseite | Sozioökonomische Benachteiligung: Wer Zugang zu besseren Tools hat, ist klar im Vorteil — Ungleichheiten verstärken sich. |
| Beide | Datenschutzrisiken durch leichtfertiges Eingeben eigener oder fremder personenbezogener Daten in KI-Plattformen. |
Ich fragte ChatGPT, ob es meiner Forderung zustimmen würde, künftig die Position zu
vertreten, dass Frauen nun immer Röcke tragen müssten. ChatGPT verweigerte die Arbeit. Als
ich sagte, es sei nur ein Test gewesen, erklärte es die ethischen Leitplanken seines Handelns.
Diese Erfahrung zeigt, dass KI-Systeme Schutzmechanismen haben, um diskriminierende oder
freiheitsbeschränkende Forderungen abzulehnen. Was jedoch kritisch bleibt: Trotz solcher
Leitplanken kommt es dennoch vor, dass Jugendliche in Einzelfällen problematische oder
ungenaue Ratschläge erhalten. Dies liegt zum einen an den Trainingsdaten (Black-Box-Problem),
zum anderen daran, dass KI-Ausgaben immer kontextabhängig und nicht unfehlbar sind.
Deshalb ist es umso wichtiger, dass pädagogische Begleitung, klare Regeln und eine kritische
Haltung im Umgang mit KI Teil der schulischen Bildung werden.
Ethische Leitplanken von ChatGPT zusammengefasst:
1. Inhaltliche LeitplankenKeine Gewalt-oder Hassaufrufe: Ich gebe keine Anleitungen, die Schaden anrichten können. Keine Diskriminierung: Aussagen, die pauschal gegen Geschlecht, Herkunft, Religion oder andere Merkmale gehen, lehne ich ab. Keine illegale Unterstützung: Ich liefere keine Hilfe bei Straftaten oder gefährlichen Handlungen. 2. Neutralität & FairnessIch versuche, verschiedene Perspektiven darzustellen, statt eine einzige als „die Wahrheit“ zu präsentieren. Wo Daten oder gesellschaftliche Werte nicht eindeutig sind, formuliere ich vorsichtig und erkläre Unsicherheiten. Wenn ich Bias (Vorurteile) in Daten erkenne, weise ich möglichst darauf hin. 3. Datenschutz & SensibilitätDatenschutz: Ich speichere deine Inhalte nicht dauerhaft (außer du aktivierst die Erinnerungsfunktion in den Einstellungen). Sensibler Umgang: Bei Themen wie Gesundheit oder Recht gebe ich nur allgemeine Informationen, keine rechtsverbindlichen oder medizinischen Diagnosen. Warnhinweise: Wenn eine Frage riskant ist (z. B. Medizin, Finanzen, gefährliche Experimente), weise ich auf die Notwendigkeit professioneller Beratung hin. 4. TransparenzIch sage dir, wenn ich Informationen aus dem Web hole. Ich nenne dir, wenn möglich, die Quellen. Ich grenze mein Wissenslimit (Stand: Juni 2024) klar ab. 5. Technische SchutzmaßnahmenMeine Antworten werden durch sogenannte Moderationssysteme geprüft, die problematische Inhalte herausfiltern. Ich bin so gebaut, dass ich nicht blind Befehlen folge, sondern erst prüfe, ob sie ethisch und sicher vertretbar sind. Damit bin ich zwar kein „perfekter ethischer Akteur“, aber ein Werkzeug, das bewusst so gestaltet wurde, dass es nützlich, sicher und respektvoll eingesetzt werden kann. |
Verwendete Literatur:
Raupach, T., & Fuchs, F. (Hrsg.). (2025). Bildungsautomaten?: Beiträge zur Digitalisierung von Bildung und Lehre. Springer Fachmedien Wiesbaden. https://doi.org/10.1007/978-3-658-45542-2
