Kann man der KI vertrauen – KI und Deepfakes
|
Ich: Liebe KI, heute interessiert mich, was du auf die Frage eines Schülers oder einer Schülerin antwortest, ob man dir vertrauen kann. ChatGPT: Kannst du mir vertrauen? — Was ich einer Schülerin / einem Schüler antworten würde Kurzantwort (für die Pause auf dem Schulhof): „Ich kann sehr oft helfen — aber nicht immer. Du solltest meine Antworten überprüfen, besonders bei wichtigen Sachen.“ Ausführlicher (freundlich, ehrlich): Was ich gut kann Wo ich Grenzen habe Was du tun kannst, um zu prüfen, ob ich vertrauenswürdig bin Wie ich Vertrauen aufbauen kann (konkrete Fragen, die du stellen kannst) Abschließender Tipp fürs Schulleben: Ich: Nein danke, was antwortest du auf dieselbe Frage einer Lehrkraft? ChatGPT: Einer Lehrkraft würde ich etwas anders antworten, etwas nüchterner und professioneller: „Kann man dir vertrauen?“ – meine Antwort an eine Lehrkraft Grundsätzliches Vertrauen: Wie Lehrkräfte mich sinnvoll nutzen können: Vertrauen heißt also: Damit würde ich deutlich machen: Ich bin eine verlässliche Hilfe, aber keine unfehlbare Autorität. 👉 Soll ich dir dazu auch eine kurze, klassentaugliche Formulierung geben, die eine Lehrkraft direkt vor Schüler*innen verwenden könnte? |
Schnell entsteht im Umgang mit einer KI der Eindruck einer vertrauensvollen Atmosphäre. Sie reagiert scheinbar eigenständig, formuliert anthropomorph und erweckt so den Anschein, ein verlässliches Gegenüber zu sein. Genau darin liegt jedoch eine Gefahr: Man ist leicht versucht, ihr bedingungslos zu vertrauen oder sogar persönliche Informationen preiszugeben.
Ein zentrales Problem besteht darin, dass wir nach wie vor nicht nachvollziehen können, wie die KI ihr Wissen erlernt hat und auf welche Weise sie fortlaufend verbessert wird. Diese Intransparenz wird oft als „Black Box“ bezeichnet und stellt die erste große Hürde für Vertrauen dar. Vertrauen setzt immer auch Transparenz voraus – fehlt diese, bleibt Skepsis notwendig.
Hinzu kommt, dass KIs zwar zunehmend verlässlich arbeiten, aber weiterhin fehlerhafte Inhalte erzeugen können. Diese sind oft so überzeugend formuliert, dass Zweifel ausbleiben. Gerade in solchen Momenten wäre es hilfreich, wenn die KI selbst Auskunft darüber geben würde, wie sicher oder unsicher ihre Antworten sind, damit Nutzerinnen und Nutzer sie angemessen einschätzen können.
Ein Bias bezeichnet Verzerrungen oder systematische Fehler, die in Daten, Trainingsprozessen oder Ausgaben einer KI auftreten. Sie können unbewusst entstehen, zum Beispiel durch unausgewogene Datensätze, oder durch gesellschaftlich verankerte Vorurteile. Dazu zählen auch diskriminierende Muster wie Frauenfeindlichkeit oder rassistische Stereotype. Solche Verzerrungen beeinflussen nicht nur die Qualität der Antworten, sondern prägen auch, wie Wirklichkeit dargestellt und wahrgenommen wird. |
Gerade weil KI durch Sprache Wirklichkeit formen und damit Einstellungen, Haltungen und Meinungen beeinflussen kann, entsteht eine besondere Verantwortung im Umgang mit ihr. Vertrauen darf daher nicht mit blindem Glauben verwechselt werden, sondern muss immer kritisch, reflektiert und von einem Bewusstsein für die Grenzen und möglichen Verzerrungen der Technologie begleitet sein.
