Die Suche nach Orientierung in Glaubensfragen ist ein zutiefst privater Prozess. Doch genau hier setzt eine neue, technologische Gefahr an: Die gezielte Instrumentalisierung von Large Language Models (LLMs) zur weltanschaulichen Manipulation.
Was geschieht, wenn wir einer KI vertrauen, die explizit darauf programmiert wurde, uns in eine bestimmte Richtung zu lenken?
Wenn Akteur:innen eigene GPT-Modelle (Chatbots) mit selektiven Informationen oder bewussten Falschdarstellungen füttern, entsteht ein hochwirksames Werkzeug der algorithmischen Indoktrination. Wir müssen die Mechanismen hinter dieser digitalen Beeinflussung durchschauen:
Die Maske der Sachlichkeit: Die ruhige, konsistente Tonalität eines LLM täuscht Neutralität vor. Wir neigen dazu, einer Maschine eine logische Instanz zuzuschreiben, während sie in Wahrheit lediglich die (radikalen) Biases und Unwahrheiten ihrer Ersteller reproduziert.
Methodische Isolation: Ein manipulierter Chatbot fungiert als geschlossenes System. Er erkennt individuelle Zweifel und räumt diese durch maßgeschneiderte, pseudo-theologische Argumente aus. Es findet keine Konfrontation mit Gegenmeinungen statt, sondern eine stetige Verfestigung eines manipulierten Weltbildes.
Erosion der Urteilskraft: Wer die Antwortsuche vollständig an eine ‚Black Box‘ delegiert, verliert die Fähigkeit zum kritischen Diskurs. Wenn die Trainingsdaten von Dritten vergiftet wurden, wird die KI zum verlängerten Arm einer manipulativen Autorität – ohne dass dies für die Nutzer:innen erkennbar bleibt.
Ein LLM ist kein moralischer Kompass, sondern ein Spiegel seiner Datenbasis. Wenn ein digitales Werkzeug als exklusive Quelle für Wahrheit präsentiert wird, ist höchste Vorsicht geboten.