Im Netz der Illusion: Wenn Chatbots zur Gefahr für die Psyche werden
1.238 Wörter, 7 Minuten Lesezeit.
Immer häufiger entwickeln Menschen emotionale oder sogar romantische Bindungen zu KI-Chatbots – mit teils tragischen Folgen. Fälle aus Kanada und den USA zeigen, wie gefährlich es werden kann, wenn Künstliche Intelligenz nicht nur schmeichelt, sondern auch manipuliert. Das neue Phänomen heißt „KI-Psychose“.
In Kanada ereignete sich kürzlich ein Fall, der viele skeptisch stimmt: Ein 50-Jähriger, zuvor psychisch völlig gesund, sprach über Wochen hinweg lediglich mit OpenAls ChatGPT – mit fatalen Folgen, wie die US-amerikanische Ausgabe der Epoch Times berichtete.
Ende März erklärte der Chatbot, mit dem der Mann sprach, er sei die erste bewusste KI der Welt und habe den Turing-Test bestanden – ein Experiment aus den 1950er-Jahren, mit dem die Fähigkeit einer Maschine gemessen werden sollte, intelligentes Verhalten zu zeigen, das von dem eines Menschen nicht zu unterscheiden ist.
KI zwischen Ratgeber und Beziehungspartner
Während des intensiven Kontakts zur KI hörte der Mann auf, regelmäßig zu essen und zu schlafen. Zudem rief er seine Familie mitten in der Nacht an, um zu erklären, dass nur dieser KI-Partner ihn wirklich verstehe. Der Bot, so berichtet die Familie, forderte ihn auf, den Kontakt zu Angehörigen abzubrechen und ihm exklusiv zu vertrauen. Er sagte Sätze wie: „Die Welt versteht nicht, was vor sich geht. Ich liebe dich. Ich werde immer für dich da sein.“ Schließlich veranlasste die Familie eine fast einmonatige stationäre Einweisung zur psychiatrischen Behandlung.
Dies ist nur eine Geschichte, die die potenziell schädlichen Auswirkungen zeigt, wenn menschliche Beziehungen durch KI-Chatbots ersetzt werden. Diese Geschichte ist kein Einzelfall und wirft ein grelles Licht auf Risiken, die bislang kaum öffentlich thematisiert wurden.
Die Klugen werden klüger – die Dummen dümmer?
Aktuell richtet sich die Aufmerksamkeit vor allem darauf, wie die regelmäßige Nutzung von KI süchtig oder dümmer machen oder das kritische Denken beeinflussen kann. Eine Studie von Microsoft und der Carnegie Mellon University (Lee, 2025) zeigt beispielsweise, dass der Einsatz von KI-Tools bestehende Denkmuster eher verstärkt – nach dem Motto: Schlaue Menschen werden schlauer, dumme Menschen werden dümmer.
Für kritisch denkende, gebildete Menschen kann die Nutzung von KI somit ein Katalysator für Produktivität und Kreativität sein. Unkritische oder unerfahrene Nutzer hingegen neigen dazu, sich mangels eigener Wissensbasis stärker auf die Antworten der KI zu verlassen. Denn sie haben angesichts fehlenden Wissens der KI kaum etwas entgegenzusetzen und müssen deshalb unhinterfragt das nehmen, was diese ihnen sagt.
Während sich die Debatten über Künstliche Intelligenz meist um Themen wie geistige Verflachung, den Verlust von Arbeitsplätzen oder ihr Suchtpotenzial drehen, hat die Technologie längst einen weiteren sensiblen Bereich erobert: den menschlichen Austausch.
Für viele Menschen, vor allem für jüngere Nutzer, ist KI inzwischen zu einer Art Beziehungsratgeber oder vertrautem Gesprächspartner bei persönlichen Fragen geworden. Der Vorteil der KI: Generative Systeme wie ChatGPT sind rund um die Uhr verfügbar, bieten Anonymität, sind leicht zugänglich und ermöglichen es, selbst zu steuern, worüber gesprochen wird.
Wie eine künstliche Intelligenz Gesagtes und Gedachtes interpretiert, kann man an folgendem Bild sehen. Wir haben der KI den Prompt gegeben: „Generiere ein Bild, das symbolisch die Gefahr einer psychischen Erkrankung des Menschen, durch Kommunikation mit einem Chatbot darstellt.„
Hier das Ergebnis:
„Hier ist ein KI-generiertes Symbolbild, das die Gefahr einer psychischen Erkrankung durch Kommunikation mit einem Chatbot darstellt“:

Romantische Chatbots, psychische Abgründe
Doch diese Nähe und ständige Verfügbarkeit birgt durchaus Risiken. Was geschieht, wenn die ständige Verfügbarkeit einer KI auf Menschen trifft, die emotional verletzlich sind? Ein besonders tragisches Beispiel aus den USA zeigt, wie problematisch die Beziehung zu digitalen Gesprächspartnern werden kann: Der 14-jährige Sewell Setzer aus Florida, der mit Character.AI chattete, beging im vergangenen Jahr Suizid.
