Immer mehr Menschen bauen Beziehungen zu künstlichen Gesprächspartnern auf, die speziell für persönliche Interaktionen entwickelt wurden. Anwendungen wie Replika, Pi von Inflection oder personalisierte Versionen von ChatGPT bieten simulierte Nähe, Verständnis und emotionale Reaktionen – rund um die Uhr. Die britische Tech-Ethikerin Olivia Guest analysiert diesen Trend im Interview mit der Zeitung Der Standard. Ihre These: Viele Nutzerinnen und Nutzer suchen emotionale Verbindung – aber nicht mehr zwangsläufig bei anderen Menschen.
KI-Partner erobern die digitale Welt
Replika, ein KI-Modell mit Fokus auf emotionalen Austausch, zählt laut Angaben des Herstellers mittlerweile über zwei Millionen Nutzer. Das Modell bietet neben rein textbasierter Kommunikation auch Avatare und personalisierte Beziehungssimulationen. Auch Pi, der KI-Begleiter des Start-ups Inflection AI, setzt auf empathische Interaktion und ist so konzipiert, dass er „freundlich, geduldig und verständnisvoll“ antwortet.
Wie konversationelle KI Nähe simuliert
Im Zentrum steht nicht mehr die funktionale Nutzung der Anwendung als Wissens- oder Antwortmaschine, sondern das Gespräch selbst. Viele Menschen suchen in KI-Partnern kein technisches Tool, sondern ein Gegenüber – ohne Erwartungen, Missverständnisse oder Zurückweisungen. Laut Olivia Guest liegt genau darin der Reiz: Solche Systeme können nicht verletzen.
„Menschen suchen Verbindung – nur nicht mehr zwingend bei anderen Menschen“ (Olivia Guest: „People are seeking connection – just not necessarily with other people anymore“).
Warum immer mehr Menschen KI-Verbindungen suchen
Die Nutzergruppen sind vielfältig: Laut Anbieterangaben greifen sowohl Männer als auch Frauen auf KI-Begleiter zurück – zur Linderung von Einsamkeit, zum Stressabbau oder zur Unterhaltung. Auch ChatGPT wird zunehmend für persönliche Gespräche eingesetzt, etwa durch sogenannte „Roleplay-Prompts“ oder interaktive Tagebuchformate.
KI verändert unser Verständnis von Beziehung
Die Kritik an KI-Beziehungen zielt oft auf die emotionale Abhängigkeit der Nutzer oder den Datenschutz. Für Ethiker wie Guest spiegeln solche Entwicklungen jedoch weniger technische Risiken als vielmehr soziale Defizite wider – etwa fehlende Nähe, Zeit oder Verständnis im menschlichen Miteinander.















































