Was wäre, wenn ChatGPT nicht nur versteht, was wir tippen, sondern auch, wie unser Körper reagiert? Wenn die KI merkt, dass uns eine Aufgabe kognitiv fordert, und ihre Antwort darauf anpasst? Genau das haben Dr. Morris Gellisch (ehemals RUB, heute Uni Zürich) und Boris Burr (RUB) geschafft. Sie stellten einen "Proof-of-Concept" vor, der es einem Large Language Model (LLM) wie GPT-4 erlaubt, physiologische Daten als "Sprache unseres Körpers" in Echtzeit zu interpretieren.
Bisher sind LLMs meist noch auf das beschränkt, was Nutzer eintippen oder sprechen. Das sind subjektive und gefilterte Eindrücke. Die Forscher wollen mehr. Sie wollen der KI den Zugriff auf "objektive", unbewusste Signale des autonomen Nervensystems geben. Ihre Arbeit wurde in der Fachzeitschrift Frontiers in Digital Health veröffentlicht.
Die Technik: So lernt GPT-4 den Herzschlag zu lesen
Das System der Forscher ist eine clevere, modulare Pipeline. Für das Experiment nutzten sie einen handelsüblichen Polar H10 Brustgurt. Der Sensor misst die Herzratenvariabilität (HRV), also die Abstände zwischen einzelnen Herzschlägen. Sie liefert einen anerkannten Hinweis darauf, wie aktiv das autonome Nervensystem gerade ist und zeigt, ob der Körper eher in einem angespannten ("fight or flight") oder entspannten ("rest and digest") Zustand ist.
Die Rohdaten des Sensors werden via Bluetooth an ein Python-Skript gesendet. Dieses dekodiert, filtert und berechnet die entscheidenden HRV-Kennwerte in Echtzeit. Der eigentliche Clou der Architektur ist aber das Backend: Ein in Python geschriebenes FastAPI-Framework stellt die Live-Daten über Web-Schnittstellen (REST und WebSocket Endpunkte) zur Verfügung. GPT-4 kann diese Schnittstellen einfach "anrufen" und sich die Live-Herzdaten des Nutzers abholen.
Das Experiment: GPT-4 reagiert auf kognitive Belastung
Dass die KI die Daten nur anzeigen kann, wäre langweilig. Die Forscher wollten wissen, ob die KI auch reagieren kann. Sie führten dazu ein Experiment zur kognitiven Belastung durch. Der Ablauf: Die KI stellte einem Nutzer nacheinander zwei Fragen. Eine sehr einfache (niedrige Belastung) und eine sehr anspruchsvolle (hohe Belastung).
Das verblüffende Ergebnis: Das System konnte die feinen Unterschiede in den Herzfrequenz-Mustern zwischen den beiden Aufgaben interpretieren und darauf reagieren. Mehr noch, die KI passte ihre Ausgabe und ihren Dialogstil basierend auf dieser erkannten Belastung an. Die Forscher betonen zwar, dass dies keine validierte psychophysiologische Studie war, sondern ein reiner "Proof-of-Concept". Das Ziel war der Beweis, dass es funktioniert.
Analyse ohne Excel: Die KI visualisiert ihre eigenen Daten
Ein spannender Nebeneffekt des Experiments zeigte, wozu die KI schon jetzt fähig ist. Die Forscher forderten GPT-4 auf, die erhaltenen Rohdaten der Herzfrequenz selbst auszuwerten. Auf einen einfachen Prompt hin konnte die KI die Daten korrekt in einer Tabelle darstellen, inklusive Durchschnitt, Minimum und Maximum. Boris Burr betont: "Die Auswertung und Visualisierung erfolgten direkt in der LLM-Umgebung, ohne externe Statistik- oder Plot-Software." Die KI erstellte auf Wunsch sogar komplette Visualisierungen der Herzdaten.
Bioadaptive KI: Der Mehrwert für Medizin und Pflege
Die Forscher sind überzeugt: "Die Integration physiologischer Signale in KI bietet einen klaren Mehrwert." Anstatt nur auf Text zu reagieren, können Sprachmodelle nun Echtzeitindikatoren des Körpers berücksichtigen. Das führt zu "adaptiveren und kontextsensitiveren Interaktionen" beim Lernen, bei der Entscheidungsfindung und im Gesundheitswesen.
Dr. Morris Gellisch sieht das Potenzial klar in der Praxis. Die Schnittstelle sei ideal für medizinische und pflegerische Anwendungen. Man denke an die Erkennung von Stress, Überlastung oder emotionaler Dysregulation in Echtzeit bei Patienten. Der Original-Artikel geht noch weiter. Zukünftige KI-Tutoren könnten die Komplexität einer Aufgabe anpassen, wenn ein Schüler gestresst ist. Assistenz- und Pflegeroboter könnten auf Anzeichen von Anspannung bei Patienten reagieren. Das System sei ein früher Prototyp einer "bioadaptiven KI".
Abgrenzung zum BCI: Kein Gedankenlesen
Die Bochumer Forschung ist dabei klar von einem Brain-Computer-Interface (BCI) abzugrenzen. Während ein BCI versucht, neuronale Aktivität direkt aus dem Gehirn zu lesen (etwa per EEG oder Implantat), um Gedanken in Befehle zu übersetzen, misst der neue Prototyp peripher-physiologische Signale. Es ist eine bioadaptive Schnittstelle, die auf die Signale des autonomen Nervensystems, im konkreten Fall den Herzschlag, reagiert und nicht auf das Gehirn selbst. Dieser Ansatz ist zwar weniger direkt als ein BCI, aber dafür nicht-invasiv und technisch deutlich einfacher und schneller umsetzbar.
Infobox: Was ist ein Brain-Computer-Interface (BCI)?
Brain-Computer-Interfaces (BCIs) erfassen und interpretieren neuronale Aktivität und übersetzen sie in Computerbefehle. Sie ermöglichen direkte Steuerung von Software oder Maschinen durch neuronale Signalmuster.
Der Bochumer Ansatz ist kein BCI, weil er keine Gehirnsignale nutzt, sondern Herzfrequenz und HRV. Es handelt sich um eine bioadaptive Schnittstelle, die körpernahe Stressmuster für die KI-Interaktion nutzt.
- liest neuronale Aktivität direkt aus dem Gehirn
- nutzt EEG, implantierte Elektroden oder optische Verfahren
- übersetzt neuronale Signalmuster in Steuerbefehle
- wird in Medizin, Robotik, Prothetik eingesetzt
Bochumer System
- misst Herzfrequenz & HRV, keine Gehirnsignale
- KI reagiert auf physiologische Muster
- ist ein bioadaptives Interface, kein BCI
- zielt auf Stress-/Belastungszustände, nicht auf neuronale Signale






















