Studie zeigt: So isoliert das Gehirn Stimmen in lauten Umgebungen

Seit Jahrzehnten beschäftigen sich Neurowissenschaftler mit dem sogenannten „Cocktailparty-Problem“ – der bemerkenswerten Fähigkeit des menschlichen Gehirns, sich inmitten eines lauten Stimmengewirrs gezielt auf eine einzelne Stimme zu konzentrieren. Schon länger ist bekannt, dass das Gehirn diesen Fokus erreicht, indem es die Aktivität von Neuronen verstärkt, die auf bestimmte akustische Merkmale spezialisiert sind. Bislang fehlte jedoch ein funktionierendes Computermodell, das belegen konnte, dass dieser Mechanismus auch unter realen Bedingungen funktioniert.
Kürzlich gelang es einem Forschungsteam des Massachusetts Institute of Technology (MIT), ein künstliches neuronales Netzwerk zu entwickeln, das diese menschliche Hörfähigkeit nachbildet. Die im Fachjournal Nature Human Behaviour veröffentlichte Studie zeigt, dass das Gehirn dafür eine Strategie nutzt, die in der Forschung als „multiplicative feature gains“ bezeichnet wird. Vereinfacht gesagt funktioniert das Gehirn wie ein äußerst präziser Lautstärkeregler. Konzentriert sich eine Person auf eine bestimmte Stimme, verstärkt das Gehirn gezielt jene neuronalen Signale, die mit ihren charakteristischen Merkmalen – etwa der Tonhöhe – verknüpft sind. Gleichzeitig werden konkurrierende Hintergrundgeräusche abgeschwächt.
Um dies zu testen, gab das MIT-Team seinem künstlichen Modell zunächst einen kurzen Audiohinweis auf eine bestimmte Stimme und spielte ihm anschließend eine laute Mischung überlappender Sprecher vor. Das Modell konnte die Zielstimme dabei erfolgreich herausfiltern und erzielte unter verschiedenen Bedingungen eine Leistung, die mit der des Menschen vergleichbar war. Es reproduzierte sogar typische menschliche Hörfehler, etwa die Schwierigkeit, zwei verschiedene Stimmen voneinander zu trennen, wenn sie eine ähnliche Tonhöhe haben.
Keines unserer Modelle besaß bislang die Fähigkeit, die Menschen haben: gezielt auf ein bestimmtes Objekt oder ein bestimmtes Geräusch hingewiesen zu werden und die eigene Reaktion anschließend genau daran auszurichten. Das war eine echte Einschränkung. - Josh H. McDermott, korrespondierender Autor der Studie.
Das Modell ermöglichte es den Forschern außerdem, zu untersuchen, wie sich die räumliche Position von Schallquellen auf das Hören auswirkt. Es sagte voraus, dass sich Stimmen deutlich leichter unterscheiden lassen, wenn die Sprecher horizontal statt vertikal voneinander getrennt sind – ein Effekt, den das Team anschließend auch in Versuchen mit Menschen bestätigen konnte. Die Forscher hoffen, dass das Modell künftig den Weg für fortschrittlichere Cochlea-Implantate ebnen könnte, die Menschen dabei helfen, ihre Aufmerksamkeit in lauten und unübersichtlichen Umgebungen besser auf einzelne Stimmen zu richten.








