KI-Hörhilfe liefert besseres Sprachverstehen – Mit einer Einführung von Jean Pütz

Dass im Alter das Hörvermögen abnimmt, beruht nicht nur auf physikalischen Ursachen. Dass z. B. die Cochlea altert und daher höhere Sequenzen nicht mehr wahrgenommen werden. Hören ist viel mehr, weil es im Gehirn oft vernachlässigte komplizierte Prozesse auslöst. So ist z. B. das Hören auch mit dem Auge verbunden. Beim gesunden Menschen werden die Signale, die vom Gesichtsfeld herkommen, selektiv verstärkt. Wenn aber ein Sprachengewirr, verbunden mit Echo- und Nebengeräuschen anfallen, wird das Gehirn umso stärker gefordert, um z. B. Sprache verstehen zu können. Das nimmt im Alter einfach ab. Leider wird das sehr selten im Fernsehen, Hörfunk oder Film von den Regisseuren berücksichtigt. Selbst im modernen Hörgerät, dass ganz individuell per Computer  auf den jeweiligen Besitzer des Ohr einstellbar ist, und die höheren Frequenzen anhebt, verbessert nicht das Verständnis. Dem soll Künstliche Intelligenz Abhilfe leisten, vor allen Dingen Nebengeräusche so unterdrücken, dass das Alters-Handicap reduziert wird.

Dazu die folgende Pressemitteilung

Jean Pütz

(pte) – Forscher des Hörforschungslabors der Universität Bern und des Inselspitals haben in einer Machbarkeitsstudie gezeigt, wie der Einsatz von Künstlicher Intelligenz (KI) bei der Entwicklung von Hörimplantaten hilft und den „Cocktail-Party-Effekt“ ermöglicht. Damit soll der hörbeeinträchtigte Träger aus vielen Schallquellen gezielt Sprache herausfiltern können – normalerweise eine natürliche Fähigkeit des Gehirns. Konkret geht es bei dem neuen Ansatz um virtuelle Zusatzmikrofone, deren Signale mittels KI errechnet werden.

78.000 Audiodateien genutzt
Je mehr Mikrofone ein Audioprozessor zur Verfügung hat und je breiter diese verteilt sind, desto besser kann eine Hörhilfe den Schall aus einer bestimmten Richtung fokussieren, wie die Forscher festgestellt haben. Für den Studienaufbau haben die Ingenieure den „Bern Cocktail-Party-Datensatz“, eine Sammlung einer Vielzahl von Geräusch-Szenarien mit mehreren Schallquellen aus Multi-Mikrofon-Aufnahmen von Hörgerät- oder Cochlea-Implantat-Trägern genutzt.

Anhand von 65 Stunden Audioaufnahmen (über 78.000 Audiodateien) wurde das neuronale Netzwerk zur Verfeinerung eines oft eingesetzten Richtwirkungs-Algorithmus (Beamforming) trainiert. Für ein verbessertes Sprachverstehen errechnete der Deep-Learning-Ansatz zusätzliche virtuelle Mikrofon-Signale aus dem Audiodaten-Gemisch. 20 Probanden testeten das KI-verstärkte Hören in einem subjektiven Hörtest, begleitet von objektiven Messungen. Insbesondere in Cocktail-Party-Settings verbesserten die virtuell abgetasteten Mikrofonsignale die Sprachqualität signifikant, heißt es.

Neue Hörprothesen-Generation
Den Wissenschaftlern zufolge profitieren Hörgeräte- und Cochlea-Implantat-Nutzer besonders in lauten Umgebungen von dem vorgestellten Ansatz. „Künstliche Intelligenz stellt einen wichtigen Beitrag für die nächste Generation von Hörprothesen dar, da sie großes Potenzial für eine Verbesserung des Sprachverstehens, insbesondere in schwierigen Hörsituationen hat“, so Marco Caversaccio, Chefarzt und HNO-Klinikdirektor. Die neuartigen Ansätze kommen im Rahmen von Translationsstudien direkt den Patienten zugute, schließt der Mediziner.