Zusammenfassung: Eine aktuelle Studie ergab, dass das Gehör eine entscheidende Rolle bei der Koordination von Sprachbewegungen spielt. Die Forscher fanden heraus, dass die Fähigkeit, Kiefer- und Zungenbewegungen zu kontrollieren, nachließ, wenn Personen für einen kurzen Zeitraum nicht in der Lage waren, ihre eigene Sprache zu hören.
Dieser Befund ist besonders wichtig für das Verständnis der Sprachproduktion bei Menschen mit Hörverlust, einschließlich solcher mit Cochlea-Implantaten. Die Ergebnisse können zu neuen Behandlungsstrategien führen, die sich auf das Training der Mundmotorik für Menschen mit Hörverlust konzentrieren.
Wichtige Fakten:
- Ein Hörverlust beeinträchtigt die Echtzeitkoordination von Sprachbewegungen.
- Menschen verlassen sich möglicherweise mehr auf das mündliche motorische Feedback, wenn das auditive Feedback reduziert ist.
- Neue Behandlungen können die Sprache von Menschen mit Hörverlust oder Cochlea-Implantaten verbessern.
Quelle: McGill-Universität
Eine von der McGill University durchgeführte Studie zeigte, dass das Hören eine entscheidende Rolle dabei spielt, wie Menschen Sprachbewegungen in Echtzeit koordinieren und steuern.
Veröffentlicht in Zeitschrift der Acoustical Society of AmericaUntersuchungen zeigen, dass die Fähigkeit, Kiefer und Zunge koordiniert zu bewegen, beeinträchtigt ist, wenn Menschen ihre eigene Sprache nicht hören können, auch nur kurzzeitig.
„Menschen verlassen sich auf unmittelbares akustisches Feedback, um ihre Stimmbewegungen im Dienste der Sprachproduktion zu koordinieren und zu kontrollieren“, sagte Matthew Massapolo, der Hauptautor der Studie, der die Studie während seiner Tätigkeit als wissenschaftlicher Mitarbeiter im Motor Neuroscience Laboratory bei McGill durchführte.
Das Team nutzte die elektromagnetische Arthrographie (EMA), um Kiefer- und Zungenspitzenbewegungen beim Sprechen bei Menschen mit normalem Hörvermögen unter zwei Bedingungen zu verfolgen: wenn sie ihre eigene Sprache hören können und wenn sie durch Geräusche mehrerer Sprecher überdeckt wird.
Im letzten Szenario, in dem die Teilnehmer kurzzeitig nicht in der Lage waren, sich selbst zu hören, verringerte sich die sprachmotorische Leistung.
Diese Erkenntnis hat wichtige Auswirkungen auf das Verständnis der Sprachproduktion bei Menschen mit Hörverlust, insbesondere bei Menschen mit Cochlea-Implantaten.
„Einige Aspekte der Sprachproduktion bleiben auch Jahre nach der Implantation beeinträchtigt, was zweifellos auf die Verschlechterung der über CIs verfügbaren Hörsignale zurückzuführen ist“, sagte Massapolo.
Die Forscher wiesen darauf hin, dass das Verständnis des Ausmaßes, in dem schlechte Geräusche die Sprache beeinflussen, dazu beiträgt, die Wirksamkeit von Cochlea-Implantaten zu bestätigen und Kindern mit schwerem Hörverlust dabei zu helfen, das Sprechen zu lernen.
Masapolo, in Zusammenarbeit mit den McGill-Professoren Susanne Nittrouer und den McGill-Professoren David J. Ostry und Lucy Maynard untersuchten, wie sich ein eingeschränkter Zugang zu Schall durch Cochlea-Implantate auf die Sprache von Personen auswirkt, die Cochlea-Implantate erhalten haben.
Vorläufige Ergebnisse deuten darauf hin, dass sich Menschen mit Hörverlust bei der Steuerung von Sprachbewegungen möglicherweise mehr auf das Gefühl ihres Mundes und ihrer Zunge als auf akustisches Feedback verlassen.
Wenn sich dies bestätigt, kann die klinische Forschung darauf aufbauen und neue therapeutische Interventionen entwickeln, die sich auf das Training der Mundmotorik konzentrieren, um Kindern und Erwachsenen mit Hörverlust zu helfen.
Über Neuigkeiten aus der auditorischen Neurowissenschaftsforschung
Autor: Claire Lewin
Quelle: McGill-Universität
Kommunikation: Claire Lewin – McGill University
Bild: Bildquelle: Neuroscience News
Ursprüngliche Suche: Geschlossener Zugang.
„Unmittelbares akustisches Feedback reguliert die Sprachkoordination zwischen Artikulatoren im Dienste der phonologischen Struktur„Von Matthew Massapolo et al. Zeitschrift der Acoustical Society of America
eine Zusammenfassung
Unmittelbares akustisches Feedback reguliert die Sprachkoordination zwischen Artikulatoren im Dienste der phonologischen Struktur
Untersuchungen haben gezeigt, dass Sprecher das Timing von Artikulationsbewegungen über Variationen in der Produktionsgeschwindigkeit und Silbenbetonung zuverlässig koordinieren und dass diese Präzision im Timing zwischen Phrasen eine akustische Struktur im resultierenden Stimmsignal erzeugt.
Hier haben wir die Hypothese getestet, dass unmittelbares akustisches Feedback dazu beiträgt, eine konsistente Kontrolle des artikulatorischen Timings zu regulieren.
Normalhörende Sprecher zeichneten 480 /tV#Cat/-Lautäußerungen mittels elektromagnetischer Arthrographie mit abwechselndem V (/ɑ/-/ɛ/) und C (/t/-/d/) über Variationen in der Produktionsrate (schnell-normal) auf. . Und Betonung (die erste Silbe ist betont-unbetont). Die Worte waren in zwei Hörzustände unterteilt: exponiert und maskiert.
Um den Effekt des unmittelbaren akustischen Feedbacks auf die Kiefer-Zungenspitzen-Koordination zu messen, wurde der Zeitpunkt des Beginns des Anhebens der Zungenspitze für C im Verhältnis zum Öffnungs- und Schließzyklus des Kiefers für V in jeder Hörbedingung ermittelt.
Unter beiden Hörbedingungen verringert jede Manipulation, die den Öffnungs- und Schließzyklus des Kiefers verkürzt, die Einsetzenszeit der Zungenspitzenbewegung im Vergleich zum Einsetzen der Kieferöffnung. Darüber hinaus hing die Reaktionszeit der Zungenspitze stark mit der Art der Sprache zusammen.
Während der auditorischen Maskierung waren die Latenzen der Zungenspitze jedoch weniger stark mit der Sprachart verknüpft, was zeigt, dass Sprecher in Echtzeit eingehende akustische Signale nutzen, um die zeitliche Genauigkeit zwischen Äußerungen im Dienste der phonologischen Struktur zu regulieren.