Zusammenfassung: Forscher haben eine bahnbrechende Entdeckung darüber gemacht, wie das menschliche Gehirn Wörter bildet, bevor es spricht. Mithilfe von Neuropixels-Sensoren konnten sie abbilden, wie Neuronen Sprachlaute in der Sprache darstellen und gruppieren.
Diese Studie beleuchtet nicht nur die komplexen kognitiven Schritte der Sprachproduktion, sondern eröffnet auch Möglichkeiten zur Behandlung von Sprech- und Sprachstörungen. Diese Technologie könnte zur Entwicklung künstlicher Sprachprothesen führen und Menschen mit neurologischen Störungen zugute kommen.
Wichtige Fakten:
- Die Studie verwendet fortschrittliche Neuropixels-Sensoren, um die Aktivitäten von Neuronen im Gehirn aufzuzeichnen und zu zeigen, wie wir denken und Wörter produzieren.
- Die Forscher fanden heraus, dass Neuronen sowohl dem Sprechen als auch dem Zuhören gewidmet sind und separate Gehirnfunktionen für die Sprachproduktion und das Sprachverständnis offenbaren.
- Die Erkenntnisse könnten bei der Entwicklung von Therapien für Sprech- und Sprachstörungen helfen und zur Schaffung von Gehirn-Maschine-Schnittstellen für künstliche Sprache führen.
Quelle: Harvard
Mithilfe fortschrittlicher Gehirnaufzeichnungstechniken zeigt eine neue Studie von Forschern des Harvard-nahen Massachusetts General Hospital, wie Neuronen im menschlichen Gehirn zusammenarbeiten, damit Menschen an die Wörter denken, die sie sagen möchten, und sie dann laut durch Sprache aussprechen.
Die Ergebnisse liefern eine detaillierte Karte darüber, wie Sprachlaute wie Konsonanten und Vokale im Gehirn dargestellt werden, lange bevor sie gesprochen werden, und wie sie während der Sprachproduktion miteinander verknüpft werden.
Arbeit veröffentlicht in NaturEs kann zu einer Verbesserung des Verständnisses und der Behandlung von Sprech- und Sprachstörungen führen.
„Obwohl das Sprechen normalerweise einfach zu sein scheint, führt unser Gehirn viele komplexe kognitive Schritte bei der natürlichen Sprachproduktion aus – einschließlich der Formulierung der Wörter, die wir sagen möchten, der Planung verbaler Bewegungen und der Produktion beabsichtigter Äußerungen“, sagt Hauptautor Zev Williams. Außerordentlicher Professor für Neurochirurgie am MGH und der Harvard Medical School.
„Unser Gehirn vollbringt diese Kunststücke mit erstaunlicher Geschwindigkeit – etwa drei Wörter pro Sekunde in natürlicher Sprache – und mit bemerkenswert wenigen Fehlern. Wie genau diese Kunstleistung vollbracht wird, ist jedoch ein Rätsel geblieben.“
Als sie eine hochmoderne Technologie namens Neuropixel verwendeten, um die Aktivitäten einzelner Neuronen im präfrontalen Kortex, einem Frontalbereich des menschlichen Gehirns, aufzuzeichnen, identifizierten Williams und seine Kollegen Zellen, die an der Sprachproduktion beteiligt sind und möglicherweise der Sprechfähigkeit zugrunde liegen. Er spricht. Sie fanden auch heraus, dass es im Gehirn getrennte Gruppen von Neuronen gibt, die für das Sprechen und Zuhören zuständig sind.
„Der Einsatz von Neuropixels-Sensoren beim Menschen wurde erstmals am MGH entwickelt“, sagte Williams. „Diese Sensoren sind bemerkenswert – sie sind kleiner als die Breite eines menschlichen Haares, enthalten aber auch Hunderte von Kanälen, die die Aktivität von Dutzenden oder sogar Hunderten einzelner Neuronen gleichzeitig aufzeichnen können.“
Williams arbeitete bei der Entwicklung der Aufnahmetechniken mit Sidney Cash zusammen, einem Professor für Neurologie am Massachusetts General Hospital und der Harvard Medical School, der auch bei der Leitung der Studie mitwirkte.
Die Forschung zeigt, wie Neuronen einige der grundlegenden Elemente darstellen, die an der Konstruktion gesprochener Wörter beteiligt sind – von einfachen Sprachlauten, die Phoneme genannt werden, bis hin zu ihrer Gruppierung in komplexere Zeichenfolgen wie Silben.
Beispielsweise ist der Konsonant „da“, der entsteht, wenn die Zunge den harten Gaumen hinter den Zähnen berührt, notwendig, um das Wort „Hund“ zu bilden. Durch die Aufzeichnung einzelner Neuronen stellten die Forscher fest, dass einige Neuronen aktiv werden, bevor der Ton laut ausgesprochen wird. Andere Neuronen spiegelten komplexere Aspekte der Wortkonstruktion wider, beispielsweise die spezifische Gruppierung von Lauten in Silben.
Mit ihrer Technik haben die Forscher gezeigt, dass es möglich ist, zuverlässig zu bestimmen, welche Sprachlaute Personen aussprechen, bevor sie sie aussprechen. Mit anderen Worten: Wissenschaftler können die Kombination von Konsonanten und Vokalen vorhersagen, die erzeugt wird, bevor die Wörter tatsächlich gesprochen werden. Diese Fähigkeit könnte genutzt werden, um Prothesen oder Gehirn-Maschine-Schnittstellen zu bauen, die synthetische Sprache erzeugen können, was einer Reihe von Patienten zugute kommen könnte.
„Störungen in Sprach- und Sprachnetzwerken wurden bei einer Vielzahl neurologischer Erkrankungen beobachtet – darunter Schlaganfall, Schädel-Hirn-Trauma, Tumore, neurodegenerative Erkrankungen, neurologische Entwicklungsstörungen und mehr“, sagte Arjun Khanna, Postdoktorand im Williams-Labor und einer der Forscher. dass“. Co-Autor der Studie.
„Wir hoffen, dass ein besseres Verständnis der grundlegenden neuronalen Schaltkreise, die Sprache und Sprache ermöglichen, den Weg für die Entwicklung von Behandlungen für diese Störungen ebnen wird.“
Die Forscher hoffen, ihre Arbeit durch die Untersuchung komplexerer linguistischer Prozesse zu erweitern, die es ihnen ermöglichen, Fragen zu untersuchen, die sich darauf beziehen, wie Menschen die Wörter auswählen, die sie sagen möchten, und wie das Gehirn Wörter zu Sätzen zusammenfügt, die die eigenen Gedanken und Gefühle an andere weitergeben. .
Über Neuigkeiten aus der Sprach- und Sprachforschung
Autor: MGH-Kommunikation
Quelle: Harvard
Kommunikation: MGH Communications – Harvard
Bild: Bildquelle: Neuroscience News
Ursprüngliche Suche: Offener Zugang.
„Einzelne neuronale Komponenten der Sprachproduktion beim Menschen„Von Zev Williams et al. Natur
eine Zusammenfassung
Einzelne neuronale Komponenten der Sprachproduktion beim Menschen
Menschen sind in der Lage, Kombinationen außerordentlich unterschiedlicher verbaler Bewegungen zu erzeugen, um eine bedeutungsvolle Sprache zu erzeugen. Diese Fähigkeit, bestimmte Lautsequenzen zu koordinieren, sie zu segmentieren und auf Zeitskalen von weniger als einer Sekunde zu konjugieren, ermöglicht es uns, Tausende von Wortlauten zu erzeugen und ist ein grundlegender Bestandteil der Sprache. Die grundlegenden zellulären Einheiten und Strukturen, anhand derer wir beim Sprechen Wörter planen und produzieren, sind jedoch noch weitgehend unbekannt.
Mithilfe scharfer Neuropixel-Aufzeichnungen mit hoher Dichte, die in der Lage sind, die kortikale Säule beim Menschen abzutasten, entdeckten wir Neuronen im sprachdominanten präfrontalen Kortex, die detaillierte Informationen über die phonetische Anordnung und Bildung striataler Wörter während der natürlichen Sprachproduktion kodierten.
Diese Neuronen repräsentieren die spezifische Reihenfolge und Struktur artikulatorischer Ereignisse vor der Artikulation und spiegeln die Segmentierung von Stimmsequenzen in verschiedene Segmente wider. Sie sagten auch die phonologischen, syllabischen und morphologischen Komponenten kommender Wörter genau voraus und zeigten zeitlich geordnete Dynamiken.
Gemeinsam zeigen wir, wie diese Zellmischungen entlang der kortikalen Säule grob organisiert sind und wie ihre Aktivitätsmuster von der artikulatorischen Planung zur Produktion übergehen. Wir zeigen auch, wie diese Zellen die detaillierte Struktur von Konsonanten- und Vokallauten während der Wahrnehmung zuverlässig verfolgen und wie sie gezielt Prozesse im Zusammenhang mit dem Sprechen von solchen im Zusammenhang mit dem Zuhören unterscheiden.
Zusammengenommen offenbaren diese Ergebnisse eine bemerkenswert strukturierte Organisation und Kodierungskaskade phonologischer Darstellungen durch präfrontale Neuronen beim Menschen und demonstrieren einen zellulären Prozess, der die Sprachproduktion unterstützen kann.