Schlagwort-Archive: BrainLinks-BrainTools

Hirnregionen mit Doppelfunktion für Sprache

Mit einem besonderen Experiment beantworten Freiburger Wissenschaftler eine jahrzehntelang diskutierte Forschungsfrage

In Pink ist das artikulatorische Hirnareal abgebildet, das sowohl bei der Produktion als auch bei der Wahrnehmung der Sprache bei allen Probanden aktiv war. Grafik: Translational Neurotechnology Lab (Freiburg)

In Pink ist das artikulatorische Hirnareal abgebildet, das sowohl bei der Produktion als auch bei der Wahrnehmung der Sprache bei allen Probanden aktiv war. Grafik: Translational Neurotechnology Lab (Freiburg)

Hirnregionen, die an der Produktion von Sprache beteiligt sind, sind auch bei der Wahrnehmung von Sprache aktiv. Zu diesem Ergebnis kommt ein Team des Exzellenzclusters BrainLinks-BrainTools der Universität Freiburg – und liefert damit einen wesentlichen Beitrag zur Klärung einer jahrzehntelang kontrovers diskutierten Forschungsfrage. Die Wissenschaftlerinnen und Wissenschaftler haben ihre Ergebnisse im Fachjournal „Scientific Reports“ veröffentlicht.

Spontane sprachliche Kommunikation ist ein fundamentaler Teil des sozialen Lebens. Aber was passiert dabei im menschlichen Gehirn? Obwohl die Neurowissenschaft der Sprache in den vergangenen Dekaden dank experimenteller Untersuchungen stetig vorangeschritten ist, ist wenig darüber bekannt, wie Sprache bei nicht-experimentellen, spontanen Bedingungen des Alltags im Gehirn unterstützt wird. Inwiefern die für Artikulation verantwortlichen Gehirnregionen auch bei der Wahrnehmung von Sprache aktiviert werden, ist seit Jahrzehnten umstritten. Manche Forscherinnen und Forscher haben eine solche Aktivierung bei experimentellen Untersuchungen beobachtet und daraus geschlossen, dass es sich um einen Mechanismus handelt, der für die Wahrnehmung von Sprache notwendig ist. Andere haben diese Aktivierung in ihren Experimenten nicht gefunden und daraus abgeleitet, dass sie selten sein muss oder womöglich gar nicht existiert.

Beide Lager waren sich jedoch einig: Wenn sich die Hirnaktivität in artikulationsrelevanten Regionen während der Wahrnehmung von Sprache verändert, könnte dies auch auf den Aufbau des Experiments zurückzuführen sein – schließlich unterscheiden sich experimentelle von spontansprachlichen Bedingungen markant. Deshalb war eine Studie anhand von natürlichen Konversationen notwendig.

Mithilfe eines besonderen Designs ist es den Forschern aus Freiburg gelungen, neuronale Aktivität bei solchen Konversationen zu untersuchen. Dies geschah mithilfe von Aufnahmen von Gehirnaktivität, welche während alltäglicher Unterhaltungen bei neurologischen Patienten zur Diagnostik aufgezeichnet wurden und anschließend mit Einverständnis der Patientinnen und Patienten für Forschung verwertet werden durften. Die Wissenschaftler zeigen, dass artikulationsrelevante Hirnregionen zuverlässige Aktivität bei der Wahrnehmung spontangesprochener Sprache aufweisen. Diese Regionen waren jedoch nicht aktiviert, als die Probanden nicht-sprachliche Geräusche gehört haben.

Originalpublikation:
Olga Glanz (Iljina), Johanna Derix, Rajbir Kaur, Andreas Schulze-Bonhage, Peter Auer, Ad Aertsen, Tonio Ball (2018): Real-life speech production and perception have a shared premotor-cortical substrate. In: Scientific Reports.
https://rdcu.be/VDs2

Intelligente Algorithmen

Computer mit Köpfchen

Künstliche neuronale Netze entschlüsseln Hirnaktivität bei ausgeführten und vorgestellten Bewegungen

Um Hirnsignalen die richtige Bedeutung zuschreiben zu können, verarbeitet das künstliche neuronale Netz sie in mehreren Schichten (1). Eine Visualisierung des Effektes der Amplitude auf die Dekodierungsentscheidung des Netzes (rot: positiv, blau: negativ) zeigt den Forschenden, was der Algorithmus lernt (2).

Um Hirnsignalen die richtige Bedeutung zuschreiben zu können, verarbeitet das künstliche neuronale Netz sie in mehreren Schichten (1). Eine Visualisierung des Effektes der Amplitude auf die Dekodierungsentscheidung des Netzes (rot: positiv, blau: negativ) zeigt den Forschenden, was der Algorithmus lernt (2).

Beim Filtern von Informationen mit Suchmaschinen, als Gegner bei Brettspielen oder zur Erkennung von Bildinhalten: Bei bestimmten Aufgaben ist künstliche Intelligenz der menschlichen längst überlegen. Wie Ideen aus der Informatik auch die Hirnforschung revolutionieren könnten, zeigen nun mehrere Gruppen aus dem Freiburger Exzellenzcluster BrainLinks-BrainTools um den Neurowissenschaftler Privatdozent Dr. Tonio Ball. Im Fachjournal „Human Brain Mapping“ demonstrieren sie, wie ein selbstlernender Algorithmus menschliche Hirnsignale entschlüsselt, die von einem Elektroenzephalogramm (EEG) gemessen wurden. Darunter waren zum Beispiel ausgeführte, aber auch bloß vorgestellte Fuß- und Handbewegungen oder eine imaginäre Rotation von Gegenständen. Obwohl ihm keine Merkmale zur Auswertung vorgegeben sind, arbeitet der Algorithmus so schnell und präzise wie herkömmliche Systeme, die für die Lösung bestimmter Aufgaben anhand vorher bekannter Hirnsignal-Eigenschaften entworfen wurden – und sich deswegen nicht in allen Fällen eignen. Die Nachfrage nach solch vielseitigen Schnittstellen zwischen Mensch und Maschine ist groß: Am Universitätsklinikum Freiburg würde man sie beispielsweise zur Früherkennung epileptischer Anfälle nutzen. Denkbar sind aber auch verbesserte Kommunikationsmöglichkeiten für Schwerstgelähmte oder eine automatisierte Diagnostik in der Neurologie.

„Unsere Software basiert auf Modellen, die vom Gehirn inspiriert sind und sich als äußerst hilfreich dabei erwiesen haben, verschiedene natürliche Signale, wie zum Beispiel Sprachlaute, zu entschlüsseln“, sagt der Informatiker Robin Tibor Schirrmeister. Damit umschreibt der Forscher die Methode, die das Team zur Dekodierung der EEG-Daten nutzte: So genannte künstliche neuronale Netze sind das Herzstück des aktuellen Projekts bei BrainLinks-BrainTools. „Das Tolle an dem Programm ist, dass wir keine Merkmale vordefinieren müssen. Die Informationen werden schichtweise, also in mehreren Instanzen, mittels einer non-linearen Funktion verarbeitet. Somit lernt das System selbst, Aktivitätsmuster von verschiedenen Bewegungen zu erkennen und voneinander zu unterscheiden“, erklärt Schirrmeister. Das Modell ist an die Verbindungen zwischen Nervenzellen im menschlichen Körper angelehnt, wo elektrische Signale von Synapsen über Zellfortsätze zum Zellkern und wieder hinaus geleitet werden. „Die Theorien dazu sind schon seit Jahrzehnten im Umlauf, aber erst mit der Rechenleistung heutiger Computer wurde das Modell praktikabel“, kommentiert Schirrmeister.

Typischerweise wird die Genauigkeit des Modells mit einer größeren Anzahl von Verarbeitungsschichten besser. Bis zu 31 kamen bei der Studie zum Einsatz. Dabei spricht man von „Deep Learning“. Problematisch jedoch war bisher der Umstand, dass die Verschaltung eines Netzwerks nach dem Lernvorgang kaum noch interpretierbar ist. Alle algorithmischen Prozesse passieren unsichtbar im Hintergrund. Deshalb veranlassten die Wissenschaftlerinnen und Wissenschaftler die Software dazu, Karten zu erstellen, anhand derer sie die Dekodierungsentscheidungen nachvollziehen konnten. Jederzeit können die Forschenden dem System neue Datensätze hinzufügen. „Im Unterschied zu bisherigen Verfahren können wir direkt an die Rohsignale gehen, die das EEG vom Gehirn aufnimmt. Dabei ist unser System mindestens genauso präzise oder sogar besser“, fasst Versuchsleiter Tonio Ball den wissenschaftlichen Wert der Studie zusammen. Das Potenzial der Technologie ist noch nicht ausgeschöpft – der Forscher möchte sie mit seiner Gruppe weiterentwickeln: „Unsere Vision für die Zukunft sind selbstlernende Algorithmen, die in der Lage sind, unterschiedlichste Absichten des Nutzers noch zuverlässiger und schneller anhand seiner Hirnsignale zu erkennen. Außerdem könnten solche Algorithmen künftig die neurologische Diagnostik unterstützen.“

Originalveröffentlichung
Schirrmeister RT, Springenberg JT, Fiederer LDJ, Glasstetter M, Eggensperger K, Tangermann, M, Hutter F, Burgard W, Ball T; Deep learning with convolutional neural networks for EEG decoding and visualization. 2017 Hum Brain Mapp. DOI: 10.1002/hbm.23730.

BrainLinks-BrainTools
www.brainlinks-braintools.uni-freiburg.de

Die Ampel im Gehirn

5 Unterregionen des präfrontalen Cortex in der Bewegungsentscheidung identifiziert

Die Ampel im Gehirn

Die Entscheidung, wann das Gehirn auf einen externen Reiz mit der Unterdrückung von Handlungsimpulsen reagiert und wann nicht, hängt ganz maßgeblich vom Gleichgewicht zwischen Arealen der Bewegungshemmung und -erregung im präfrontalen Cortex (PFC) ab. Neuronale Verknüpfungen an der Stirnseite der Großhirnrinde sorgen dafür, dass sich das Gehirn bewusst für oder gegen eine Reaktion entscheiden kann. Wie die einzelnen Areale des präfrontalen Cortex in diesem Prozess zusammenwirken und welche jeweilige Rolle ihnen dabei zukommt, war bisher unbekannt. Ein internationales Team um die Freiburger Forscherin Stefanie Hardung aus der Arbeitsgruppe vo, einem Mitglied des Exzellenzclusters BrainLinks-BrainTools und des Bernstein Center Freiburg, hat jetzt die Rolle von fünf Unterregionen des präfrontalen Cortex in der Bewegungsentscheidung identifiziert. Die Ergebnisse wurden im Fachmagazin „Current Biology“ veröffentlicht. Die Studie könnte vor allem für die weitere Erforschung von Erkrankungen mit Impulskontrollstörung von Bedeutung sein.