Für Menschen mit schweren Lähmungen bis zum Locked-In-Syndrom können Hirn-Computer-Schnittstellen eine Möglichkeit eröffnen, wieder mit ihrer Umwelt zu kommunizieren. Dabei setzt ein Computer bestimmte Muster der Hirnaktivität in Sprache um. Bisherige Geräte nutzen dabei meist vorgestellte Bewegungen. Nun haben Forscher ein System getestet, das diesen Umweg nicht benötigt: Es erkennt direkt die Gedanken an Buchstaben. In Kombination mit einem umfangreichen integrierten Wörterbuch soll das die Bedienung intuitiver und schneller machen.
Schwere neurologische Schäden, die beispielsweise durch einen Schlaganfall oder durch die fortschreitende Krankheit Amyotrophe Lateralsklerose (ALS) verursacht werden, können dazu führen, dass die Betroffenen keinerlei Kontrolle mehr über die Muskeln ihres Körpers haben. Menschen, die mit dem sogenannten Locked-In-Syndrom leben, sind zwar im Vollbesitz ihrer geistigen Kräfte, können sich aber nicht mehr verständlich machen, da sie weder sprechen noch sich bewegen können. Mit Hilfe von Hirn-Computer-Schnittstellen versuchen Forscher, ihnen wieder Kontakt zur Außenwelt zu ermöglichen. Bisherige Systeme haben allerdings den Nachteil, dass die Bedienung meist wenig intuitiv ist und außerdem jede einzelne Eingabe sehr lange dauert.
Natürliche Kommunikation ermöglichen
Ein Team um Sean Metzger von der University of California in San Francisco hat nun ein System entwickelt, das im Vergleich zu früheren Modellen schneller und intuitiver zu bedienen sein soll und dabei eine geringe Fehlerrate aufweist. „Bestehende Hirn-Computer-Schnittstellen für die Kommunikation beruhen in der Regel darauf, imaginäre Arm- und Handbewegungen in Buchstaben zu dekodieren, um das Buchstabieren der beabsichtigten Sätze zu ermöglichen“, erklären die Forscher. „Obwohl auch dieser Ansatz schon vielversprechende Ergebnisse geliefert hat, kann die direkte Dekodierung von Sprachversuchen zu Sprache natürlicher und schneller sein.“
Um dies zu ermöglichen, trainierten Metzger und seine Kollegen ein System darauf, zu erkennen, an welchen Buchstaben eine Person gerade denkt. Der Proband war ein 36-jähriger Mann, der aufgrund eines Schlaganfalls spastisch gelähmt ist und nicht mehr sprechen kann. Da er noch in der Lage ist, seinen Kopf zu bewegen, kommuniziert er im Alltag mit Hilfe eines auf diese Weise gesteuerten Sprachcomputers. Für Versuche mit Hirn-Computer-Schnittstellen implantierten ihm die Forscher mit seiner Einwilligung Elektroden in die Bereiche seines Gehirns, die mit Sprache assoziiert sind. In einer früheren Studie hatte er damit bereits ein System getestet, bei dem der Computer bis zu 50 Wörter entschlüsseln konnte, wenn der Proband versuchte, sie laut auszusprechen. Aufgrund seiner Lähmung war dies für ihn allerdings mit erheblicher Anstrengung verbunden und das Vokabular war begrenzt.
Gedachte Buchstaben
Das neue System ist dagegen in der Lage, im Stillen gedachte Buchstaben zu erkennen. Dabei brachten Metzger und seine Kollegen dem Probanden bei, den NATO Buchstabiercode zu nutzen, also beispielsweise „Alpha“ für A, „Charlie“ für C und „November“ für N. Sie erfassten jeweils seine genaue Hirnaktivität, wenn er diese Buchstabencodes dachte, und trainierten damit die selbstlernende künstliche Intelligenz. Für den eigentlichen Versuch legten sie dem Probanden 75 verschiedene Sätze vor, die er nacheinander buchstabieren sollte. Zudem stellten sie ihm einige Fragen, auf die er mit Hilfe der Hirn-Computer-Schnittstelle antworten sollte.
Die Software wertete dabei in Echtzeit seine Hirnsignale aus und glich sie zudem mit einem integrierten Wörterbuch mit 1152 Vokabeln ab, um herauszufinden, welcher Buchstabe und welches Wort am wahrscheinlichsten sind. Auf diese Weise erreichte das System eine relativ geringe Fehlerquote pro Zeichen von 6,13 Prozent. Im Vergleich zu seinem im Alltag genutzten Sprachcomputer, mit dem der Proband etwa 17 Zeichen pro Minute eingeben kann, war er mit dem neuen Gerät deutlich schneller: Im Durchschnitt schaffte er 29,4 Zeichen pro Minute. Um das Buchstabieren zu starten, genügte es, wenn sich der Proband vorstellte, zu sprechen. Beenden konnte er das Programm durch eine gedachte Handbewegung.
Erweitertes Wörterbuch
In weiteren Versuchen, in denen die Forscher die Spracherkennungsfähigkeiten der Software ohne den Probanden testeten, erweiterten sie das integrierte Wörterbuch auf über 9000 Vokabeln. Die Zeichen-Fehlerrate stieg dabei nur geringfügig auf 8,23 Prozent an. „Diese Ergebnisse zeigen die klinische Nutzbarkeit einer Sprachprothese zur Generierung von Sätzen aus einem großen Wortschatz durch einen buchstabierbasierten Ansatz und ergänzen frühere Demonstrationen der direkten Dekodierung von ganzen Wörtern“, fassen die Autoren zusammen. In zukünftigen Studien wollen sie den Ansatz mit weiteren Probanden validieren.
Quelle: Sean Metzger (University of California, San Francisco) et al., Nature Communications, doi: 10.1038/s41467-022-33611-3
Neuroprothese setzt Hirnaktivität in Buchstaben um - wissenschaft.de
Read More
No comments:
Post a Comment