Urządzenie korzysta z fal umysłowych, aby pomóc sparaliżowanym mężczyznom w interakcji


Specjaliści z Harvardu Leigh Hochberg, a także Sydney Cash nazwali klinikę początkowo „prezentacją wprowadzającą”

Associated Press

  • Facebook
  • Twitter
  • Flipboard
  • Komentarze

zamknięte Najważniejsze nagłówki Fox News z 15 lipca Wideo

Fox News Flash wiodące nagłówki na 15 lipca

Nagłówki Fox News Flash są tutaj. Sprawdź, co klikasz na.com.

We wstępnym badaniu klinicznym naukowcy wykorzystali fale umysłowe sparaliżowanego mężczyzny, niezdolnego do mówienia, a także przekształcili to, co miał na myśli, w zdania na ekranie systemu komputerowego.

Z pewnością zajmie to lata dodatkowych badań naukowych, jednak badanie, ogłoszone w środę, wskazuje na istotne działanie w kierunku odzyskania jeszcze większej liczby całkowicie naturalnych interakcji dla osób, które nie mogą mówić w wyniku urazu lub choroby.

„Większość z nas przyjmuje za pewnik, jak łatwo komunikujemy się za pomocą mowy”, twierdzi dr Edward Chang, neurochirurg z Uniwersytetu Kalifornijskiego w San Francisco, który kierował tą pracą. „To ekscytujące myśleć, że jesteśmy na samym początku nowego rozdziału, nowej dziedziny”, aby złagodzić zagładę ludzi, którzy porzucili tę zdolność.

Dzisiaj osoby, które nie mogą mówić lub tworzyć w wyniku paraliżu, mają niezwykle minimalne środki interakcji. Na przykład mężczyzna biorący udział w eksperymencie, który nie był zdeterminowany, aby chronić swoją prywatność, używa przypomnienia połączonego z czapką bejsbolową, która pozwala mu przesuwać głowę, aby dotykać słów lub liter na wyświetlaczu. Inne gadżety mogą wywoływać ruchy oczu ludzi. Ale jest to frustrująco powolny, a także minimalny zamiennik mowy.

Podsłuchiwanie sygnałów umysłu, aby funkcjonować wokół upośledzenia, to ciepły obszar. W obecnych latach wypróbowywanie protez sterowanych umysłem pozwoliło sparaliżowanym osobom na drżenie rąk lub wypicie napojów za pomocą ramienia robota – wyobrażają sobie przemieszczanie się, a także te sygnały umysłowe są przekazywane za pośrednictwem systemu komputerowego do ręki lub nogi stworzonej przez człowieka.

Na tym zdjęciu z 2017 roku dostarczonym przez Uniwersytet Kalifornijski w San Francisco neurochirurg dr Edward Chang jest odzwierciedlony na monitorze komputerowym wyświetlającym skany mózgu podczas wykonywania operacji w UCSF.

Grupa Changa poprawiła tę pracę, aby stworzyć „neuroprotezę mowy” – tłumacząc fale umysłowe, które zwykle regulują system śpiewu, małe ruchy mięśni warg, szczęki, języka i gardła, które tworzą każdą spółgłoskę, a także samogłoskę.

System komputerowy oceniał wzorce, gdy próbował określić typowe słowa, takie jak „woda” lub „dobre”, ostatecznie ucząc się rozróżniania między 50 słowami, które mogą dać więcej niż 1,000 zdań.

Pojawiają się pytania typu „Jak się masz dzisiaj?” lub „Czy jesteś spragniony” narzędzie ostatecznie umożliwiło mężczyźnie zaadresowanie „Jestem bardzo dobry” lub „Nie, nie jestem spragniony” – nie wypowiadając słów, ale zrównując je bezpośrednio z wiadomością, jak donosiła grupa w New England Journal medycyny.

Słowa pojawiające się na wyświetlaczu po tym, jak mężczyzna próbuje je przejąć, potrzebują około 3 do 4 sekund, twierdzi główny pisarz David Moses, projektant w laboratorium Chang. To nie jest tak szybkie, jak mówienie, ale szybsze niż wywoływanie reakcji.

W nadchodzącym tekście specjaliści z Harvardu Leigh Hochberg, a także Sydney Cash nazwali to zadanie „pionierską demonstracją”.

Zalecili ulepszenia, jednak twierdzili, że jeśli innowacja okaże się, że ostatecznie może pomóc osobom z urazami, udarami lub chorobami, takimi jak stan Lou Gehriga, którego „mózgi przygotowują wiadomości do dostarczenia, ale te wiadomości są uwięzione”.

Laboratorium Chang zainwestowało lata w mapowanie zadania umysłowego, które powoduje mowę. Po pierwsze, naukowcy na chwilę umieszczają elektrody w umysłach ochotników poddających się zabiegom chirurgicznym na epilepsję, aby mogli dopasować zadanie umysłowe do wypowiadanych słów.

Dopiero potem nadszedł czas na wypróbowanie kogoś, kto nie potrafi mówić. Jak zrozumieli, że narzędzie właściwie przetłumaczyło jego słowa? Zaczęli od tego, że próbował wypowiadać określone zdania, takie jak „Proszę przynieść moje okulary”, zamiast odpowiadać na elastyczne zapytania, dopóki twórca nie nawrócił się dokładnie przez większość czasu.

Kolejne działania obejmują środki mające na celu zwiększenie szybkości działania narzędzia, jego precyzji, a także wymiaru słownictwa – a być może pewnego dnia także umożliwienie wygenerowania głosu komputerowego zamiast komunikatu na wyświetlaczu – podczas badania garstki dodanych ochotników.