zetknięta palcem wskazującym ręka ludzka z ręką robota

Sztuczna inteligencja przekształca sygnały z mózgu na zdania

Dzięki zastosowaniu sztucznej inteligencji udało się przekształcić odczytywane z mózgu sygnały na zrozumiałą mowę – informuje „Nature”.

Jak zaznaczają autorzy technologii, nie jest ona jeszcze na tyle dokładna, aby dało się z niej korzystać poza laboratorium, jednak urządzenie może syntetyzować całe zdania, które są w większości zrozumiałe.

Co podkreślają komentujący nowe osiągniecie eksperci, wcześniej naukowcy wykorzystywali sztuczną inteligencję do tłumaczenia aktywności mózgu na pojedyncze słowa, głównie składające się z jednej sylaby. Przeskok od pojedynczych sylab do zdań jest imponującym osiągnięciem.

Wiele osób, które utraciły zdolność mówienia komunikuje się za pomocą technologii, która wybiera litery lub słowa dzięki wykonywaniu niewielkich ruchów kontrolujących kursor na ekranie. Sławnym przykładem był brytyjski fizyk Stephen Hawking, który cierpiał na chorobę neuronów ruchowych. Używał syntezatora mowy aktywowanego przez mięsień w policzku.

Ponieważ używając podobnych urządzeń, trzeba wypisywać słowa litera po literze, metoda jest bardzo powolna – umożliwia wypowiedzenie do dziesięciu słów na minutę. Zdrowe osoby wypowiadają przeciętnie około 150 słów na minutę.

Eksperyment dr. Changa

Dr Edward Chang i jego zespół z University of California w San Francisco postanowił naśladować przy pomocy sztucznej inteligencji działanie części mózgu odpowiedzialnej za przekształcenie elektrycznych sygnałów mózgu na polecenia dla aparatu mowy – języka, warg, szczęki i krtani.

Naukowcy pracowali z pięcioma osobami, którym w ramach leczenia padaczki na powierzchnię mózgu wszczepiono elektrody. W pierwszej fazie badań aktywność mózgu była rejestrowana, gdy uczestnicy czytali na głos setki zdań. Następnie Chang i jego koledzy połączyli te nagrania z danymi z poprzednich eksperymentów, które badały, w jaki sposób ruchy języka, warg, szczęki i krtani wytwarzają dźwięk.

Naukowcy użyli tych danych do wyszkolenia algorytmu uczenia głębokiego, a następnie włączyli program do swojego dekodera. Urządzenie przekształca sygnały mózgowe w odpowiednik ruchów elementów traktu głosowego, po czym zamienia te ruchy w syntetyczną mowę. Jak zaznacza dr Chang, ludzie, którzy słuchali 101 syntezowanych zdań mogli zrozumieć średnio 70 proc. słów.

W kolejnym eksperymencie naukowcy poprosili jednego z uczestników o przeczytanie na głos zdań, a następnie o „wypowiedzenie” tych samych zdań z poruszaniem ustami, jednak bez wytwarzania dźwięku. Zdania zsyntetyzowane w tym teście były niższej jakości niż zdania stworzone na podstawie słyszalnej mowy, jednak zdaniem doktora Changa, wyniki są nadal zachęcające.

Udostępnij poprzez:
Share on FacebookShare on Google+Pin on PinterestTweet about this on TwitterShare on LinkedInShare on StumbleUponShare on TumblrEmail this to someone

Zostaw komentarz:

Twój email nie będzie upubliczniony.