Ministerstwo Edukacji i Nauki

29.11.2021
PL EN
29.04.2019 aktualizacja 29.04.2019

Sztuczna inteligencja przekształca sygnały z mózgu na zdania

Fot. Fotolia Fot. Fotolia

Dzięki zastosowaniu sztucznej inteligencji udało się przekształcić odczytywane z mózgu sygnały na zrozumiałą mowę - informuje "Nature”.

Jak zaznaczają autorzy technologii nie jest ona jeszcze na tyle dokładna, aby dało się z niej korzystać poza laboratorium, jednak urządzenie może syntetyzować całe zdania, które są w większości zrozumiałe.

Co podkreślają komentujący nowe osiągniecie eksperci, wcześniej naukowcy wykorzystywali sztuczną inteligencję do tłumaczenia aktywności mózgu na pojedyncze słowa, głównie składające się z jednej sylaby. Przeskok od pojedynczych sylab do zdań jest imponującym osiągnieciem.

Wiele osób, które utraciły zdolność mówienia komunikuje się za pomocą technologii, która wybiera litery lub słowa dzięki wykonywaniu niewielkich ruchów kontrolujących kursor na ekranie. Sławnym przykładem był brytyjski fizyk Stephen Hawking, który cierpiał na chorobę neuronów ruchowych. Używał syntezatora mowy aktywowanego przez mięsień w policzku.

Ponieważ używając podobnych urządzeń trzeba wypisywać słowa litera po literze, metoda jest bardzo powolna - umożliwia wypowiedzenie do dziesięciu słów na minutę. Zdrowe osoby wypowiadają przeciętnie około 150 słów na minutę.

Dr Edward Chang i jego zespół z University of California w San Francisco postanowił naśladować przy pomocy sztucznej inteligencji działanie części mózgu odpowiedzialnej za przekształcenie elektrycznych sygnałów mózgu na polecenia dla aparatu mowy - języka, warg, szczęki i krtani.

Naukowcy pracowali z pięcioma osobami, którym w ramach leczenia padaczki na powierzchnię mózgu wszczepiono elektrody. W pierwszej fazie badań aktywność mózgu była rejestrowana, gdy uczestnicy czytali na głos setki zdań. Następnie Chang i jego koledzy połączyli te nagrania z danymi z poprzednich eksperymentów, które badały, w jaki sposób ruchy języka, warg, szczęki i krtani wytwarzają dźwięk.

Naukowcy użyli tych danych do wyszkolenia algorytmu uczenia głębokiego, a następnie włączyli program do swojego dekodera. Urządzenie przekształca sygnały mózgowe w odpowiednik ruchów elementów traktu głosowego, po czym zamienia te ruchy w syntetyczną mowę. Jak zaznacza dr Chang ludzie, którzy słuchali 101 syntezowanych zdań mogli zrozumieć średnio 70 proc. słów.

W kolejnym eksperymencie naukowcy poprosili jednego z uczestników o przeczytanie na głos zdań, a następnie o „wypowiedzenie” tych samych zdań z poruszaniem ustami, jednak bez wytwarzania dźwięku. Zdania zsyntetyzowane w tym teście były niższej jakości niż zdania stworzone na podstawie słyszalnej mowy, jednak zdaniem doktora Changa wyniki są nadal zachęcające.(PAP)

Autor: Paweł Wernicki

pmw/ ekr/

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

Copyright © Fundacja PAP 2021