TI/Interfejsy mózg-komputer

Z Brain-wiki

slajdy

Wywiad o BCI

Wywiad przeprowadzony przez Wojciecha Brzezińskiego dla Tygodnika Powszechnego przed wykładem na Copernicus Festiwal


Prof. Piotr Durka z Wydziału Fizyki Uniwersytetu Warszawskiego nie zgadza się z nazywaniem technologii, nad którą pracuje od lat, “czytaniem w myślach”. Mówi raczej o “odgadywaniu intencji”. Jednak nawet przy takim ograniczeniu, interfejsy mózg-komputer (znane też pod anglojęzycznym skrótem BCI, od Brain-Computer Interface), pozwalające wydawać urządzeniu polecenia bez angażowania mięśni, mogą pozwolić nam komunikować się z ludźmi, którzy dotąd żyli w zupełnie zamkniętym świecie. Badacz, który w 2008 r. przeprowadził pierwszą w Polsce demonstrację interfejsu mózg-komputer, w roku 2012 prezentował najszybszy interfejs BCI na targach CeBIT a potem założył firmę, dostarczającą w pełni polską, kompletną technologię BCI (sprzęt i oprogramowanie). Aktualnie współpracuje m.in. z Kliniką Budzik, opiekującą się pacjentami po ciężkich urazach mózgu. Prof. Durka będzie jednym z głównych prelegentów tegorocznego Festiwalu Copernicus.


Wojciech Brzeziński: Skoro mamy mówić o interfejsach, mózg-komputer, to chyba nie możemy zacząć inaczej niż od doniesień za Wielkiej Wody. Elon Musk, który od lat zapowiadał, że jego firma Neuralink stworzy “cyfrową telepatię” ogłosił, że mają pierwszego pacjenta, który za pomocą wszczepionych do mózgu elektrod jest w stanie kontrolować kursor na ekranie laptopa. Czy to jest przełom, czy po prostu marketing?

Prof. Durka: Podobne dokonania widzieliśmy już 20 lat temu, więc to nie jest nic nowego. W Polsce robimy podobne eksperymenty od 2008 r. I to bez robienia dziur w czaszce, tylko posługując się starym, dobrym elektroencefalogramem (EEG). Faktem jest, ze marketing Muska działa — między innymi dzięki temu przychodzi do nas na Neuroinformatykę (specjalność na Wydziale Fizyki UW) coraz więcej młodych ludzi, którzy zainteresowali się tym, co tak naprawdę za tym stoi. Na dzień dzisiejszy jedynym jakościowym wkładem firmy Neuralink jest urządzenie do wszczepiania elektrod do tkanki mózgowej.


Robot, który ma precyzyjnie osadzać te elektrody w mózgu.

Rejestracja sygnałów z wnętrza lub z powierzchni mózgu, czyli elektrokortykografia, znana jest od dziesięcioleci. Neuralink stworzył robota, który wprowadza do mózgu większą niż wcześniej liczbę elektrod, omijając naczynia krwionośne, a na koniec urządzenie działa bezprzewodowo. Ale wciąż jest to zaledwie usprawnienie znanej techniki. Podstawowym problemem, jaki napotykamy chcąc łączyć mózg z komputerem, jest zrozumienie tego, jak mózg działa.


Dopóki tego nie zrozumiemy, nie ma co liczyć na cyberprzestrzeń z “Matrixa”.

Ewolucja nie wykształciła gniazdka, do którego moglibyśmy się podłączyć. Podłączone “” fabrycznie” do mózgu kanały wyjściowe to mowa, gestykulacja, mięśnie. Porozumiewamy się za pomocą mięśni — mówimy, piszemy, ruszamy myszką. Wejścia też mamy: uszy, oczy, dotyk. Sama wtyczka do mózgu sprawy nie załatwia. Wyobraźmy sobie, że neandertalczyk znalazł laptopa, i chce się chce się z nim połączyć. Robi dziurę w obudowie, wciska kabel — i co dalej? Nie wie, jak porozumieć się z maszyną, nie zna protokołu. My też nie znamy protokołu, jakim się można sensownie łączyć z mózgiem pomijając wykształcone przez ewolucję wymienione powyżej kanały, i nie wiadomo, czy kiedykolwiek poznamy. Jest takie powiedzenie, że gdyby mózg był wystarczająco prosty, żebyśmy go byli w stanie zrozumieć, to bylibyśmy na to za głupi.


Jak w takim razie działa interfejs mozg-komputer?

Nie potrafimy czytać myśli, ale czasami możemy w aktywności mózgu dostrzec ślady świadomie generowanych intencji. Na przykład:

Na ekranie migają słowa “tak” i “nie”, a ja, jako badany liczę w głowie, ile razy mignęło to słowo, które chciałbym wybrać. Dzięki świadomej koncentracji uwagi na wybranym symbolu, w chwilach jego prezentacji w mózgu pojawia się tak zwany uwagowy potencjał wywołany, widoczny w EEG. Nie pojawia się w odpowiedzi na bodziec, na który nie zwracaliśmy uwagi. Odczytując te potencjały możemy przekazać do komputera jeden wybór, czyli bit, 0 albo 1, tak lub nie — bezpośrednio z mózgu, bez pośrednictwa mięśni. A to już dużo, bo pozwala na przykład choremu, który nad mięsniami nie panuje, przekazać informację “boli - nie boli”. Z bitów możemy składać litery, słowa…


Jak szybki jest tutaj postęp?

Niewielki. W szybkości przekazywania informacji przez ponad ćwierć wieku doszliśmy od pojedynczych liter na minutę do kilkunastu. Choć w tym wyścigu konstruowane są też szybsze, jednostkowe systemy, opierające się na przykład na elektrodach wkłuwanych w korę ruchową. Algorytm trenowany jest na setkach zdań, których pisanie wyobraża sobie badany. Przy dużym zbiorze uczącym, zawierającym zadane teksty, których pisanie wyobrażał sobie pacjent, i odpowiadające im aktywności w korze ruchowej, udaje się znaleźć prawidłowości, pozwalające potem na statystyczne przewidywanie słów, których pisanie wyobraża sobie ta konkretna osoba, dla której algorytm tworzono. Dla innych osób czy inaczej wkłutych elektrod ten algorytm nie będzie już działał, ale wystarczy na potrzeby rekordu Guinessa (aktualnie 78 słów na minutę). Przypominanam, że to wciąż nie jest czytanie myśli, tylko świadomie generowanych wyobrażeń ruchów ręki. I nie działa bez dużego zbioru uczącego, który musi świadomie wygenerować konkretny użytkownik, oraz treningu. I wymaga otwarcia czaszki dla wszczepienia elektrod…


Czyli jednak Neuralink?

Ok, w takich przypadkach urządzenie Neuralink ułatwi procedurę, ale powtarzam, że nie jest to żaden jakościowy przełom. Elektrokortykografia jest nie tylko stosowana od dawna w praktyce klinicznej, ale jest wręcz jedną z pierwszych technik, którymi badano czynność elektryczną mózgu. Używając tej właśnie techniki na otwartych mózgach zwierząt doświadczalnych, polscy naukowcy Adolf Beck i Napoleon Cybulski de facto odkryli EEG. Gdyby nie przypadek historyczny, zamiast “elektroencefalogram” powinniśmy mówić “aktywny prąd niezależny”, bo tak właśnie zjawisko to nazwał Adolf Beck. Wyniki swoje opublikował w międzynarodowym czasopiśmie Centralblatt für Physiologie w roku 1890, po czym okazalo się, że w roku 1875 brytyjski badacz Richard Caton, w raporcie z grantu z badań potencjałów na powierzchni kory mózgowej kotów i królików podczas ruchów i prostych czynności, umieścił słynne dzisiaj stwierdzenie “słabe prądy przechodzą przez wzmacniacz (...)” nawet pod nieobecność tych ruchów. Na podstawie tego zdania to właśnie Catonowi przypisuje się odkrycie EEG.

Dogłębne i pionierskie badania Polaków stały się jednymi z fundamentów współczesnej neurofizjologii — poświęcona im jest niemal połowa książki Mary Brazier o pierwszym półwieczu badań czynności elektrycznej mózgu. Natomiast EEG jako takie ma już 100 lat. W 1924 r. Niemiecki psychiatra Hans Berger wykonał pierwsze rejestracje aktywności elektrycznej mózgu z powierzchni głowy. Od tego czasu w rejestracji EEG też właściwie nie widać jakościowych przełomów. Mamy oczywiście lepszą jakość sygnału i łatwiejszy w obsłudze sprzęt, więcej elektrod, rejestrację cyfrową — ale sygnał ten sam co 100 lat temu. I nadal jest najlepszym oknem, przez które możemy podglądać działający mózg. Elektroencefalografia nie wymaga specjalnie drogiej aparatury, jest nieinwazyjna i jest praktycznie jedyną techniką, która ma rozdzielczość czasową odpowiadającą skali czasowej procesów neuronalnych. Problemem jest jednak to, że interpretacja EEG jest bardzo trudna i wymaga długiego szkolenia. Wobec pojawienia się nowych metod obrazowania medycznego, takich jak funkcjonalny jądrowy rezonans magnetyczny czy pozytonowa tomografia emisyjna, EEG zaczęło tracić na popularności. I dopiero wzrost zainteresowania interfejsami mózg-maszyna na przełomie stuleci spowodował jego renesans.


Czy wszystkie cyberpunkowe wizje możemy włożyć między bajki?

Nie, cyberpunkowe wizje są fajne, chociażby dlatego, że dają nam język do rozmawiania o nowych technologiach i granicach wiedzy. Ich pozytywną rolą jest też zainteresowanie błyskotliwych młodych ludzi neuroinformatyką.


Czy możemy spodziewać się, że w tych badaniach nastąpi taki przełom technologiczny, jaki ostatnio obserwujemy np. w pracach nad sztuczną inteligencją?

Nie — ale trzeba zaznaczyć, że to jest moja opinia. Tutaj efekt skali (czyli wzrostu dostępności danych i mocy obliczeniowych) jest zupełnie inny niż w sztucznych sieciach neuronowych i dużych modelach językowych, określanych nie wiedzieć czemu mianem “sztucznej inteligencji”. Pokory uczy choćby historia Henry Markrama — naukowca, który w ramach grantu wartego miliard euro obiecał symulację całego mózgu człowieka: w 2009 (na wykładzie w ramach TED) powiedział, że za 10 lat zamiast niego przyjdzie myślący hologram. Do dzisiaj oczywiście nie przyszedł.


To co dalej?

To samo co wcześniej: w mediach będą się od czasu do czasu pojawiać mniej lub bardziej związane z rzeczywistością doniesienia, szukający pieniędzy i popularności będą obiecywać rzeczy bardziej lub mniej niemożliwe, a naukowcy będą nadal (a) prowadzić badania podstawowe, i (b) pomagać w implementowaniu nowych wyników i technologii do rozwiązywania społecznie ważnych problemów:

Według WHO średnio co trzecia osoba na świecie cierpi na schorzenia neurologiczne, będące główną przyczyną chorób i niepełnosprawności. Bez choćby częściowego zrozumienia mechanizmów, które je powodują, nie polepszymy znacząco leczenia ani profilaktyki. Szansę na jakościowy postęp dają wyłącznie badania podstawowe, prowadzone i publikowane według naukowych standardów.

Problemów, w których rozwiązaniu technologie BCI mogą pomagać już dzisiaj (albo jutro) jest całkiem sporo: nawet jeśli ograniczymy się do kwestii medycznych, mamy choroby neurodegeneracyjne prowadzące do stanu zamknięcia, neurorehabilitację osób z przerwanym rdzeniem, pacjentów w stanach zaburzeń świadomości, …


Czyli konkretnie?

Konkretnie — pierwsze badania nad BCI były motywowane chorobami neurodegeneracyjnymi, takimi jak stwardnienie zanikowe boczne, które prowadzi do śmierci motoneuronów, czyli kabelków, przekazujących impulsy z mózgu do mięśni. Jak już ustaliliśmy, bez kontroli mięśni nie działają naturalne kanały komunikacji. Ale działa mózg, w którym kłębią się wszystkie niezałatwione sprawy i inne myśli, których nijak “na zewnątrz” przekazać się nie da — piekło na Ziemi. Chyba, że zbudujemy nowy kanał informacyjny, odczytując “output” bezpośrednio z mózgu. Wtedy BCI ma sens nawet bez szybkości na miarę rekordu Guinessa.

Inny przykładem, nad którym pracujemy od lat, jest diagnostyka pacjentów w stanach tzw. zaburzeń świadomości, zwanych potocznie śpiączką. Żeby ich terapia miała sens, konieczna jest ocena postępów — inaczej nie wiemy, czy pomagają. Klasycznie ta ocena opiera się na kontakcie z pacjentem: jeśli terapia ma usunąć ból, pytamy pacjenta czy po terapii mniej boli. A jeśli chcemy pomóc w przywróceniu świadomości u pacjenta, z którym nie ma (z definicji) kontaktu — jak spytać, jak ocenić skuteczność działań? Najlepiej byłoby informację o stanie mózgu “wyciągnąć” bezpośrednio z mózgu. Ale tu nie wystarczy skan CT czy MRI, bo na nim widać strukturę, a my chcemy ocenić działanie, czyli funkcję. I tu jednym z pomysłów jest właśnie technologia BCI. Jak pisaliśmy wcześniej, klasyczny sposób przekazywania intencji w BCI oparty jest o koncentrację uwagi na wybranym bodźcu. Ślad tej reakcji — bardziej lub mniej wyraźny — można odnaleźć w EEG. I właśnie w takim “odnajdywaniu śladów” BCI wniosły do nauki największe postępy.

Pierwsze badania tego typu prowadziliśmy w warszawskiej Klinice Budzik — pierwszym w Polsce wzorcowym szpitalu dla dzieci po ciężkich urazach mózgu. Jako jeden z testów pokazywaliśmy dzieciom zdjęcia ich ulubionych zabawek, a nagrany wcześniej głos rodzica prosił “policz, ile razy pojawił sie Batman, ale nie zwracaj uwagi na Króliczka”. Nie wiedzieliśmy, czy dziecko słyszy i rozumie tę prośbę, ani nawet czy widzi ekran. Ale jeśli po zbadaniu rejestrowanych potencjałów, okazywało się, że potencjał wywołany pojawianiem się Batmana był istotnie wyraźniejszy, niż potencjał wywołany obrazem Króliczka, to już była bardzo konkretna informacja: pacjent słyszy, widzi i rozumie polecenia! Oczywiście może się zdarzyć, że w trakcie badania dziecko jest zmęczone albo po prostu nie chce współpracować — wtedy potencjały się nie pojawią, więc wyniku negatywnego nie można traktować jako jednoznacznej diagnozy. Dlatego pracujemy też nad metodami, które z EEG “wyciągną” informacje bez konieczności czynnego udziału pacjenta.


Czyli odczytują myśli bez udziału pacjenta?

Nie, nie jest to absolutnie czytanie myśli bez zgody pacjenta! Możemy na przykład szukać w EEG wzorców znanych ze snu osób zdrowych: pojawienie się rytmu okołodobowego może być wskazówką, że mózg “wraca do zdrowia”. Mniej medialne, ale działa — na razie w kontekście naukowym. Do opracownia konkretnych procedur diagnostycznych potrzeba więcej badań i pewności — szczególnie w tak delikatnych i krytycznych kwestiach.


Ktoś, nie pamiętam kto, powiedział, że i tak wszyscy jesteśmy już cyborgami. Wszyscy mamy pamięć rozszerzoną przez Google'a, Facebooka i tak dalej, tylko interfejs jest fatalnie wolny.

Pamięć mamy rozszerzoną dzięki Internetowi i cyfrowemu dostępowi do informacji, które Google indeksuje, a Facebook czasem fałszuje. Dostęp jest całkiem szybki, i to faktycznie zmieniło znaczenie tak podstawowych pojęć jak wiedza czy erudycja. Dzisiaj nie musimy już znać wszystkich dat na pamięć, ani sięgać do grubych ksiąg — wystarczy sięgnąć do telefonu. Ale wiedza nie jest tożsama z inteligencją. Inteligencja i świadomość, choć trudne do zdefiniowania, wydają się wciąż cechą unikalną dla co najmniej organizmów żywych, pomimo zachwytów nad tzw. “sztuczną inteligencją”.

Czy jesteśmy cyborgami — to również zależy od definicji. Faktem jest, że większość z nas nie przeżyłaby bez współczesnych technologii, i że technologii używamy na codzień dla polepszenia jakości życia, ale ten proces trwa chyba od momentu, kiedy Praprzodek wziął do ręki kij, zapalił ognisko...