EEG:Skrypt/Wersja do druku

Z edu
brain.fuw.edu.pl/edu / EEG > Skrypt/Wersja do druku

Spis treści

Mózg

Mózg

Mózg nie od zawsze był uznawany za organ godny zainteresowania. Arystoteles (384–322 p.n.e.) uważał, że mózg służy jedynie do chłodzenia krwi — faktycznie, kształty obnażonych fałdów kory mózgowej można skojarzyć z chłodnicą :-). W starożytnym Egipcie mózg był usuwany podczas mumifikacji, podczas gdy serce i inne organy wewnętrzne były starannie zachowywane. Ale już Hipokrates (460–377 p.n.e.) stwierdził: Trzeba wiedzieć, że z mózgu samego płyną nasze przyjemności, radości, śmiech, wesołość, a także nasze smutki, bóle, żałości i łzy...

(1)
Schematyczny rysunek neuronu

Choć nadal nie rozumiemy do końca jego działania, dzisiaj wiemy o mózgu o wiele więcej. Składa się z prawie biliona (1012) komórek nerwowych, czyli neuronów (rys. 1) i wspomagających ich pracę komórek glejowych, których jest dziesięciokrotnie więcej. Każdy neuron może się łączyć, przez wypustki zwane aksonami (rys. 2), nawet z ponad dziesięcioma tysiącami innych neuronów. Miejsce połączenia zakończenia aksonu z ciałem następnego neuronu zwane jest synapsą. Przetwarzanie informacji w neuronie opiera się na sumowaniu potencjałów postsynaptycznych, powstających w odpowiedzi na impulsy dochodzące z zakończeń aksonów innych neuronów. Jeśli wypadkowy potencjał przekroczy próg, generowany jest impuls, który przemieszcza się wzdłuż aksonu jako potencjał czynnościowy. Gdy dotrze do synapsy, pobudza kolejny neuron drogą chemiczną, dzięki neurotransmiterom (wyjątkiem są synapsy elektryczne, występujące częściej niż sądzono pierwotnie [5]). Jeśli suma wygenerowanych w ten sposób potencjałów postsynaptycznych przekroczy próg pobudzenia, generowany jest kolejny potencjał czynnościowy, który przemieszcza się... itd.

(2)
Neurony (komórki móżdżku) - rysunek z „Estructura de los centros nerviosos de las aves”, Santiago Ramon y Cajal, Madrid, 1905

Techniki obrazowania aktywności mózgu

Najpopularniejsze ostatnio techniki obrazowania czynności mózgu opierają się na prostym spostrzeżeniu, że intensywnie pracująca komórka, która bierze udział w przetwarzaniu informacji generując potencjały czynnościowe, potrzebuje do tego energii, a więc tlenu. Podobnie jak do wszystkich innych komórek, tlen dostarczany jest do neuronów za pośrednictwem krwi, w której nośnikiem tlenu jest hemoglobina. Zwiększone zapotrzebowanie na tlen w pewnym obszarze powoduje zwiększony przepływ krwi w tym obszarze. Prowadzi to do lokalnych zmian w stężeniu oxy- i deoxyhemoglobiny. W zależności od utlenienia, hemoglobina (oxyHb/deoxyHb) ma różne właściwości magnetyczne, jak również inną absorpcję światła w bliskiej podczerwieni. Te różnice wykorzystywane są w funkcjonalnym jądrowym rezonansie magnetycznym (functional Magnetic Resonance Imaging, fMRI) i spektroskopii bliskiej podczerwieni (Near Infrared Spectroscopy, NIRS). Obrazują one z dobrą rozdzielczością przestrzenną obszary o wzmożonym metabolizmie. Jednak metabolizm w mózgu jest tylko pośrednio związany z faktycznym przetwarzaniem informacji w mózgu, które, jak opisano powyżej, zachodzi za pośrednictwem impulsów elektrycznych. Maksimum odpowiedzi hemodynamicznej (tj. odpowiedzi związanej z przepływem krwi) występuje zwykle kilka sekund później niż maksimum aktywności elektrycznej neuronów.

(3)
Różne techniki obrazowania mózgu w sali przestrzennej i czasowej. Oznaczenia: EEG – elektroencefalografia, MEG – magnetoencefalografia, NIRS - spektroskopia bliskiej podczerwieni, (f)MRI – (funkcjonalny) rezonans magnetyczny, CT – tomografia komputerowa, PET – pozytonowa tomografia emisyjna, VSD – voltage sensitive dyes, patch clamp - technika „łatkowa”. Jak widać EEG i MEG charakteryzuje się ograniczoną rozdzielczością przestrzenna, doskonałą rozdzielczością czasową i szerokim zakresem w skali czasowej.

Pozytonowa tomografia emisyjna (Positron Emission Tomography, PET) pozwala, dzięki specyficznym znacznikom radioizotopowym wstrzykiwanym do krwi, na śledzenie obszarów mózgu o wzmożonej aktywności ale oferuje znacznie niższą rozdzielczość czasową i obciąża pacjenta promieniowaniem. Tomografia komputerowa (Computer Tomography, CT), podobnie jak opierająca się na tych samych zjawiskach fizycznych fotografia Rentgenowska, może obrazować tylko strukturę, a nie funkcjonowanie mózgu. Poza tym, absorpcja promieniowania rentgenowskiego znacznie lepiej różnicuje kości niż tkanki miękkie. Spośród wielkości, które potrafimy mierzyć, najbardziej bezpośrednio skorelowane z przetwarzaniem informacji przez mózg są ślady potencjałów postsynaptycznych, czyli opisywane w tym skrypcie sygnały EEG i MEG. Specjalne elektrody, wszczepiane do mózgu, pozwalają mierzyć lokalne potencjały polowe (LFP) pochodzące od prądów postsynaptycznych w pewnym obszarze. Jest to jednak metoda drastycznie inwazyjna, podobnie jak zapisy in vivo z elektrod wszczepianych do pojedynczych komórek nerwowych zwierząt doświadczalnych, pozwalające mierzyć występowanie potencjałów czynnościowych. Napięciowoczułe barwniki (voltage sensitive dyes, VSD) pozwalają rejestrować zmiany napięcia na błonach komórkowych pojedynczych neuronów lub ich populacji. Są jednak stosowane tylko do preparatów tkanki mózgowej in vitro. Podobnie jak technika "łatkowa" (patch clamp) będąca w stanie mierzyć aktywność pojedynczych kanałów jonowych w błonie komórkowej neuronu, umieszczonego w probówce. Jak widać na rys. 3, technika EEG i MEG charakteryzuje się bardzo dobrą rozdzielczością czasową i dużą rozpiętością czasową badanych zjawisk. Rozdzielczość przestrzenna jest ograniczona z powodu przestrzennego uśredniania aktywności dużych populacji neuronów dających przyczynek do zapisów EEG/MEG. Przy swoich dużych zaletach, niski koszt aparatury EEG powoduje, ze technika ta jest szeroko stosowanym narzędziem badawczym i klinicznym.


następny>


Elektroencefalogram czyli EEG

<poprzedni

Wśród metod badawczych neurofizjologii, elektroencefalogram (EEG) wyróżnia się najdłuższą historią zastosowań klinicznych, najniższym kosztem, całkowitą nieinwazyjnością i najwyższą rozdzielczością czasową. Dwie ostatnie cechy wykazuje również magnetoencefalografia (magnetoencephalography MEG), oparta na zapisie pól magnetycznych generowanych przez płynące w mózgu prądy. Jednak ich zapis wymaga stosowania drogiej i nieprzenośnej aparatury (zob. rozdział Fizyczne i techniczne aspekty rejestracji sygnałów bioelektrycznych), więc na razie skoncentrujemy się na EEG. Aby zrozumieć stan aktualny zaczniemy od historii.

(4)Luigi Galvani
(1737-1798)

Pionierzy badań nad bioelektrycznością

Początki badania bioelektryczności sięgają okresu jedności nauk przyrodniczych. W roku 1786 Luigi Galvani (rys. 4) wykonał słynne doświadczenie: wykazał, że jednoczesne dotknięcie mięśnia wypreparowanej kończyny żaby dwoma (połączonymi ze sobą) różnymi metalami wywołuje skurcz. Mimo błędnej interpretacji, doświadczenie to wpłynęło stymulująco na badania elektryczności — prawidłową interpretację podał Alessandro Volta w roku 1796. Minęło 50 lat, nim do istoty „elektryczności zwierzęcej” zbliżył się Du Bois-Reymond, wykazując w roku 1848, że aktywności w nerwie obwodowym towarzyszy niezmiennie zmiana potencjału na jego powierzchni.

(5)Richard Caton
(1842-1926)

Pierwszy opis czynności elektrycznej mózgu pojawił się w roku 1875 w sprawozdaniu z grantu przyznanego przez British Medical Association (Brazier 1961). Richard Caton (rys. 5) wykazał korelację między prostymi czynnościami (ruch głową, przeżuwanie) a zmianą potencjału w odpowiednich obszarach kory mózgowej kotów i królików. Zawarte w raporcie zdanie feeble currents of varying directions pass through the multiplier when the electrodes are placed on two points of external surface... stanowiło ponadto pierwszy opis elektroencefalogramu. Jednak publikacje Catona w czasopiśmie czysto medycznym przeszły nie zauważone.

(6)Adolf Beck
(1863-1942) w szatach rektora Uniwersytetu we Lwowie (portret pędzla S. Batowskiego, 1934)
(7)Napoleon Nikodem Cybulsk
i (1854-1919)

W roku 1886 23-letni Adolf Beck (rys. 6) rozpoczął pracę na wydziale fizjologii Uniwersytetu Jagiellońskiego w Krakowie pod kierunkiem profesora Cybulskiego (rys. 7). W roku 1890 obronił rozprawę doktorską Oznaczenie lokalizacyi w mózgu i rdzeniu za pomocą zjawisk elektrycznych (Beck 1891). Podobnie jak inni, zajmujący się podówczas podobną tematyką, nie wiedział o wcześniejszych pracach Catona. Jednak rozprawa jego stanowiła znacznie głębsze studium problemu lokalizacji funkcji sensorycznych w mózgu jak i samego elektroencefalogramu (odkrył m. in. jego desynchronizację w odpowiedzi na bodźce). Wyniki te opublikował w najszerzej podówczas czytanym piśmie fizjologicznym — Centerblatt für Physiologie (Beck 1890). Jego krótki artykuł rozpętał burzę pretensji do palmy pierwszeństwa — m. in. Ernest Fleischl von Marxow dowodził, że obserwacje czynności elektrycznej mózgu spisał wcześniej w liście złożonym w... sejfie Cesarskiej Akademii Nauk w Wiedniu (był to pono zwyczaj podówczas nierzadki na niektórych uniwersytetach Europy). Beck odpowiedział skromnie, że technikę badania potencjałów nerwów i konstrukcję elektrod opracował Du Bois-Reymond, więc zastosowanie znanej techniki do rozwiązania nowego problemu nie zasługuje na miano odkrycia. Stwierdził ponadto, że motywem podjęcia tych eksperymentów był konkurs ogłoszony w październiku 1888 przez prof. Cybulskiego, który jest w związku z tym autorem idei. Dyskusję uciął Caton, cytując wspomniane powyżej sprawozdanie.

Głównym celem opisywanych wyżej badań było wykorzystanie elektrofizjologii do lokalizacji funkcji w mózgu. Wróćmy jednak do „ubocznego” ich efektu, czyli elektroencefalogramu, dla którego Beck zaproponował nazwę aktywny prąd niezależny, w odróżnieniu od prądów wywołanych stymulacją. Ogromne postępy w zakresie jego badania i interpretacji poczynił wspomniany już profesor Napoleon Nikodem Cybulski, choć wieloletni brak funduszy na sprzęt fotograficzny odebrał mu szansę na pierwszeństwo w opublikowaniu zdjęcia zapisu czynności elektrycznej mózgu.

Jak widać z tej historii, również w dziedzinie badań czynności elektrycznej mózgu stoimy na ramionach gigantów. Można też z niej wyciągnąć inne wnioski, niezmienne od lat: choć wiemy, że wyniki należy publikować w dobrych czasopismach o zasięgu międzynarodowym, to poziom finansowania nauki w Polsce czasem stawia nas na przegranej pozycji.

Aktywny Prąd Niezależny

Potencjały mózgowe mierzone z powierzchni skóry czaszki są zaledwie rzędu mikrowoltów, dlatego opisane w poprzednim podrozdziale eksperymenty prowadzono na odsłoniętych mózgach zwierząt, gdzie sygnał — mierzony w bezpośredniej bliskości źródeł, nie oddzielonych od elektrod płynem owodniowym, czaszką i skórą — był wystarczająco silny dla ówczesnych galwanometrów. Pierwszy zapis elektroencefalogramu człowieka (z powierzchni czaszki swego syna) uzyskał w roku 1925 Hans Berger, jednak wyniki trzymał w tajemnicy aż do skompletowania bogatego materiału, który opublikował w 1929 w artykule Über das Elektroenkephalogramm des Menschen (Berger 1929). Artykuł ten stanowi dziś klasykę elektroencefalografii klinicznej, rozpoczął również serię corocznych (do 1938) publikacji Bergera o niemal jednobrzmiących tytułach. Berger potwierdził występowanie w mózgu człowieka większości efektów opisywanych u zwierząt, odrzucił jednak zaproponowaną przez Włodzimierza Włodzimierzowicza Prawdzicz-Niemińskiego (który pierwszy opublikował w 1912 zdjęcie elektroencefalogramu) nazwę elektrocerebrogram jako barbarzyński zlepek greki i łaciny.

(8)
Współczesny program do wyświetlania i analizy wielokanałowych zapisów EEG. W aktywnym oknie widoczne widmo zaznaczonego fragmentu sygnału. System rozwijany w Uniwersytecie Warszawskim, dostępny na licencji GNU z http://svarog.pl
(9)
Okienko edycji montażu w programie Svarog.pl. Widoczne ustawienia odpowiadają montażowi bipolarnemu

W dniu dzisiejszym technologia zapisu EEG wykorzystuje doskonałe, specjalizowane elektroniczne mikrowoltomierze różnicowe, czyli elektroencefalografy. Zapewnia też wystarczające próbkowanie w czasie i przestrzeni: nawet tysiące Hz i 130 obserwowanych jednocześnie odprowadzeń (elektrod). Wiele do zrobienia pozostaje natomiast w dziedzinie analizy i interpretacji otrzymanych w ten sposób danych; na przykład w klinicznych zastosowaniach EEG postęp ostatnich dziesięcioleci EEG podsumować można wręcz jako przejście od analizy wzrokowej zapisów EEG na papierze do analizy wzrokowej EEG wyświetlanego na ekranie komputera — pomimo ogromnego rozwoju matematyki i informatyki podstawową metodą jest tu wciąż analiza wzrokowa (Nuwer 1997).

Jednym z usprawnień wprowadzonych przez cyfrową rejestrację EEG jest łatwa możliwość zmiany referencji (tzw. montażu) wyświetlanego sygnału. Dane rejestrowane są zwykle w postaci różnicy potencjałów między daną elektrodą a elektrodą odniesienia, jednak często wygodniej jest wyświetlać różnice potencjałów między wybranymi elektrodami (rys. 9).

EEG i MEG, czyli elektro- a magnetoencefalografia

Magnetoencefalografia jest techniką pozwalającą na pomiary pól magnetycznych indukowanych przez zmienne prądy płynące w mózgu. Pola magnetyczne generowane przez neurony są niezwykle małe rzędu 100-103 fT — rzędy wielkości mniejsze niż szum magnetyczny pochodzący ze środowiska (rzędu 108 fT). Do ich pomiaru wykorzystuje się niezwykle czułe sensory — nadprzewodzące interferometry kwantowe (ang. superconducting quantum interference devices (SQUIDs)). Zasadę działania aparatury MEG i jej zastosowania są opisane w rozdziale Magnetoencefalografia.

MEG i EEG mierzą ślady tych samych procesów elektrycznych zachodzących w mózgu. Jednak propagacja pola magnetycznego jest znacznie mniej zakłócana przez zmienne własności ośrodków pomiędzy źródłami (przybliżanymi zwykle modelem dipola prądowego) a czujnikami. Można powiedzieć, że granice tkanek, czaszki, skóry i powietrza, wpływające bardzo mocno na pole elektryczne, są dla pola magnetycznego przezroczyste. O ile w EEG widać aktywność wszystkich odpowiednio silnych źródeł, to MEG wykazuje tylko wkłady od źródeł dipolowych zorientowanych prostopadle do promienia kuli przybliżającej głowę.

Z dokładnością do powyższych różnic, struktury widoczne w sygnałach EEG i MEG są zwykle dość podobne. Dlatego również metody analizy obu tych sygnałów są praktycznie jednakowe, za wyjątkiem metod lokalizacji przestrzennej źródeł, opisanych w części Problem odwrotny w elektro- i magnetoencefalografii, w rozdziale Metody analizy sygnałów EEG - przykłady[1].

Literatura

Beck, A. Die Stroeme der Nervencentren. Centerblatt fuer Physiologie, 4: 572-573, 1890.

Beck, A. Oznaczenie lokalizacyi w mózgu i rdzeniu za pomoca zjawisk elektrycznych. W Rozpr. Wydz. mat.-przyr., numer I w Seria II: 186-232. Polska Akad. Um., 1891. Przedstawiono 20 października 1890.

Berger, H. Uber das Elektrenkephalogramm des Menschen. Arch. f. Psychiat., 87: 527-570, 1929.

Brazier, M. A. B. A History of the Electrical Activity of the Brain, The First Half-Century. Pitman Medical Publishing, 39 Parker Street, London W.C. 2, 1961.

Nuwer, M. Assessment of digital EEG, quantitative EEG, and EEG brain mapping: report of the American Academy of Neurology and the American Clinical Neurophysiology Society. Neurology, 49: 277-292, 1997.

następny>

Biofizyczne podstawy generacji sygnałów EEG

<poprzedni

W rozdziale tym poznamy mechanizmy neuronalne odpowiedzialne za powstawanie potencjałów na czaszce, mierzonych jako sygnały EEG. Rozdział ten jest opracowany w oparciu o Nunez (1981, 1995, 2006).

Własności tkanki nerwowej

Na początku zajmijmy się własnościami tkanki nerwowej, w której generowane są potencjały. Tkanka nerwowa składa się neuronów przekazujących impulsy nerwowe oraz komórek glejowych wspomagających działanie neuronów. W komórkach występuje płyn wewnątrzkomórkowy, a na zewnątrz, płyn zewnątrzkomórkowy. Płyn zewnątrz- i wewnątrzkomórkowy składa się z wody, białek oraz dodatnio i ujemnie naładowanych jonów. W płynie wewnątrzkomórkowym dominują jony K+, Mg2+, Na+, HCO3, izetionianu. W płynie zewnątrzkomórkowym głównym kationem są jony Na+, a anionem jony Cl. Ze względu na występowanie jonów swobodnych, w tkance nerwowej mogą płynąć prądy jonowe, w których biorą udział zarówno dodatnie, jak i ujemne jony. W odróżnieniu od obwodów elektrycznych, w których prąd jest rozłożony równomiernie w całym przekroju poprzecznym elementów obwodu i można operować pojęciem prądu całkowitego, w tkance nerwowej wygodnie operuje się uogólnionym pojęciem tzw. gęstością prądu J. Gęstość prądu pochodzącego do wielu różnych jonów, można wyrazić jako sumę poszczególnych przyczynków od jonów mających gęstość ładunku ρi i prędkość vi:

(1)\textbf{J} = \sum_i {\rho}_i \textbf{v}_i

Gęstość ładunku jest równa wartości ładunku danego jonu pomnożonej przez liczbę wolnych jonów w elemencie objętości tkanki. Jednostką gęstości ładunku jest C/m3. vi są to średnie prędkości jonów wyrażone w metrach na sekundę. Gęstość prądu jest to ilość prądu przepływająca przez jednostkowy przekrój poprzeczny, a jego jednostką jest C/(m2s) lub A/m2. W skali makroskopowej (np. w próbce materii zawierającej 1020 lub więcej ładunków w ruchu), tkanka nerwowa spełnia prawo Ohma. Oznacza to liniową zależność pomiędzy gęstością prądu, a przyłożonym polem elektrycznym (E):

(2)\textbf{J} = {\sigma} \textbf{E}

Stała proporcjonalności σ jest nazywana przewodnictwem elektrycznym ośrodka i wyraża się w jednostkach 1/(Ωm) lub równoważnie w Siemens/m (S/m). W tkance biologicznej często wygodniej jest stosować jednostki 1/(Ωcm) lub 1/(Ωmm) i (S/mm) Oporność jest odwrotnością przewodnictwa i jest mierzona w Ωm. Tkanka mózgowa jest słabym przewodnikiem. Np. makroskopowa oporność kory mózgowej jest ok. milion razy większa od oporności miedzi. Na poziomie mikroskopowym, błony komórkowe wykazują zachowanie nieliniowe, odbiegające od prawa Ohma. Gdy potencjał błonowy (pole elektryczne wewnątrz komórki) wzrasta powyżej pewnej wartości progowej, błona staje nieliniowym przewodnikiem, co umożliwia generacje i propagacje impulsów nerwowych.

Ładunki w przewodnikach

Wykonajmy myślowy eksperyment polegający na umieszczeniu ładunku próbnego w przewodniku np. tkance biologicznej. Gdy umieścimy dodatnio naładowany ładunek w przewodniku, występują dwa oddzielne efekty. Efekt polaryzacji spowodowany reorganizacją ładunków w błonach komórkowych (własności dielektryczne tkanki) oraz efekt przewodnictwa spowodowany ruchem ładunków swobodnych w płynie zewnątrzkomórkowym. Ten drugi efekt spowoduje, że dodatni ładunek próbny będzie wkrótce otoczony chmurą ujemnych ładunków, które będą w dużym stopniu ekranować pole pochodzące od ładunku próbnego. Potencjał w punkcie r, pochodzący od ładunku próbnego umieszczonego w elektrolicie w punkcie r1 był wyprowadzony w połowie XX wieku na bazie rozważań statystycznych i wynosi:

(3)\Phi(r) =  \frac{q}{4 \pi \epsilon_{0} \kappa R} e^{-\frac{R}{R_D}}

RD jest tzw. długością Debye'a, a κ odpowiada za efekty polaryzacyjne. R = |rr1|. Dla κ = 1 i RRD, dostajemy potencjał ładunku punktowego w próżni. Jednakże RD jest rzędu kilku angstremów (10–10 m) w tkance biologicznej, co powoduje, ze eksponent we wzorze (3) wynosi ok. 10–4000000 w odległości R = 3 mm. Pokazuje to, że potencjał ładunku próbnego umieszczonego w tkance biologicznej jest zaniedbywalnie mały dla wszystkich makroskopowych odległości. Nie można więc powiedzieć, że potencjały w mózgu są spowodowane pewnym rozkładem określonym ładunku. Są one spowodowane nie tylko określonym rozkładem ładunku ale również wszystkimi ładunkami w ośrodku przewodzącym. W tkance biologicznej, źródła prądowe w błonach neuronalnych, a nie ładunki, są generatorami EEG.

Podstawowe równania

Wszystkie zjawiska elektryczne i magnetyczne w mózgu podlegają uniwersalnym prawom Maxwella:

(4)\nabla \textbf{D} =  \rho
(5)\nabla \times \textbf{E} =  -\frac{\partial \textbf{B}}{\partial t}
(6)\nabla \textbf{B} =  0
(7)\nabla \times \textbf{H} = \textbf{J} + \frac{\partial \textbf{{D}}}{\partial t}

gdzie D — indukcja elektryczna , E — natężenie pola elektrycznego, B — indukcja magnetyczna, H — natężenie pola magnetycznego, ρ — gęstość ładunku, J — gęstość prądu. W wielu materiałach, również w tkance nerwowej, pola D i B zależą liniowo od E i H:

(8)\textbf{D} = \varepsilon \textbf{E}
(9)\textbf{B} = \mu \textbf{H}

Gdzie: ε — przenikalność elektryczna, a μ — przenikalność magnetyczna ośrodka.

Do opisu pól elektrycznych w tkance nerwowej stosuje się uproszczoną wersje równań Maxwella oraz równań opisujących liniowe własności ośrodka. Podstawowe równania liniowej elektrofizjologii można podsumować następująco:

(10)\nabla \textbf{J} +  \frac{\partial {\rho}}{\partial t} = 0
(11)\nabla \textbf{D} =  \rho
(12)\textbf{J} = {\sigma} \textbf{E}
(13)\textbf{D} = \varepsilon \textbf{E}
(14)\textbf{E} = -\nabla \Phi


Zasada zachowania ładunku (równanie 10) wynika bezpośrednio z 1 i 4 równania Maxwella (równania 4 i 7), oraz z tożsamości

(15)\nabla (\nabla \times \textbf{A}) = 0

Równanie potencjału skalarnego dla pola elektrycznego (równanie 14) jest spełnione w przybliżeniu wolnych oscylacji pól, co pozwala zaniedbać indukcję magnetyczną.

Warunki brzegowe w ośrodkach niejednorodnych

Różne obszary mózgu mają różne przewodnictwa, tak więc w praktycznych zagadnieniach występują granice między ośrodkami. W skali makroskopowej, najbardziej oczywiste granice między ośrodkami dotyczą granicy pomiędzy słabo przewodzącą czaszką i powietrzem otaczającym głowę. W skali mikroskopowej mamy do czynienia z granicami tworzonymi przez błonę komórkową z ośrodkiem zarówno zewnętrznym jak i wewnętrznym. Potencjał elektryczny Φ(r, t) będzie miał różne rozwiązania Φi(r, t) w obszarach i o przewodnictwie σi. Porównajmy najpierw efekty opornościowe i efekty pojemnościowe. Zastosujmy operator ∇ do czwartego równania Maxwella (równanie 7) oraz skorzystajmy z tożsamości (15). Dostajemy:

(16)\nabla \left( \textbf{J} + \frac{\partial \textbf{{D}}}{\partial t} \right)=0

Rozważmy składową pola elektrycznego oscylującego z częstością f

(17)\textbf{E}(\textbf{r},t) = \textbf{E}_1(\textbf{r})\exp(2\pi i f t)

i wyraźmy równanie (16) stosując prawo Ohma (12) i liniowe równanie dla dielektryka (13):

(18)\nabla (\sigma \textbf{E} + 2 \pi i f \varepsilon  \textbf{E}) = 0

Dwa wyrażenia w nawiasie odpowiadają za efekty opornościowe i pojemnościowe w ośrodku materialnym, tzn. efekty związane z ładunkiem swobodnym i efekty związane z ładunkami związanymi w błonie komórkowej. Oznacza to, że efekty pojemnościowe możemy zaniedbać gdy

(19)\frac {2 \pi f \varepsilon(f)} {\sigma(f)} \ll 1

Gdy w obszarze i oraz j nie występują źródła, na mocy równania (16) i równania potencjału skalarnego (równanie 14), podstawowe równania elektrofizjologii redukują się do:

(20)\nabla^2 \Phi_i= 0
(21)\nabla^2\left(\sigma_j \Phi_j + \varepsilon_j \frac {\partial \Phi_j}{\partial t}\right) = 0

równanie (20) odnosi się do sytuacji, w której można zaniedbać efekty pojemnościowe (np. błony komórkowej) i nosi nazwę równania Laplace’a. Czasem przybliżenie to nazywa się również przybliżeniem quasi-statycznym, gdyż stosuje się dla pól oscylujących z niskim częstościami. Równanie to stosuje się do wszystkich zagadnień w skali makroskopowej. Równanie (21) stosuje się do błon komórkowych i pól w skali mikro. Równania (20) i (21) mają nieskończenie wiele rozwiązań. Aby rozwiązanie w każdym obszarze było jednoznaczne należy zastosować warunki brzegowe na granicy ośrodków oznaczonych symbolami m i n:

(22)\sigma_m \frac {\partial \Phi_m}{\partial u} = \sigma_n \frac {\partial \Phi_n}{\partial u}
(23)\frac {\partial \Phi_m}{\partial w} = \frac {\partial \Phi_n}{\partial w}

Warunki brzegowe są wyrażone we współrzędnej u, mającej wszędzie kierunek normalny do granicy między ośrodkami i dwóch współrzędnych stycznych w1 i w2. Pierwszy z warunków określa fizyczne wymaganie by składowa normalna gęstości prądu była ciągła na granicy ośrodków. Warunek ten wynika z zasady zachowania ładunku. Drugi warunek brzegowy określa, że składowa styczna pola elektrycznego musi być ciągła na granicy ośrodków. Warunek ten wynika z drugiego prawa Maxwella. Stosując pierwszy z warunków brzegowych do granicy głowa (m)–powietrze (n) i przyjmując, że przewodnictwo powietrza wynosi zero, dostajemy:

(24)\frac {\partial \Phi_m}{\partial u} = 0

Oznacza to, że pole magnetyczne, elektryczne oraz ich potencjały pochodzące od źródeł w mózgu, rozchodzą się w przestrzeni otaczającej głowę, lecz prąd jest ograniczony do jej wnętrza (składowa normalna prądu wynosi zero).

Źródła prądowe w mózgu

Tzw. problem wprost w EEG polega na obliczeniu potencjału na czaszce na podstawie źródeł prądowych. Równania (20, 21) w pełni opisują szukany potencjał jednakże potrzebna jest modyfikacja. Wersja niezmodyfikowana wymaga znajomości potencjału i jego pochodnych normalnych na granicy ośrodków, co jest skomplikowane w skali komórkowej. Ponieważ jednak składowa normalna potencjału jest proporcjonalna do gęstości prądu w przewodniku, możemy zastąpić warunki brzegowe na granicy ośrodków poprzez odpowiednie źródła prądowe. Na początku rozważmy prąd błonowy pojawiający się w wyniku aktywacji pojedynczej synapsy.

(10)
Prądy błonowe powstające w wyniku hamującej akcji synaptycznej. Potencjał czynnościowy dochodzący do zakończenia włókna presynaptycznego powoduje uwolnienie neuroprzekaźnika z kolbki synaptycznej, co prowadzi do zmiany przewodnictwa błony postsynaptycznej dla wybranych jonów. W wyniku otwarcia kanałów jonowych, powstaje lokalne źródło prądowe w okolicy synapsy oraz zlew prądowy rozproszony wzdłuż dalszych obszarów błony, tak by spełnione było prawo zachowania ładunku.

W stanie spoczynku, potencjał wewnątrz komórki wynosi ok. –65 mV względem potencjału na zewnątrz. Jeżeli synapsa jest pobudzająca, efektem jej aktywacji będzie zwiększenie przepuszczalności dla dodatnio naładowanych jonów, które zaczną napływać do komórki. Zmiana potencjału błonowego w wyniku akcji synaptycznej nazywana jest pobudzającym potencjałem postsynaptycznym lub EPSP (od ang. excitatory postsynaptic potential). EPSP zmniejsza wartość różnicy potencjału w komórce i podnosi jej wewnątrzkomórkowy potencjał w kierunku odpalenia jej własnego potencjału czynnościowego, przy różnicy potencjałów w poprzek błony ok. –40 mV. Błona w bezpośredniej okolicy synapsy zachowuje się jak zlew prądowy (źródło ujemne) gdyż dodatnio naładowane jony wpływają do wewnątrz. Prąd płynie w przestrzeni wewnątrzkomórkowej i wypływa z komórki w dalszych, rozproszonych obszarach, tak aby zamknąć linie prądu. Całkowity prąd dokomórkowy musi być równy całkowitemu prądowi wypływającemu z komórki, co wynika z zasady zachowania ładunku. Jeżeli synapsa jest hamująca, zmiana potencjału błonowego w wyniku akcji synaptycznej nazywana jest hamującym potencjałem postsynaptycznym lub IPSP (od ang. inhibitory postsynaptic potential). Ma on odwrotne działanie w stosunku do EPSP i zmniejsza prawdopodobieństwo generacji potencjału czynnościowego. IPSP generuje powstanie lokalnego źródła prądu, któremu musi towarzyszyć odpowiedni zlew prądowy rozproszony wzdłuż bardziej odległych obszarów błony (rys. 10). Potencjał zewnątrzkomórkowy powstający w wyniku akcji synaptycznej zależy od pełnego rozkładu źródeł i zlewów w błonie s(r, t), a nie tylko od lokalnego prądu płynącego w otoczeniu synapsy. W wyniku złożonej geometrii neuronów, geometria rozkładu prądów płynących przez błonę może być skomplikowana, a potencjał zewnątrzkomórkowy trudny do policzenia. Jednakże w zagadnieniach EEG, możemy obejść wiele problemów ze złożonością pojedynczych neuronów poprzez zmianę skali, w której rozpatrujemy generatory prądów. W tym celu zdefiniujmy efektywny prądowy moment dipolowy dla każdej objętości tkanki. Prądowy moment dipolowy na jednostkę objętości tkanki kory mózgowej może być uważany za korowe źródło generujące pole magnetyczne i elektryczne na powierzchni czaszki. Kluczem do zrozumienia tego upraszczającego założenia jest fakt, że pojedyncza komórka kory mózgowej dostaje ok. 104-105 wejść synaptycznych, a pod każdym milimetrem kwadratowym powierzchni kory znajduje się ok. 105 neuronów. Potencjał zewnątrzkomórkowy mierzony przez małą elektrodę z takiego obszaru będzie bardzo skomplikowany i będzie bardzo czuły na zmianę położenia elektrody. Jednakże w odległościach dużych w porównaniu z charakterystyczną odległością pomiędzy źródłami i zlewami, potencjał generowany przez źródła i zlewy w kolumnie będzie przypominał potencjał dipola. Dla wielu kolumn wykazujących aktywność synaptyczną, potencjał na czaszce będzie ważoną sumą dipolowych przyczynków od poszczególnych kolumn. W komórce piramidowej, charakterystyczna odległość pomiędzy źródłem a zlewem jest rzędu paru milimetrów, podczas gdy odległość do najbliższych obszarów na czaszce wynosi ok. 1-1,5 cm. Tak więc przybliżenie dipolowe dla źródeł w kolumnach korowych jest spełnione w zagadnieniach EEG.

Bezpośrednie zastosowanie makroskopowych źródeł prądu

We wszystkich następujących zagadnieniach będziemy zakładać, że ośrodek jest czysto przewodzący i nie wykazuje efektów pojemnościowych. W takim ośrodku, ładunek nie jest nigdzie gromadzony, gęstość ładunku jest stała, a równanie zachowania ładunku można zapisać:

(25)\nabla \textbf{J} = 0

Korzystne okazuje się wprowadzenie pojęcia makroskopowej gęstości prądu źródeł Js, która pozwala zapisać prawo Ohma następująco:

(26)\textbf{J} = \sigma \textbf{E} + \textbf{J}_{s}

Oznacza to, że prąd całkowity w ośrodku przewodzącym składa się prądu omowego σE oraz prądu źródłowego wypływającego z granicy między ośrodkami np. prąd wypływający przez błonę komórkową. Wstawiając (26) do (25) i korzystając z definicji potencjału elektrycznego dostajemy:

(27)\nabla \cdot [\sigma (\textbf{r}) \nabla \Phi  ]= -s(\textbf{r}, t)

gdzie objętościowy prąd źródłowy jest zdefiniowany jako

(28)s(\textbf{r}, t) \equiv  -\nabla \textbf{J}_s(\textbf{r}, t)
(11)
Potencjał wewnątrz przewodnika oznaczonego zaokrąglonym prostokątem jest określony równaniem Laplace'a (20). Jednoznaczne rozwiązanie tego równania wymaga znajomości potencjału lub normalnej pochodnej potencjału na powierzchniach granicznych przewodnika. Zamiast podawać warunki brzegowe na granicach przewodnika, możemy podać źródła prądowe s(r, t) występujące na tych powierzchniach. W tej sytuacji jednoznaczne rozwiązanie dla potencjału wewnątrz przewodnika jest dane równaniem Poissona (27). Obszary zaznaczone kolorem szarym są źródłami prądu, pozostałe (białe) obszary są bezźródłowe.

Przewodnictwo σ(r) (w S/mm lub S/cm) w ogólności zależy od położenia i dlatego znajduje się wewnątrz operatora ∇. Gęstość prądu źródłowego s(r, t) ma wymiar prądu na jednostkę objętości μA/mm2. Jest to prąd generowany w jednostce objętości. Może być również interpretowany jako objętościowe źródło potencjału generowanego w ośrodku makroskopowym. Rozumowanie stojące za wprowadzeniem prądu źródłowego jest następujące. Dowolny obszar tkanki możemy podzielić tak, że obszary generacji prądu znajdują się pewnych podobszarach oznaczonych kolorem szarym na rys. 11. W pozostałych obszarach (zaznaczonych kolorem białym) potencjał jest określony równaniem Laplace’a (20) w ośrodku jednorodnym i (27) w ośrodku niejednorodnym, kładąc s(r, t) równe zero. Jednakże jednoznaczne rozwiązanie wymaga by potencjał lub składowa normalna potencjału była określona na całej granicy ośrodków. W formalizmie równania Poissona (27) zastąpiliśmy warunki brzegowe poprzez prąd objętościowy s(r, t). Ujemny znak w równaniu (27) jest spójny z prądem dodatnim wpływającym do bezźródłowego (białego) obszaru. Inna zaletą tego podejścia jest fakt, że w ośrodku czysto przewodzącym czasowa zależność potencjału Φ(r, t) jest identyczna z czasową zależnością źródła. Pojedyncze oscylujące źródło s(r, t) ∼ sin(2πft) powoduje oscylacje potencjału z tą samą częstością. Jednakże w mózgu będzie zazwyczaj wiele źródeł oscylujących z różnymi częstościami i fazami. Potencjał na czaszce mierzony w EEG będzie liniową superpozycją przyczynków od pojedynczych obszarów źródeł z różnymi wagami zależnymi od własności przewodnictwa ośrodka i odległości pomiędzy źródłami i miejscami pomiaru potencjału na czaszce. Przeprowadzone tutaj operacje matematyczne mogą się wydawać nieco sztuczne, okazują się jednak bardzo wygodne w zrozumieniu problemów związanych z generacją potencjałów w tkance nerwowej. Porównajmy wzór na potencjał w przewodniku pochodzący od obszaru źródła prądowego s(r, t) (27) ze wzorem na potencjał w dielektryku pochodzący od obszaru źródła z pewną gęstością swobodnego ładunku ρ(r, t). Równanie na potencjał w dielektryku otrzymamy poprzez połączenie równań (4), (8) i (14). Prowadzi to do równania Poissona w dielektryku:

(29)\nabla \cdot [\varepsilon (\textbf{r}) \nabla \Phi(\textbf{r}, t)] = -\rho(\textbf{r}, t)

Oba równania (29) i (27) są równaniami Poissona lecz ze zmienionymi symbolami. Są one więc matematycznie równoważne lecz reprezentują inne fizycznie procesy. Swobodny ładunek makroskopowy w przewodniku w praktyce wynosi zero, tak więc równanie (29) nie ma praktycznego zastosowania w elektrofizjologii. Jednakże w fizyce znanych jest wiele rozwiązań równania (29) dla różnych rodzajów niejednorodności w dielektrykach. Aby zastosować znane z fizyki rozwiązania do przewodnika wystarczy w nich podstawić przewodnictwo σ(r, t) w miejsce przenikalności elektrycznej ε(r, t), a źródła ładunku ρ(r, t) zamienić na źródła prądowe s(r, t). Np. rozważmy specjalny przypadek N punktowych źródeł prądowych, co oznacza, że rozmiary (objętość) źródła jest dużo mniejsza niż odległość od elektrod pomiarowych. W nieskończonym, jednorodnym i czysto opornościowym przewodniku, potencjał na zewnątrz źródeł jest analogiczny do potencjału pochodzącego od N ładunków punktowych i wynosi:

(30) \Phi(\textbf{r}, t) = \frac{1}{4 \pi \sigma}\sum_{n=1}^{N} \frac{I_n(t)}{R_n}

W typowych jednostkach stosowanych w zagadnieniach EEG, In(t) są jednobiegunowymi źródłami prądowymi (μA) wypływającymi z n-tego rejonu źródła do przewodnika o przewodnictwie σ (1/(Ωcm)). Rn są odległościami pomiędzy miejscem pomiaru a położeniem źródła. Np. potencjał w odległości 1 cm generowany przez źródło prądowe o natężeniu 4π μA w wyidealizowanej korze mózgowej o oporności η = 1/σ = 300 Ωcm, wynosi 300 mV. W ośrodku czysto opornościowym, zależność czasowa potencjału jest dana przez sumę ważoną wszystkich źródeł. W ośrodku z własnościami pojemnościowymi wystąpią przesunięcia fazowe pomiędzy źródłami i potencjałem. Gdy zaniedbamy efekty pojemnościowe, otrzymamy ogólną metodę znajdowania potencjału na podstawie rozkładu źródeł prądowych w mózgu.

Źródła prądowe w ośrodku przewodzącym

Większość zjawisk obserwowanych w zapisie EEG może być zrozumiana na podstawie paru rodzajów źródeł. W szczególności jest to dipol prądowy, warstwa dipolowa i rozkład źródeł pochodzący od potencjału czynnościowego. Pole na czaszce, pochodzące od tych źródeł będzie oczywiście silnie zależeć od makroskopowych niejednorodności takich jak czaszka. My zajmiemy się uproszczoną sytuacją i rozważymy różne przykłady źródeł w nieskończonym, jednorodnym i izotropowym ośrodku przewodzącym. Przybliżenie to dostarczy nam ważnej intuicji na temat generatorów rzeczywistych sygnałów EEG.

Źródło jednobiegunowe

Potencjał pojedynczego źródła jednobiegunowego jest szczególnym przypadkiem rozwiązania (30) i wynosi

(31) \Phi(\textbf{r}, t) = \frac{I(t)}{4 \pi \sigma r}

Równanie (31) można też otrzymać przeprowadzając proste rozumowanie. Otoczmy punktowe źródło sferą o promieniu r. Ponieważ prąd całkowity jest zachowany, gęstość prądu na powierzchni sfery wynosi

(32) J(r,t) = \frac{I(t)}{4 \pi r^2}

w kierunku radialnym. Z prawa Ohma:

(33) E(r,t) = \frac{J(r,t)}{\sigma}  = \frac{I(t)}{4 \pi \sigma r^2}

Stosując równanie potencjału skalarnego (14), dla składowej radialnej dostajemy:

(34) -\nabla \Phi  = -\frac{\partial \Phi}{\partial r} = \frac{I(t)}{4 \pi \sigma r^2}


Po scałkowaniu (34) dostajemy równanie (31). Z równania (31) wynika, że potencjał w przewodniku staje się nieskończony jeśli odległość między źródłem a punktem pomiaru wynosi zero lub przewodnictwo ośrodka wynosi zero. Ta nie-fizyczna sytuacja wynika z dwóch założeń zrobionych przy wyprowadzaniu równania (31). Po pierwsze, założyliśmy, że pomiar dokonywany jest punktowo lecz prawdziwe elektrody pomiarowe mają niezerowe rozmiary więc r nie może być zero. Po drugie, założyliśmy, że jesteśmy w stanie zapewnić stałe natężenie prądu niezależnie od przewodnictwa ośrodka. Jednakże gdy przewodnictwa ośrodka będzie malało, coraz większe napięcie z generatora będzie wymagane, by utrzymać stały prąd w źródle. W rzeczywistości, gdy przewodnictwo ośrodka będzie dążyć do zera, natężenie prądu I będzie również dążyło do zera, co zapewni skończoną wartość potencjału.

Dipol prądowy

Dipol prądowy składa się z punktowego źródła I i zlewu –I, oddzielonych o d. Znaczenie dipola w elektrofizjologii jest większe niż jakakolwiek inna konfiguracja źródeł. Jest tak dlatego, że prawie każdy obszar zawierający źródło i zlew, oraz w którym całkowity prąd źródła i zlewu są równe (zasada zachowania prądu), będzie dawał przybliżone pole dipola w odległościach dużych w porównaniu z rozmiarami obszaru źródło-zlew. Np. pole dipola jest generowane w wyniku pobudzenia lub hamowania synaptycznego w neuronach, jak to zostało opisane w sekcji Źródła prądowe w mózgu. Ścisłe wyrażenie na potencjał dipola jest to suma dwóch jednobiegunowch przyczynków o przeciwnej polaryzacji i odległościach odpowiednio r1, r2 od punktu pomiaru:

(35) \Phi = \frac{I(t)}{4 \pi \sigma}\left(\frac{1}{r_1} - \frac{1}{r_2}\right)

Jednakże dużo wygodniej wyrazić potencjał dipola za pomocą jednej współrzędnej radialnej r, mierzonej od środka odcinka łączącego ładunki. W odległościach dużo większych od d, pole dipola można przybliżyć następująco:

(36) \Phi = \frac{I d \cos \Theta}{4 \pi \sigma r^2}

dla rd. Θ jest kątem pomiędzy osią dipola i wektorem r wskazującym punkt pomiaru. Rozważmy lokalny przepływ prądu pomiędzy III i VI warstwą kory mózgowej. Odległość między biegunami prądu wynosi wtedy d ~ 1 mm. Załóżmy prądowe źródło o natężeniu I = 10 μA i nieskończony jednorodny ośrodek o oporności η = 1/σ = 300 Ωcm odpowiadającej korze mózgowej. Licząc potencjał (względem nieskończości) wzdłuż osi dipola (Θ = 0), możemy zastosować (36) również w pobliżu źródeł. Wstawiając dane dostajemy:

Φ(r, 0) ≈ 464 μV dla r = 2,5 mm (na powierzchni kory)
Φ(r, 0) ≈ 12 μV dla r = 1,5 cm (na czaszce)

Powyższe oszacowania nie biorą pod uwagę wpływu warstw płynu mózgowo-rdzeniowego, czaszki i skóry na głowie i powietrza nad głową. Szacuje się, że wpływ tych warstw o różnym przewodnictwie zmniejsza potencjał pochodzący od dipola znajdującego się w powierzchownych warstwach kory, a mierzonego na czaszce do ok. 1/4 wartości otrzymanej w jednorodnym modelu kory. Te zgrubne oszacowania pozwalają nam przewidzieć stosunek potencjału mierzonego na czaszce do potencjału mierzonego na powierzchni kory. Dla pojedynczego źródła korowego stosunek ten wynosi 464/(12/4), a więc:

Potencjał na korze/potencjał na czaszce ~ 100 do 200

Średnie amplitudy spontanicznego EEG na korze są zazwyczaj 2 do 5 razy większe od potencjałów mierzonych na czaszce (Cooper et al., 1965). Brak zgodności naszego oszacowania z doświadczeniem sugeruje, że zdecydowana większość zjawisk w EEG jest generowana nie przez pojedyncze dipole lecz przez źródła o znacznie większych rozmiarach np. przez warstwy dipolowe. Z drugiej strony, niektóre iglice epileptyczne (ang. epileptic spikes) i potencjały wywołane (ang. evoked potentials) w pierwszorzędowej korze sensorycznej można z powodzeniem modelować jako pojedynczy dipol lub parę izolowanych dipoli.

Źródło kwadrupolowe

Rozróżniamy dwie konfiguracje prowadzące do źródła kwadrupolowego. Kwadrupol liniowy składa się z dwóch źródeł +I/2 i zlewu –I leżących wzdłuż jednej prostej, oddzielonych od siebie o d. Kwadrupol dwuwymiarowy składa się z dwóch identycznych dipoli, umieszczonych równolegle do siebie, o przeciwnej orientacji. Kwadrupol liniowy ma zastosowanie w elektrofizjologii gdyż wykazuje podobieństwo do trójfazowego rozkładu źródeł we włóknie nerwowym podczas potencjału czynnościowego. Potencjał kwadrupola w dowolnym miejscu ośrodka przewodzącego wynika bezpośrednio ze wzoru (31) na potencjał pojedynczego źródła jednobiegunowego

(37) \Phi = \frac{I}{4 \pi \sigma}\left(\frac{1}{2r_1} - \frac{1}{r_2} + \frac{1}{2r_3}\right)

Trzy wartości r odpowiadają trzem odległościom pomiędzy źródłami i zlewami, a punktem pomiaru. W średnich lub dużych odległościach, potencjał może być wyrażony we współrzędnych sferycznych (r, θ, φ) jako

(38) \Phi \cong \frac{I d^2}{32 \pi \sigma r^3}(3 \cos^2 \theta - 1)

Potencjał nie zależy od współrzędnej φ.

Podczas generacji potencjału czynnościowego następuje wpływ dodatniego prądu jonów Na+ do wnętrza komórki. Prądowe źródło na pewnym obszarze błony komórkowej musi mieć odpowiadające mu zlewy prądowe, które znajdują się w obszarach po obu stronach źródła. W ten sposób powstaje konfiguracja źródło-zlew przypominająca kwadrupol liniowy. Ponieważ potencjał kwadrupola zanika jak 1/r3 czyli szybciej niż potencjał dipola (1/r2), potencjały czynnościowe mają znikomy wpływ na sygnał EEG. Synchronicznie występujące potencjały czynnościowe (ang. compound action potentials) mogą jednak być mierzalne. Istnieją podstawy by sądzić (Jewett, 1970), że potencjały czynnościowe biegnące we nerwie słuchowym są przynajmniej częściowo źródłem słuchowych potencjałów wywołanych z pnia mózgu (BAER od ang. brainstem auditory evoked response).

Warstwa dipolowa — najważniejsze źródło sygnału EEG

Około 65 do 75% neuronów korowych u wszystkich gatunków ssaków jest ustawionych prostopadle do powierzchni kory (Scholl, 1956; Bok, 1959). Neurony korowe mają dużą liczbę wzajemnych połączeń powodujących synchronizacje ich aktywności. Istnieją więc zarówno anatomiczne, jak i fizjologiczne podstawy by uznać warstwę dipolową tworzoną przez równoległe, synchronicznie działające komórki, za generator potencjałów korowych. Synchronizacja generatorów odgrywa tutaj kluczową rolę. Rozważmy na początku dwa dipole, których prądy fluktuują z częstościami fA i fB. Może to odpowiadać dwóm komórkom, dostającym zarówno wejścia pobudzające, jak i hamujące (rys. 12). Potencjał mierzony przez elektrodę w punkcie P, otrzymamy na podstawie (30):

(39) \Phi(t) = \frac{1}{4 \pi \sigma}\left[\frac{I_A}{R_1}\cos(2\pi f_A t + \alpha_A) - \frac{I_A}{R_2}\cos(2\pi f_A t + \alpha_A) + \frac{I_B}{R_3}\cos(2\pi f_B t + \alpha_B) - \frac{I_B}{R_4}\cos(2\pi f_B t + \alpha_B)\right]

IA oraz IB są maksymalnymi wartościami prądu w każdym z dipoli. Dodatkowo, zakładamy, że cały prąd wypływający ze źródła wpływa do zlewu w tym samym dipolu, co jest spełnione gdy odległość między dipolami Ljest znacznie większa niż odległość pomiędzy efektywnymi biegunami d. αA i αB są kątami fazowymi. Dla większej ilości źródeł, w wyrażeniu (39) pojawią się analogiczne człony.

(12)
Dwie komórki piramidalne A i B pobudzane synaptycznie, są przedstawione w wyidealizowanej formie, jako dipole. Potencjał w punkcie P jest sumą przyczynków pochodzących od obu zlewów (-) i obu źródeł (+) prądu. Odległość między dipolami wynosi L, a odległość pomiędzy efektywnymi biegunami dipoli wynosi d.

Rozważmy wpływ wielu dipoli o podobnej sile (IA = IB = IC, itd) i podobnych częstościach (fA = fB = fC, itd) na średni potencjał |\bar{\Phi}|. Potencjał będzie oczywiście zależał od wszystkich odległości R1, R2, itd., możemy jednak sformułować pewne ogólne wnioski.

a. Gdy generatory są ze sobą w fazie (αA = αB = αC , itd), a dipole ustawione równolegle do siebie, wyrażenia we wzorze (39) dodają się i dla m dipoli, uśredniony po czasie potencjał będzie proporcjonalny do ilości wszystkich m generatorów w otoczeniu elektrody,
(40) |\bar{\Phi}| \sim m
Oczywiście, generatory znajdujące się najbliżej elektrody, będą miały największy wpływ na potencjał, lecz im więcej generatorów będzie aktywnych w losowych odległościach od punktu pomiaru, wzór (40) będzie stanowić tym lepsze przybliżenie.
b. Jeśli generatory mają losową orientację, tak że prądy I w (39) będą miały losowe znaki lub jeśli losowe będą fazy generatorów, potencjał będzie dużo słabiej zależał od liczby generatorów. Będzie on wynikiem statycznej fluktuacji. Wg. Nunez (1981), można pokazać, że m członów w wyrażeniu (39) sumuje się dając średni potencjał, który dla dużych m można oszacować jako:
(41) |\bar{\Phi}| \sim \sqrt{m}


Zastosujmy teraz powyższe rozważania do zapisu rejestrowanego elektrodą umieszczoną w pobliżu generatorów. Jeśli elektroda znajduje się wystarczająco blisko źródła prądowego, tak że jeden z Rs w (39) jest bardzo mały, mierzony potencjał będzie stosunkowo duży, bez względu na fazowe relacje pomiędzy źródłem lokalnym i innymi źródłami w otaczającej tkance. Źródła odległe również mogą dawać wkład do mierzonego potencjału. Ich wkład może być mniejszy lub większy od wkładu źródła lokalnego. Źródła odległe będą zachowywały się głównie jak dipole prądowe. Tak więc potencjał mierzony przez elektrodę może być wyrażony następującym przybliżonym wzorem.

(42) |\bar{\Phi}| = \frac{1}{8 \pi \sigma}\left[\sum_{i =1}^l\frac{I_{i}}{R_{i}} + m \frac{I_{S}d}{R_{S}^2} + \sqrt{n} \frac{I_{A}d}{R_{A}^2} \right]


Indeksy i, S, oraz A odnoszą się odpowiednio do źródeł lokalnych, źródeł odległych synchronicznych i źródeł odległych asynchronicznych. Is są prądami efektywnymi, które mogą być mniejsze niż prąd całkowity, w zależności od orientacji odległych synchronicznych źródeł względem elektrody. d jest odległością pomiędzy efektywnymi biegunami dipoli. l, m i n są liczbą źródeł lokalnych, odległych synchronicznych i odległych asynchronicznych, które znajdują się odpowiednio w średnich odległościach Ri, RS, RA. Należy pamiętać, że (42) jest idealizacją, gdyż nie wszystkie generatory dają się zaklasyfikować do poszczególnych kategorii, jednakże wzór ten może dać ogólny pogląd na generacje potencjałów w mózgu, a w szczególności potencjałów mierzonych na czaszce czyli EEG. W tym przypadku (EEG) nie ma źródeł lokalnych. Jeśli generatory są podobne ISIA oraz generatory synchroniczne i asynchroniczne są w podobnej odległości RSRA, względny przyczynek od generatorów synchronicznych względem asynchronicznych wynosi:

(43) \frac{m}{\sqrt{n}}

Na podstawie zależności (43) możemy przeprowadzić następujące rozumowanie. Elektroda umieszczona na czaszce mierzy aktywność ok. 108 neuronów znajdujących się w paru cm2 kory, Załóżmy, że prawie wszystkie neurony są aktywne lecz tylko 1% (106) z nich jest ustawiony równolegle i działa synchronicznie. Przyczynek od synchronicznej frakcji neuronów do potencjału mierzonego na czaszce wynosi:

(44) \frac{10^6}{\sqrt{10^8 - 10^6}} \cong 100

Jest on więc 100 razy większy niż przyczynek od pozostałych 99% neuronów (Elul, 1972). Pokazuje to, że powierzchniowe EEG pochodzi głównie od synchronicznej aktywności równolegle ustawionych neuronów, a zmiana amplitudy sygnału wraz ze stanem fizjologicznym, wiąże się ze zmianą liczby synchronicznie działających komórek. Wzór (42) sugeruje, że potencjał od źródeł odległych zanika z odległością jak 1/R2. Warto zauważyć, że dla warstw dipolowych bardzo dużych rozmiarów, zanik ten może być jeszcze wolniejszy. Np. dla nieskończonej warstwy dipolowej potencjał nad (lub pod warstwą) dipolową jest stały i nie zmienia się z odległością. Oznacza to, że dla małych odległości od warstwy, w porównaniu z jej rozmiarami, zanik potencjału będzie niewielki, a im większa warstwa tym zanik potencjału wolniejszy. W przypadku dużych warstw dipolowych zanik potencjału na czaszce względem potencjału na korze jest nieznaczny. Eksperymentalnie obserwowany stosunek potencjału na korze do potencjału na czaszce jest, w większości spontanicznych zapisów EEG, pomiędzy 2 i 5 (Cooper et al., 1965). Po uwzględnieniu niejednorodności takich jak czaszka, płyn mózgowo-rdzeniowy i powietrzne nad głową, oznacza to, że korowe źródła muszą tworzyć warstwy dipolowe o rozmiarach znacznie większych niż odległość pomiędzy czaszką a korą. Mają więc one rozmiary rzędu paru cm2.

Podsumowanie

Potencjały w ośrodku jednorodnym pochodzące od źródeł i zlewów prądowych zostały otrzymane na podstawie ogólnego równania (30). Fizjologiczne źródła prądowe, są generowane w błonach komórkowych w wyniku transmisji synaptycznej lub generacji potencjału czynnościowego. Różne konfiguracje źródeł i zlewów mogą generować potencjały o bardzo różnych własnościach przestrzennych. Zanik potencjału wraz z odległością od źródeł-zlewów może być bardzo słaby (tzw. pola dalekie lub długozasięgowe), jak w przypadku warstwy dipolowej. Zanik ten może też być silny np. w przypadku koncentrycznie ustawionych neuronów, tak jak w przypadku kwadrupola (tzw. pola bliskie lub krótkozasięgowe). Znajomość potencjałów generowanych w wyidealizowanym, nieskończonym, jednorodnym ośrodku dostarcza przydatnych oszacowań na temat różnych fizjologicznych procesów np. generacji potencjałów czaszkowych EEG. Na koniec należy zauważyć, że wszystkie wyprowadzone tutaj wzory dotyczyły potencjału w pewnym punkcie. W rzeczywistości, mierzone potencjały są potencjałami uśrednionymi po całej objętości elektrody. Potencjał mierzony przez sferyczną elektrodę ΦE o promieniu R jest związany z teoretycznym potencjałem punktowym Φ poprzez całkę objętościową:

(45)\Phi_E(r,t,R) = \frac{3}{4 \pi R^3}\iiint\limits_{\mathrm{Vol}(R)} \Phi(r', t)\, d^3r'\

Ze względu na skomplikowaną anatomię kory, zachowanie potencjału ΦE wewnątrz mózgu (zapisy śródmózgowe) będzie bardzo silnie zależało od parametru skali R. W przeciwieństwie do tego, potencjały czaszkowe są już silnie uśrednione przestrzennie w wyniku przejścia przez płyn mózgowo-rdzeniowy, czaszkę i skórę. Powoduje to, że rozmiar elektrody nie ma prawie wpływu na zapis czynności EEG.

Literatura

Bok S.T., Histonomy of the Cerebral Cortex, Elsevier, New York, 1959.

Cooper R., Winter A.L., Crow H.J., Walter W.G. Comparison of subcortical, cortical and scalp activity using chronically indwelling electrodes in man. Electroencephalogr Clin Neurophysiol. 18:217-228, 1965.

Elul R. The genesis of the EEG. Int Rev Neurobiol 15: 227-272, 1972.

Jewett D.L. Volume-conducted potentials in response to auditory stimuli as detected by averaging in the cat. Electroencephalogr. Clin. Neurophysiol. 28(6):609-618, 1970.

Nunez P.L Electric Fields of the Brain. The Neurophysics of EEG. Oxford University Press, New York, NY, 1981 (First edition).

Nunez P.L. Neocortical Dynamics and Human EEG Rhythms. Oxford University Press, New York, 1995.

Nunez P.L. Electric Fields of the Brain. The Neurophysics of EEG. Oxford University Press, New York, NY, 2006 (Second edition).

Scholl D.A. The organization of the Cerebral Cortex, Methuen, London, 1956.

następny>

Fizyczne i techniczne aspekty rejestracji sygnałów bioelektrycznych

<poprzedni

Elektroencefalograf

Zanim poznamy budowę aparatury do pomiaru EEG, warto dowiedzieć się (lub przypomnieć jeśli czytelnik zaznajomił się już z treścią rozdziałów Elektroencefalogram czyli EEG[2] oraz Biofizyczne podstawy generacji sygnałów EEG[3]), czym jest sam sygnał EEG. Procesy chemiczne i elektryczne, które zachodzą w mózgu prowadzą do powstania na powierzchni głowy rozkładu potencjału elektrycznego. Do pomiaru tego potencjału służy urządzenie diagnostyczne, zwane elektroencefalografem (gr. electro – elektryczny, encephalo – mózg, graphein – rysować). Zapis elektrycznej aktywności mózgu, dokonany za pomocą elektroencefalografu oraz elektrod umieszczonych na powierzchni głowy, nazywamy jest elektroencefalogramem, sygnałem EEG lub w skrócie EEG. W szczególnych przypadkach elektrody umieszczane są bezpośrednio na powierzchni kory mózgowej i wtedy zarejestrowaną aktywność elektryczną mózgu określa się mianem elektrokortikogramu, sygnału ECoG lub po prostu ECoG. Rejestracja sygnału EEG jest zatem, w ogólnym zarysie, niczym innym jaki pomiarem napięcia, powstałego w wyniku elektrycznej aktywności mózgu. Obecnie pomiar napięć wydaje się banalnie prosty. W sklepie lub na bazarze można za 20-30zł (cena z grudnia 2009 roku) kupić tzw. multimetr, czyli wielofunkcyjny, zwykle cyfrowy miernik, umożliwiający pomiar m.in. napięcia, natężenia prądu, czy oporu. W celu pomiaru napięcia, wystarczy przełączyć multimetr w tryb działania woltomierza, odpowiednio ustawić skalę, przyłożyć elektrody do punktów, pomiędzy którymi chcemy zmierzyć napięcie (np. bieguny baterii) i odczytać wynik na wyświetlaczu. Niestety, rejestracja czynności elektrycznej mózgu, jest pomiarem znacznie bardziej skomplikowanym i wymagającym czułego oraz wyspecjalizowanego (a co za tym idzie droższego) miernika niż „bazarkowy” multimetr. Poniżej w punktach wymieniono zasadnicze różnice pomiędzy standardowym pomiarem napięcia, a rejestracją potencjałów na powierzchni głowy.

  • Napięcia spotykane przez nas w urządzeniach codziennego użytku, mają amplitudy od kilku mV do 230 V (napięcie skuteczne w gniazdku ściennym). Amplituda sygnału EEG zmienia się w zakresie od 0 μV do 100 μV, ogólnie jednak rzadko przekracza wartość 20 μV. Są to napięcia o trzy rzędy wielkości mniejsze niż czułość standardowych woltomierzy.
  • Pomiarowi czynności elektrycznej mózgu towarzyszą liczne zakłócenia o amplitudzie często kilka razy większej od samego sygnału EEG. Źródłem tych zakłóceń jest zarówno środowisko otaczające człowieka (różne urządzenia elektryczne, kable od sieci zasilającej położone w ścianach), jak i sam człowiek, w którym znajduje się wiele generatorów czynności elektrycznej, wśród których można wymienić: sygnał sterujący pracą serca oraz mięśni, czy też spolaryzowaną elektrycznie gałkę oczną.
  • Aktywność mózgu zmienia się pod wpływem docierających do niego bodźców i wykonywanych przez człowieka czynności. W związku z tym, zmienia się również w czasie, rozkład potencjału elektrycznego na powierzchni głowy. Elektroencefalograf powinien zatem umożliwiać rejestrację czynności elektrycznej mózgu przez odpowiednio długi okres czasu, zwykle od kilkudziesięciu minut do nawet kilku dni.
  • Aktywność elektryczna mózgu zmienia się również w przestrzeni. W mózgu bowiem można wyróżnić ośrodki, które odpowiedzialne są za poszczególne funkcje. I tak, np. przetwarzanie bodźców wzrokowych odbywa się w płatach potylicznych, z kolei uznaje się, że płaty czołowe są odpowiedzialne za myślenie abstrakcyjne oraz funkcje związane z pamięcią. Pomiar EEG należy zatem wykonać, odpowiednio rozmieszczając na powierzchni głowy jak najwięcej elektrod. Obecnie, do celów diagnostycznych, rejestrację sygnału EEG dokonuje się przy użyciu co najmniej 19 elektrod. W przypadku badań naukowych liczba stosowanych elektrod waha się od kilku do 256, podczas gdy do wykonania pomiaru napięcia pomiędzy biegunami bateryjki, czy pomiaru napięcia w gniazdu wystarczą tylko dwie elektrody.
  • Nośnikiem prądu elektrycznego w większości na co dzień spotykanych urządzeniach elektrycznych są elektrony. Prąd, który płynie po powierzchni głowy pod wpływem pola elektrycznego wytworzonego przez mózg, jest prądem jonowym.


(13)
Schemat blokowy aparatury do rejestracji sygnału EEG.

Jak można zauważyć, elektroencefalograf w porównaniu ze standardowym woltomierzem, musi zapewnić rejestrację napięć o amplitudzie tysiące razy mniejszych, udostępniać znacznie więcej kanałów pomiarowych oraz umożliwić w jakiś sposób prezentację i akwizycję zebranych danych (do czego oczywiście kilkucyfrowy wyświetlacz multimetra nie nadaje się ). Dawniej, elektroencefalograf połączony był z urządzeniem rysującym przebieg sygnału EEG na papierze. Obecnie w skład zestawu do rejestracji czynności elektrycznej mózgu wchodzi komputer, który umożliwia wyświetlanie pomiarów na monitorze oraz ich archiwizację na odpowiednich nośnikach danych. Zaprezentowane poniżej materiały nieco odbiegają, od standardowego opisu aparatury wykorzystywanej do rejestracji sygnału EEG. Zwykle, czytelnika najpierw zapoznaje się z charakterystyką sygnału EEG (co zostało powyżej dokonane), po czym przechodzi się do konstrukcji samego wzmacniacza. Na końcu omawiane są artefakty, które towarzyszą pomiarowi. Mając nadzieję, że pomoże to czytelnikowi lepiej zrozumieć koncepcję pomiaru EEG, postanowiono zmienić tę kolejność. Na rys. 13 zaprezentowano schemat blokowy aparatury do rejestracji sygnału EEG, wśród której można wymienić trzy podstawowe elementy: elektrody, elektroencefalograf oraz komputer. Budowa elektroencefalografu jest konsekwencją własności potencjału elektrycznego wytworzonego na powierzchni głowy, zjawisk zachodzących na granicy elektroda-skóra oraz zakłóceń towarzyszących pomiarowi sygnału EEG. W związku z tym, najpierw zostaną omówione pokrótce zjawiska fizyko-chemiczne zachodzące na granicy metal-elektrolit, funkcje jakie mają spełniać elektrody pomiarowe, zaś temat zakłóceń występujących w trakcie badania EEG, jako nierozerwalnie związany z konstrukcją samego elektroencefalografu, zostanie poruszony w rozdziale poświęconym budowie oraz roli pełnionej przez blok wzmacniający w elektroencefalografie.

Zadaniem elektrody pomiarowej jest przeniesienie potencjału, który istnieje na powierzchni głowy, do wejścia elektroencefalografu. Elektrody stosowane do pomiaru EEG maja znacznie bardziej skomplikowaną konstrukcję niż sondy igłowe, czy chwytaki krokodylkowe, w które wyposażony jest standardowy woltomierz (rys. 14). Niektóre typy elektrod wykorzystywane do pomiaru sygnału EEG wyposażone są w elementy aktywne, które wzmacniają sygnał już w samej elektrodzie. Poniżej omówiona zostanie ogólna zasada działania najprostszego typu elektrod stosowanych w rejestracji sygnału EEG.

(14)
A - sonda igłowa stosowana w standardowych miernikach napięcia oraz prądu elektrycznego. B - elektroda miseczkowa chlorosrebrowa (Ag-AgCl) stosowana do rejestracji sygnału EEG, zaprezentowana od strony, która styka się głową. C - elektroda miseczkowa chlorosrebrowa od strony wierzchu. Otwory w elektrodach Ag-AgCl służą do umieszczania w nich specjalnych żeli poprawiających przewodnictwo prądu.

Spośród najważniejszych różnic, które istnieją pomiędzy elektrodami EEG, a sondami standardowych woltomierzy, należy wymienić materiał z których zostały zbudowane sondy i elektrody oraz ich kształt. Zarówno budowa jak i skład chemiczny elektrod stosowanymi w pomiarze EEG wynika ze zjawisk fizycznych oraz chemicznych zachodzących pod wpływem elektrycznej aktywności mózgu.

Zjawiska zachodzące na granicy metal-elektrolit

Prąd elektryczny płynący w spotykanych na co dzień urządzeniach jest najczęściej prądem elektronowym, czyli takim, w którym nośnikami ładunku są elektrony. Organizm ludzki dosyć dobrze przewodzi prąd, jednakże pod względem właściwości elektrycznych należy go traktować jako elektrolit, gdzie płynący prąd jest prądem jonowym (nośnikami ładunku są jony). W związku z tym, głównym zadaniem elektrody do pomiaru czynności elektrycznej mózgu jest przetworzenie prądów płynących w postaci różnego rodzaju jonów, na prądy elektronowe, które mogą być przenoszone i analizowane przez urządzenia elektryczne.

Zjawiska zachodzące na granicy metal-elektrolit pod nieobecność zewnętrznego pola elektrycznego.

Na granicy metal-elektrolit, nawet pod nieobecność zewnętrznego pola elektrycznego, zachodzą zjawiska mające bardzo istotny wpływ na pomiar czynność elektrycznej mózgu oraz konstrukcję elektroencefalografu.

(15)
Przykładowy rozkład ładunków, tuż po zetknięciu elektrody pomiarowej z elektrolitem. Elektroda pomiarowa zawiera dodatnio naładowane jony metalu oraz swobodnie poruszające się elektrony. Elektrolit z kolei składa się z rozpuszczalnika oraz kationów i anionów substancji, która uległa w nim dysocjacji.

Na rys. 15 przedstawiono schematycznie rozkład ładunków w elektrodzie pomiarowej oraz elektrolicie, tuż po zetknięciu tych ośrodków ze sobą. Elektrolit składa się z rozpuszczalnika oraz substancji, która rozpuszczona w nim ulega dysocjacji. Z kolei w metalu możemy wyróżnić dodatnio naładowane centra sieci krystalicznej oraz swobodnie poruszające się elektrony, które tworzą tzw. gaz elektronowy. Przykładem najbardziej znanego elektrolitu, stosowanego również w elektroencefalografii jest sól fizjologiczna, czyli rozpuszczony w odpowiednim stężeniu w wodzie chlorek sodu.

(16)
Granica faz pomiędzy metalem, a elektrolitem jest wybiórczo przepuszczalna, np. umożliwia swobodne przenikanie jonów metalu, natomiast nie przepuszcza elektronów. W wyniku np. procesu dyfuzji, jony metalu (K+) przemieszczają się z elektrody pomiarowej do elektrolitu. W metalu pozostają elektrony (e), których ładunek przestaje być równoważony przez dodatnio naładowane centa sieci krystalicznej. Warstwa metalu, znajdujące się przy granicy z elektrolitem, staje się naładowana ujemnie. Z kolei w elektrolicie powstaje nadmiar ładunku dodatniego. W wyniku nierównomiernego rozkładu ładunków zostaje wytworzone pole elektryczne, przeciwdziałające dalszemu przenikaniu jonów z elektrody do elektrolitu. Czerwoną strzałką zaznaczono kierunek powstałego pola elektrycznego.

Po umieszczeniu elektrody pomiarowej w elektrolicie, zachodzi proces przechodzenia jonów pomiędzy tymi dwoma ośrodkami. Przepływ ładunków może następować w wyniku procesu dyfuzji, jak również jony metalu mogą być przyciągane poprzez pole elektryczne wytworzone przez jony znajdujące się w elektrolicie (rys. 16). Zwykle granica faz, pomiędzy metalową elektrodą a elektrolitem, jest wybiórczo przepuszczalna dla jonów i elektronów, co prowadzi do nierównomiernego rozkładu ładunku w obydwu ośrodkach, np. warstwa metalu stykająca się z elektrolitem może być naładowana ujemnie, podczas gdy warstwa elektrolitu granicząca z metalem będzie naładowana dodatnio. Proces przenikania ładunków pomiędzy elektrodą a elektrolitem jest kontynuowany do momentu, kiedy powstające w wyniku nierównomiernego rozkładu ładunków pole elektryczne, nie zrównoważy procesów powodujących przemieszczanie się ładunków. W ten sposób na granicy faz, pomiędzy metalową elektrodą a elektrolitem, powstaje elektryczna warstwa dipolowa, w której występuje skok potencjału. Wartość tego potencjału, który nazywa się potencjałem standardowym lub potencjałem równowagowym, może wynosić nawet kilka woltów. W elektroencefalografii przyjęto standard, iż wielkość potencjału warstwy dipolowej nie powinna przekraczać 300 mV.

(17)
Po umieszczeniu metalowej elektrody w elektrolicie, elektroda uzyskuje pewien potencjał względem elektrolitu. W tym przypadku warstwa metalu granicząca z elektrolitem jest naładowana ujemnie, podczas gdy warstwa elektrolitu zawiera nadmiar ładunku dodatniego. Poniżej przedstawiono elektryczny schemat zastępczy dla warstwy dipolowej.

Powstała na granicy elektroda-elektrolit warstwa dipolowa wpływa niekorzystnie na rejestrację sygnału EEG. Po pierwsze, jej dopuszczalna w elektroencefalografii wielkość, wynosząca 300 mV, jest przynajmniej o 4 rzędy wielkości większa od samego sygnału EEG. Ponadto, warstwa ta ma pewne własności elektryczne: opór RD oraz pojemność CD. Elektryczny schemat zastępczy dla warstwy dipolowej został zaprezentowany na rys. 17. Na wielkość pojemności CD ma wpływ materiał z którego wykonano elektrodę, a także jej kształt. Po drugie, pojemność warstwy dipolowej zwiększa całkowitą impedancję elektrody, która jak to zostanie wykazane w dalszej części materiałów, powinna mieć jak najmniejszą wartość. Oprócz tego impedancja kondensatora jest odwrotnie proporcjonalna do częstości przepływającego przez niego prądu, w związku z czym prądy o niskich częstościach, w tym sygnał EEG, są gorzej przewodzone przez element pojemnościowy. Ogólny schemat procesów, które zachodzą pomiędzy elektrodą a elektrolitem, zależą od rodzaju metalu oraz elektrolitu. Powyżej opisano sytuację, gdy kationy metalu przenikają do elektrolitu, skutkiem czego ten ostatni zyskuje ładunek dodatni, podczas gdy metal ma nadmiar ładunku ujemnego. Możliwa jest również sytuacja odwrotna, kiedy z elektrolitu, zawierające sole metalu, z którego zbudowana jest elektroda, następuje przenikanie jonów metalu do elektrody. Wtedy elektroda staje się naładowana dodatnio względem elektrolitu. Trudno jest również przewidzieć, a także i zmierzyć, wartość powstałej na granicy faz bariery potencjału, ponieważ pomiary będą zaburzały jej wielkość. Można natomiast, posługując się szeregiem napięciowym metali - rys. 18, porównać występujący na elektrodzie potencjał z potencjałem elektrody wodorowej, dla której umownie przyjęto zerową wartość potencjału. Stosunkowo niski potencjał standardowy posiada ołów, jednakże pierwiastek ten, z uwagi na silne właściwości toksyczne, nie nadaję się jako materiał na budowę elektrody do rejestracji sygnału EEG. Niski potencjał (ok 0,222 mV) posiada również elektroda chlorosrebrowa Ag-AgCl, która wykonana jest z metalicznego srebra (Ag), pokrytego chlorkiem srebra (AgCl). Oprócz niskiej wartości potencjału, elektrodę Ag-AgCl charakteryzuje również stabilność tego potencjału i brak właściwości toksycznych. Z uwagi na powyższe zalety, elektroda Ag-AgCl jest najbardziej rozpowszechnioną i najczęściej używaną elektrodą do pomiaru EEG. W szczególnych przypadkach do rejestracji czynności elektrycznej mózgu stosuje się również elektrody wykonane ze złota, platyny czy stali. Elektrody te nie mają tak niskiej wartości potencjału standardowego jak elektroda chlorosrebrowa, jednak są bardziej wytrzymałe od strony technicznej, bowiem warstwa chlorku srebra, która pokrywa elektrodę AgCl jest delikatna i z czasem ulega zniszczeniu.

(18)
Szereg napięciowy metali.

Zjawiska zachodzące na granicy metal-elektrolit w zewnętrznym polu elektrycznym

Kiedy układ elektroda-elektrolit znajdzie się w zewnętrznym polu elektrycznym, np. wytworzonym przez aktywność elektryczną mózgu, zostaje naruszony stan równowagi na granicy faz metal-elektrolit. Przykładowo, na rysunku 7 układ elektroda-elektrolit został umieszczony w polu elektrycznym o potencjale dodatnim względem elektrody. Powoduje to, że nadmiar ładunku ujemnego z elektrody przesuwa się w kierunku dodatniego potencjału pola, w wyniku czego zmniejsza się wielkość bariery potencjału, co z kolei przyspiesza proces przenikania jonów metalu do elektrolitu. Podłączając układ metal-elektrolit za pomocą kabli do miernika prądu elektrycznego, zaobserwowalibyśmy przepływ prądu. W ten sposób prądy jonowe, które płyną po powierzchni głowy w wyniku aktywności elektrycznej mózgu, zostają zamienione w układzie elektroda-elektrolit na prąd elektronowy, który może być przetwarzany przez urządzenia pomiarowe.

Opór układu elektroda-skóra i opór wejściowy wzmacniacza

Zajmując się rejestracją sygnału EEG praktycznie za każdym razem zetkniemy się z problemem oporu występującego pomiędzy elektrodami. Niemalże każdy elektroencefalograf wyposażony jest w funkcję umożliwiającą pomiar tego oporu. Dlaczego jest on aż tak istotny? Jak można było się dowiedzieć z poprzedniego rozdziału, układ elektroda-elektrolit posiada pewien opór. Pomiar czynności elektrycznej mózgu odbywa się za pomocą elektrod, które przy pomocy specjalnych czepków, opasek lub klei przytwierdzane są do skóry na głowie. Najbardziej zewnętrzna warstwa skóry - naskórek, bardzo słabo przewodzi prąd (naskórek ma tendencję do rogowacenia, ponadto jest pokryty tłuszczami, które chronią i nawilżają skórę). W związku z powyższym, do całkowitego oporu układu elektrolit-elektroda należy również dodać opór skóry. W dalszej części materiałów będzie już mowa o układzie skóra-elektrolit-elektroda.

(19)
Schemat zastępczy dla układu elektrody - wejście wzmacniacza wchodzącego w skład elektroencefalografu.

Na rys. 19 zaprezentowano schemat zastępczy dla układu elektrody pomiarowe-wzmacniacz (który wchodzi w skład elektroencefalografu, patrz rys. 13. Dla uproszczenia problemu założono, że elektrody pomiarowe mają tylko opór, nie posiadają natomiast pojemności ani indukcyjności. Na rysunku przyjęto następujące oznaczenia:
U — napięcie występujące pomiędzy elektrodami pomiarowymi, będące skutkiem aktywności elektrycznej mózgu,
e1, e2 — elektrody pomiarowe,
R1, R2 — opory elektrod pomiarowych, uwzględniające już opór pomiędzy elektrodą a skórą,
Rw — opór wejściowy wzmacniacza,
UR— napięcia wejściowe wzmacniacza.
Jak zostało to opisane we wcześniejszych rozdziałach, aktywność elektryczna mózgu powoduje przepływ po powierzchni głowy jonowego prądu elektrycznego, który w układzie elektroda-elektrolit zostaje zamieniony na prąd elektronowy. Prąd ten płynie od elektrod poprzez kable do wzmacniacza. Wykorzystując II prawo Kirchhoffa dla układu zastępczego zaprezentowanego na rys. 19, możemy napisać następujące równanie:

(46)U = IR1 + IR2 + IRw

za pomocą którego możemy wyznaczyć prąd płynący w układzie elektrody-wzmacniacz pod wpływem potencjału U:

(47) I = \frac{U}{R_1 + R_2 +  R_w}

oznaczając przez Rc sumaryczny opór elektrod Rc = R1 + R2 równanie ( 47) możemy zapisać w postaci:

(48) I = \frac{U}{R_c + R_w}

W związku z powyższym spadek napięcia (obserwowane napięcie na wzmacniaczu) jest równe:

(49) U_R = R_w\cdot I = \frac{R_w\cdot U}{R_c + R_w}

Wzór ( 49) można przekształcić do postaci:

(50) U_R = \frac{U}{1 + \frac{R_c}{R_w}}

Jak widzimy, napięcie rejestrowane przez wzmacniacz UR jest mniejsze od napięcia występującego pomiędzy elektrodami (U). Dokładniej, stosunek napięcia UR do napięcia U wynosi:

(51) \frac{U_R}{U} = \frac{1}{1 + \frac{R_c}{R_w}}

Napięcie występujące pomiędzy elektrodami oraz napięcie rejestrowane przez wzmacniacz będą sobie równe, kiedy opór wzmacniacza będzie dążył do nieskończoności lub sumaryczny opór elektrod Rc będzie dążył do zera. Spełnienie któregokolwiek z powyższych warunków jest oczywiście niemożliwe, możemy jedynie zadbać aby stosunek \frac{R_c}{R_w} był jak najmniejszy. Przyjęto, że opór wejściowy wzmacniacza powinien być wyższy od 10 MΩ, zaś opór elektrod mniejszy niż 5 kΩ. W takim przypadku stosunek napięcia rejestrowanego do napięcia rzeczywistego jest równy:

(52) U_r = \frac{U}{1 + \frac{5000\ \Omega}{10000000\ \Omega}} = 0,9995

a zatem nie przekracza 0,5‰ (pół promila). Obecnie opory wewnętrzne wzmacniaczy EEG są znacznie większe od 10 MΩ, nie oznacza to jednak, iż można zwiększyć opór układu skóra-elektroda-elektrolit. Po pierwsze, wraz z wielkością oporu rośnie również wielkość szumu termicznego, który jest generowany na elektrodzie Ag-AgCl, co opisuje następujący wzór:

(53) U_n = \sqrt{4\cdot k\cdot T\cdot R\cdot B }

gdzie:
Un — wartość skuteczna napięcia generowanego na elektrodzie[4],
k — stała Boltzmana,
T — temperatura, wyrażona w Kelvinach,
R — opór elektrody,
B — szerokość pasma mierzonego sygnału.
W przypadku sygnału EEG, można przyjąć następujące wartości: T = 310K (temperatura ciała zdrowego człowieka), R = 5kΩ (opór elektrody), B = 50Hz (szerokość pasma sygnału EEG). Podstawiając powyższe dane do wzoru ( 53), otrzymujemy: Un = 70nV. Jest to wielkość 10-krotnie mniejsza od amplitudy sygnału EEG. W przypadku rejestracji czynności elektrycznej mózgu, pomiaru napięcia dokonujemy przynajmniej pomiędzy dwiema elektrodami, dlatego wielkość szumu należy zwiększyć o czynnik \sqrt{2}, w związku z czym wartość skuteczna napięcia rejestrowanego przez elektroencefalograf w pojedynczym kanale wzrośnie w przybliżeniu rośnie do wartości Un = 100nV, co nadal jest znacznie mniejszym napięciem od amplitudy sygnału EEG. Należy jednak pamiętać, że wzór ( 53) jest wyrażeniem na wartość skuteczną napięcia. Przyjmuje się, że chwilowa wartość szumu jest 10-krotnością jego wartości skutecznej. Rejestrując czynność elektryczną mózgu można się zatem spodziewać szumu na poziomie około 1 μV, czyli o wielkości porównywalnej już z sygnałem EEG. Jeśli zwiększymy opór elektrody dwukrotnie, do R = 10kΩ, wielkości chwilowa szumu wzrośnie do wartości Un = 100μV. Jeśli zamierzamy przeprowadzić eksperymenty, z rejestracją czynności elektrycznej mózgu w bardzo szerokim paśmie częstości, np. od 1 do 100Hz, to przy oporze elektrod R = 10kΩ, wartość chwilowej amplitudy szumu wyniesie prawie 2 μV. Drugim powodem, dla którego warto jest zadbać o niski opór układu skóra-elektrolit-elektroda są zakłócenia, które niemal zawsze towarzyszą pomiarowi sygnału EEG i szerzej zostaną omówione w rozdziale Budowa elektroencefalografu [5]. Duży opór elektrod może prowadzić do rejestrowania zakłóceń o tak wysokiej amplitudzie w porównaniu z czynnością elektryczną mózgu, że pomiar sygnału EEG będzie mijał się z celem.

Praktyczne implementacja elektrody pomiarowe stosowane do rejestracji sygnału EEG.

Z uwagi na w przybliżeniu okrągły, gładki kształt głowy, umieszczenie na jej powierzchni elektrod nie jest zadaniem prostym. Obecnie na świecie trwają prace, mające na celu skonstruowanie tzw. suchych elektrod, to jest elektrod, których umieszczenie na głowie wymagałoby założenia jedynie opaski lub odpowiednio dopasowanego czepka. Póki co jednak, w praktyce klinicznej oraz w większości badań naukowych stosowane są elektrody mokre, tj. wymagające użycia substancji poprawiających przewodzenie prądu pomiędzy skórą a elektrodą. Różne typy elektrod mokrych zostaną omówione poniżej. Niezależnie od rodzaju elektrody, z reguły mają one powierzchnię około 1 centymetra kwadratowego. W korze mózgowej o takiej powierzchni znajduje się około miliona neuronów.

Elektrody grzybkowe

Elektroda grzybkowa (rys. 20) zbudowana jest z metalu uformowanego w kształt zaprezentowany na rys. 21. Jeden koniec elektrody zakończony jest płaskim dyskiem, który owija się watą oraz gazą, podczas gdy do drugiego końca przymocowane są odpowiednio wyprofilowane elementy służące do umieszczenia elektrody na powierzchni głowy. Całość przypomina kształtem grzyb, stąd nazwa tego typu elektrod. Elektrody grzybkowe mocowane są do powierzchni głowy przy pomocy czepków (rys. 22), których gumowe wężyki dociskają elektrodę do skóry. Przed wykonaniem badania elektrody grzybkowe należy nasączyć w roztworze soli fizjologicznej, która pełni w tym wypadku rolę elektrolitu i zapewnia przewodnictwo prądu pomiędzy skóra a elektrodą.

(20)
Metalowy rdzeń elektrody grzybkowej.
(21)
Elektrody grzybkowe. Metalowy rdzeń, zaprezentowany na zdjęciu 20 owinięty jest gazikiem.
(22)
Czepek do mocowania elektrod grzybkowych założony na szklany model głowy.

Elektrody grzybkowe są powszechnie stosowane do rejestracji sygnału EEG, jednakże nie są zbyt wygodne dla pacjenta, czującego ucisk plastikowych i gumowych elementów czepka oraz elektrod. W związku z tym, stosuje się je głownie do krótkotrwałych, nie przekraczających 30 minut badań. Jeśli wymagany jest dłuższy pomiar sygnału EEG, powinno się używać inne typy elektrod, omówione w kolejnych rozdziałach.

Elektrody miseczkowe

Elektroda miseczkowa (rys. 23), jak sama nazwa wskazuje, ma kształt wklęsłego dysku, który przypomina małą miseczkę. Zazwyczaj tego rodzaju elektrody są elektrodami chlorosrebrowymi - dysk wykonany jest ze srebra, pokrytego chlorkiem srebra. Spotyka się również elektrody miseczkowej wykonane ze złota lub platyny. Nowe elektrody chlorosrebrowe mają ciemno brązowy lub ciemno fioletowy kolor, który zawdzięczają związkowi chlorku-srebra. Elektrody miseczkowe umieszcza się na głowie za pomocą specjalnych klei. Jednym z najbardziej znanych jest kolodium. Klej ten rozprowadza się po brzegach elektrody, a następnie przykłada się ją w odpowiednim miejscu do głowy badanej osoby. Po wyschnięciu, kolodium jest w stanie utrzymać elektrodę przy skórze nawet przez klika dni. Tak zamocowane elektrody odkleja się przy pomocy rozpuszczalnika acetonowego. Po umieszczeniu elektrody na głowie, pomiędzy skórą a elektrodą tworzy się wolna przestrzeń wypełniona przez włosy oraz powietrze. Aby umożliwić przewodzenie prądu, pomiędzy skórą a elektrodą wprowadza się odpowiednie żele przez otwór znajdujący się w elektrodzie miseczkowej, za pomocą tępej igły. Wadą kolodium jest stosunkowo długi czas potrzebny na wyschnięcie tego kleju. Niedogodności tej pozbawione są nowe rodzaje klejów, które pełnią jednocześnie rolę spoiwa mocującego elektrodę do skóry jak i żelu zapewniającego kontakt elektrody ze skórą. Wadą z kolei tych klejów jest ich stosunkowo niska w porównaniu z kolodium przyczepność. Elektrody umieszczone na głowie za ich pomocą, w przypadku gwałtownego ruchu pacjenta mogą łatwo ulec odczepieniu od skóry. Ponadto kleje te są wodo-zmywalne, co z jednej strony ułatwia zdjęcie elektrod, z drugiej jednak strony powoduje rozpuszczenie kleju pod wpływem potu wydzielanego przez pacjenta. W związku z tym, kleje wodo-zmywalne uniemożliwiają dłuższe niż 3 - 4 godzinne badanie EEG. Specjalnym rodzajem elektrod miseczkowych są elektrody mocowane do głowy przy pomocy specjalnych czepków (rys. 24) przypominających kształtem czepek pływacki. Tego typu czepki wyposażone są w otwory z odpowiednimi zaczepami. Po założeniu czepka o rozmiarze dostosowanym do wielkości głowy badanej osoby, za pomocą tępej igły ze strzykawką wpuszcza się odpowiedni żel, a następnie wpina się elektrody.


(23)
A - zdjęcie elektrod miseczkowych bezpośrednio przyklejanych do skóry badanej osoby. B - elektrody miseczkowe wpinane w czepek, który jest zakładany na głowę badanej osoby.
(24)
A - czepek z do mocowania elektrod miseczkowych, zaprezentowanych na rysunku rys. 23B. B - czepek wraz z wpiętymi elektrodami miseczkowymi, na szklanym modelu głowy.

Budowa elektroencefalografu

Na rys. 13 został przedstawiony ogólny schemat aparatury do rejestracji sygnału EEG. Jak można zauważyć, w skład zestawu pomiarowego wchodzą: elektrody, elektroencefalograf oraz komputer, którego zadaniem jest wyświetlanie i archiwizacja zebranych danych oraz, w niektórych wypadkach (np. eksperymentach naukowych), sterowanie badaniem. Dotychczas omówiona została budowa oraz zasada działania elektrod pomiarowych. W bieżącym rozdziale przedstawiona zostanie budowa elektroencefalografu. Jednym z najważniejszych jego elementów jest blok wzmacniaczy, którego funkcją jest wzmocnienie rejestrowanego sygnału EEG, przed jego dalszym przetworzeniem. Budowa bloku wzmacniającego w głównej mierze jest uzależniona nie tylko od charakterystyki czynności elektrycznej mózgu, ale również od zakłóceń, które towarzyszą pomiarowi. Zostaną one opisane w poniższym podrozdziale.

Źródła zakłóceń rejestracji sygnału EEG, konstrukcja bloku wzmacniającego

Wśród głównych zakłóceń, towarzyszących rejestracji sygnału należy wymienić:

  1. Zjawiska fizyczne i chemiczne zachodzące pomiędzy skórą, elektrolitem a elektrodą. Jak wiadomo, każda elektroda metalowa posiada pewien charakterystyczny dla siebie potencjał, zwany potencjałem standardowym. W przypadku elektrod stosowanych do pomiaru EEG, wielkość tego potencjału waha się w granicach od około 220 mV dla elektrody Ag-AgCl do ponad 500 mV dla elektrody wykonanej ze stali i pokrytej złotem. Potencjał elektrody chlorosrebrowej jest stabilny, jednakże pewne zjawiska mogą doprowadzić do zmian tego potencjału w czasie (np. badana osoba zacznie się pocić, skutkiem czego żel przewodzący zmieni swoje własności). W zależności od tego, jak elektrody połączone są ze wzmacniaczem, może to spowodować np. powstanie w zapisie sygnału EEG wolnozmiennej fali (o okresie kilku sekund) o dużej amplitudzie, występującej na odprowadzeniach z jednego lub wielu kanałów.
  2. Generatory czynności elektrycznej znajdujące się w ciele człowieka. Do najsilniejszych zakłóceń należy sygnał pochodzący od mięśnia sercowego o amplitudzie ok. 1 mV, sygnały pochodzący od mięśni odpowiedzialnych za mimikę twarzy, ruch i utrzymywanie głowy w pozycji pionowej, ruch języka. Źródłem bardzo silnego zaburzenia jest również, spolaryzowana elektrycznie, gałka oczna. W momencie kiedy człowiek mruga, gałka oczna wykonuje lekki ruch w górę (zjawisko Bella). Rogówka, znajdująca się w przedniej części gałki ocznej, posiada ładunek dodatni, podczas gdy siatkówka ma ładunek ujemny. Układ siatkówka — rogówka tworzy zatem dipol elektryczny, wytwarzający w przestrzeni pewien rozkład potencjału elektrycznego. Rozkład ten ulega zmianie, kiedy dipol zmienia swoją orientację w przestrzeni, czyli w trakcie mrugnięć, czy też wodzenia przez człowieka wzrokiem za jakimś obiektem.
  3. Pola elektryczne wytworzone przez znajdujące się w pobliżu urządzenia elektryczne oraz sieć zasilającą. Ostatnie źródło zakłóceń ma zasadniczy wpływ budowę bloku wzmacniającego w elektroencefalografie. Prowadzi ono do powstania w zapisie EEG charakterystycznego, regularnego artefaktu (o częstości 50 Hz w Europie i większości krajów Azji, 60 Hz w Ameryce Północnej), które amplituda może nawet 10 krotnie przekroczyć rejestrowaną czynność elektryczną mózgu. Oczywiście, badanie EEG można wykonywać środowisku pozbawionym zakłóceń elektrycznych. Jednakże w praktyce może to bardzo ograniczyć zastosowanie pomiaru EEG. Aby izolować układ pacjent — elektroencefalograf, należy rejestrację EEG przeprowadzić w bardzo dokładnie wykonanej klatce Faradaya[6]. Elektroencefalograf wymaga jednak zasilania, a zarejestrowane dane powinny być w jakiś sposób przesłane do komputera. Każde dodatkowe połączenie, czy to dostarczające energię elektryczną do elektroencefalografu, czy przesyłające dane, może stworzyć tor, przez który będą rozprzestrzeniać się zakłócenia. Podsumowując, należy założyć, że w praktycznych zastosowaniach EEG, nie da się idealnie odizolować układu pacjent — elektroencefalograf od zewnętrznych źródeł zakłóceń. Na rys. 25 zaprezentowano bardzo uproszczony schemat sprzężeń pomiędzy badaną osobą, elektroencefalografem a siecią elektryczną.
(25)
Uproszczony schemat sprzężeń, które powstają pomiędzy badaną osobą, a siecią elektryczną. Na skutek sprzężeń pojemnościowych oraz wielkości pasożytniczych transformatorów stanowiących barierę galwaniczną, do układu pacjent &mdashl; elektroencefalograf wpływają prądy zakłócające pomiar EEG.
(26)
Niewłaściwie wykonywane badanie EEG. Jako masę układu pacjent-elektroencefalograf wybrano uziemienie (pacjent bezpośrednio podłączony do uziemienia). Uniemożliwi to rejestrację aktywności elektrycznej mózgu, a ponadto naraża pacjenta na niebezpieczeństwo. W przypadku uszkodzenia bariery galwanicznej, przez elektroencefalograf, a dalej przez elektrody pomiarowe i pacjenta popłynie prąd I2.
(27)
W wyniku dołączenia do elektroencefalografu dodatkowego urządzenia, elektroencefalograf stracił barierę galwaniczną od strony uziemienia. W przypadku zwarcia lub uszkodzenia bariery galwanicznej od strony zasilania, przez badaną osobę może popłynąć znaczny prąd I2.

Człowiek, który dosyć dobrze przewodzi prąd, tworzy wraz z kablami sieci energetycznej 230V/50Hz kondensator powietrzny C1, natomiast z przewodami uziemiającymi kondensator C2. Zakładając, że pojemność kondensatora C1 jest równa pojemności kondensatora C2, w wyniku sprzężenia pojemnościowego z siecią elektryczną, na ciele człowieka powstaje potencjał o wielkości dochodzącej do  \frac{1}{2}\dot 230V = 115 V!. Potencjał ten zmienia się w czasie z częstością 50Hz. Sprzężenie człowieka z siecią elektryczną powoduje przepływ przez jego ciało prądów (na rys. 25 I1 i I2), które jednak z uwagi na zbyt małą wartość pojemności kondensatorów C1 i C2 nie są przez niego wyczuwalne, aczkolwiek ich amplituda jest na tyle wysoka, aby zaburzyć pomiar EEG.
Napięcia mierzymy zawsze względem jakiegoś punktu odniesienia. W przypadku urządzeń elektrycznych, takim punktem jest ziemia, dla której umownie przyjęto potencjał równy 0 V. Z uwagi na sprzężenie pojemnościowe człowieka z siecią elektryczną, dokonywanie pomiaru aktywności elektrycznej mózgu względem ziemi nie miałoby sensu, bowiem rejestrowane byłoby głownie zakłócenie pochodzące od sieci elektrycznej. W przypadku ekranowania badanej osoby od urządzeń elektrycznych oraz wybrania punktu odniesienia jako elementu uziemionego, pomiar EEG również nie mógłby się udać, z uwagi na inne źródła zakłóceń występujące w organizmie ludzkim, takich jak np. potencjały od mięśnia sercowego serca. Co więcej, niezależnie od tego, czy występuje ekranowanie układu pacjent – elektroencefalograf, czy też nie, wybranie do pomiarów ziemi jako punktu referencyjnego może być niebezpieczne dla pacjenta. Sytuacja taka została zaprezentowana na rys. 26 oraz na rys. 27. Na rys. 26 badana osoba została bezpośrednio podłączona do uziemienia (kabel, zamiast kondensatora C2), zaś na rys. 27 bezpośrednie połączenie człowieka z ziemią występuję zamiast izolacji galwanicznej masy elektroencefalografu i kondensatora C4. W obydwu przypadkach, jeśli w układzie zasilającym elektroencefalograf, dojdzie to jakiegoś zwarcia, czy uszkodzenia, np. izolacji galwanicznej, przez pacjenta może popłynąć prąd stanowiący realne niebezpieczeństwo dla jego życia lub zdrowia. Wnioski jakie płyną z powyższych rozważań są następujące:

  1. Wielu producentów elektroencefalografów dopuszcza możliwość podłączania do niego różnych dodatkowych aparatów. Ma to szczególne znacznie, w przypadku badań naukowych, kiedy wykonuje się niestandardowe eksperymenty. Należy jednak pamiętać, że zbudowane przez nas dodatkowe urządzenie również musi być izolowane galwaniczne od sieci zasilającej. Jeśli tak nie będzie, to po podłączeniu tego urządzenia do elektroencefalografu, ten również przestanie być izolowany galwanicznie, co może stwarzać niebezpieczeństwo dla pacjenta.
  2. Nigdy nie wolno dopuścić do sytuacji aby badana osoba, w trakcie rejestracji EEG, miała kontakt z metalowymi elementami, które mogą być uziemione.
  3. Jeśli elektroencefalograf jest zasilany z sieci energetycznej, to musi być on izolowany galwanicznie, np. od za pomocą transformatora, od tej sieci. W każdym elemencie elektrycznym istnieją jednak wielkości „pasożytnicze”, które niekorzystnie wpływają na jego parametry, np. rezystor, oprócz oporu, może posiadać również pewną pojemność oraz indukcyjność. W wyniku tego, izolacja galwaniczna, również nigdy nie jest idealna – posiada pewną pojemność przez którą do elektroencefalografu przedostają się niepożądane prądy, na rys. 25 oznaczone jako I3 oraz I6.
  4. Punkt, względem którego dokonuje się pomiaru potencjałów związanych z czynnością elektryczną mózgu, powinien znajdować się na ciele człowieka. Standardowo jest to punkt głowie, chociaż istnieją pewne konstrukcje wzmacniaczy, w przypadku których elektroda masy elektroencefalografu umieszczana jest na brzuchu. Tego rodzaju uziemienie, nazywa się w języku angielskim floating– ground, co w bezpośrednim tłumaczeniu na język polski oznacza „pływającą masę" (potencjał elektrody wybranej jako masa układu pomiarowego zmienia wraz z czynnością elektryczną na powierzchni głowy). W takim przypadku, różnica potencjału pomiędzy elektrodami pomiarowymi (na rys. 25 zaznaczona wraz z kablami kolorem żółtym), a elektrodą masy, spowodowana przez sieć elektryczną wynosi od 0 mV do 100 mV (i oczywiście zmienia się w czasie z częstością 50 Hz). Potencjał ten obserwowany jest na wszystkich elektrodach, w związku z czym określa się go jako sygnał wspólny lub współbieżny (ang. Common Mode Signal, CMS). Z uwagi na fakt, że amplituda sygnału wspólnego, przekracza znacznie amplitudę sygnału EEG, wzmacnianie różnicy potencjałów (czyli napięcia), występujących na powierzchni głowy nie ma sensu. Wzmocnieniu ulegnie bowiem również zakłócenie sygnału, na tle którego czynność elektryczna mózgu będzie niemożliwe do zaobserwowania. W związku z tym należy wzmacniać różnicę napięć, a nie same napięcia, co umożliwi zredukowanie sygnału wspólnego. W tym celu, w elektroencefalografach stosuje się wzmacniacze różnicowe. Podanie w tym miejscu, szczegółowego schematu połączeń, jakie występują pomiędzy elektrodami pomiarowymi, a wzmacniaczami nie jest możliwe, ponieważ zazwyczaj stanowi to tajemnicę producenta elektroencefalografu, który stara się zmniejszyć wpływ zakłóceń na rejestrację sygnału EEG poprzez nowatorskie rozwiązania techniczne. Poniżej zostanie przedstawiona bardzo ogólna koncepcja wykorzystania wzmacniaczy różnicowych w pomiarze EEG.

Blok wzmacniający sygnał EEG

Podstawowym elementem bloku wzmacniającego sygnał w elektroencefalografie są wzmacniacze operacyjne [7]. Jak już wspomniano na wstępie, elektryczną czynność mózgu należy mierzyć w różnych miejscach na powierzchni głowy. Na rys. 28 zaprezentowano przykładowy schemat wielokanałowego wzmacniacza, wchodzącego w skład elektroencefalografu. Układ ten wykorzystuje wzmacniacze operacyjne pracujące w tzw. układzie nieodwracającym. Przyjęto następujące oznaczenia:
 E_1,\ E_2, \ldots, E_n — elektrody rejestrujące potencjały  V_1,\ V_2, \ldots, V_n na powierzchni głowy,
 E_g,\ V_g \textbf{} — elektroda masy układu, której potencjał wynosi V_g \textbf{},
 E_r \textbf{} — elektroda referencyjna (odniesienia) rejestrująca potencjał V_r \textbf{}. Z uwagi na zakłócenia towarzyszące pomiarowi czynności elektrycznej mózgu, wzmacnianie napięć, czyli różnic potencjałów pomiędzy elektrodą masy  E_g \textbf{}, a elektrodą pomiarową E_n \textbf{} nie ma sensu. Wzmacnia się natomiast różnice napięć, pomiędzy elektrodami pomiarowymi  E_1,\ E_2, \ldots, E_n a wyróżnioną elektrodą, którą określa się jako elektrodę referencyjną,
 U_1,\ U_2, \ldots, U_n — napięcia wyjściowe ze wzmacniaczy (wzmocniony sygnał EEG), względem elektrody masy,
 \Delta U_1,\ \Delta U_2, \ldots,\ \Delta U_n — różnica napięć pomiędzy wyjściami kolejnych wzmacniaczy a wyjściem wzmacniacza napięcia elektrody odniesienia E_r \textbf{}.

(28)
Schemat ideowy 3-kanałowego wzmacniacza EEG. Kolorem niebieskim oznaczono masą układu podłączoną do pacjenta poprzez elektrodę E_g \textbf{}, natomiast kolorem żółtym elektrodę referencyjną E_r \textbf{} względem której będą mierzone napięcia.

Potencjał rejestrowany przez kolejne elektrody jest równy:

(54) V_n =V_{EEG_n} + V_{CMS}

gdzie:
V_{EEG_n} — potencjał wytworzony przez elektryczną aktywność mózgu,
V_{CMS}\textbf{} — sygnałem wspólnym na wszystkich elektrodach i związanym z zakłóceniem od sieci.
W przypadku idealnym, wykonywanie pomiarów różnicowych powinno prowadzić do zredukowania sygnału CMS. Niestety w rzeczywistości, wzmacniacze operacyjne nie posiadają idealnych parametrów. Ponadto wzmocnienie układu nieodwracającego, który występuje na rys. 28 w bloku wzmacniającym, zależy od wartości oporów rezystorów wchodzących w skład tego wzmacniacza. I tak, dla pierwszego od góry wzmacniacza na rys. 28 wynosi ono:

(55) K = 1 + \frac{R_2}{R_1}

Elementy elektroniczne wykonane są ze skończona dokładnością, dlatego opory rezystorów R1, R3, R5, R7 będą nieco od siebie się różnić, podobnie jak różne będą opory rezystorów R2, R4, R6 i R8, w efekcie czego każdy ze wzmacniaczy będzie miał inne wzmocnienie. Prowadzić to będzie do różnego wzmocnienia sygnału wspólnego i ostatecznie jego obserwacji, pomimo wykonywania pomiaru różnicowego. Dla przykładu, niech współczynnik K będzie równy 50, natomiast różnica tego współczynnika pomiędzy kolejnymi wzmacniaczami wynosi ΔK = 0.1% (co należy uznać za wartość bardzo małą). Jeśli amplituda sygnału wspólnego ma wartość 100 mV, wtedy na wyjściu pierwszego wzmacniacza, uzyska on wartość 50 * 100 mV = 5000 mV, natomiast na wyjściu wzmacniacza napięcia referencyjnego: 50,005 * 100 mV = 5000,5 mV, co prowadzi do powstania różnicy napięć o amplitudzie: 5000,5 mV − 5000 mV = 500μV. Z kolei aktywność elektryczna mózgu, o amplitudzie rzędu 10 μV, po 50-krotnym wzmocnieniu osiągnie wartość 500 μV, a zatem porównywalną z sygnałem pochodzącym od sieci elektrycznej. Sytuacja taka jest niedopuszczalna, dlatego układ zaprezentowany na rys. 28 najprawdopodobniej nie jest już wykorzystywany w elektroencefalografach. Podsumowując, z uwagi na cechy charakterystyczne czynności elektrycznej mózgu, rejestrowany sygnał EEG musi zostać poddany wzmocnieniu. Na skutek zakłóceń towarzyszących pomiarowi sygnału EEG, wzmacnianie napięć nie jest dobrym rozwiązaniem, dlatego w elektroencefalografie, zostaje wzmocniona różnica napięć. Konstrukcja bloku wzmacniającego może być przeprowadzona na wiele różnych sposobów, w zależności od producenta. Na froncie elektroencefalografu, obok kanałów wejściowych, do których podłącza się kable elektrod pomiarowych, na pewno znajdzie się wejście dla elektrody masy (często oznaczanej jako GND, od ang. ground). W niektórych elektroencefalografach może również pojawić się wejście dla elektrody referencyjnej, nie jest to jednak regułą. W niektórych elektroencefalografach, jako napięcie referencyjne może zostać przyjęte średnie napięcie występujące na elektrodach pomiarowych. Napięcie referencyjne może też być odejmowane na drodze programowej, przez procesor wchodzący w skład elektroencefalografu lub też przez oprogramowanie do wizualizacji danych, które znajduje się na komputerze.

Filtr dolnoprzepustowy oraz przetwornik analogowo-cyfrowy

Przetwornik Analogowo/Cyfrowy

Po wzmocnieniu, zarejestrowany sygnał EEG ma już amplitudę, która umożliwia jego dalszą analizę i prezentację na monitorze komputerowym. Jednakże komputer przetwarza sygnały binarne, czyli takie które przyjmują tylko dyskretne wartości napięć, podczas gdy zapis elektrycznej aktywności mózgu jest sygnałem ciągłym. Zanim więc zarejestrowane dane zostaną przesłane z elektroencefalografu do komputera, muszą zostać zamienione z postaci analogowej na postać dyskretną. Proces przetwarzania sygnału analogowego na sygnał cyfrowy odbywa się w urządzeniu nazywanym przetwornikiem analogowo-cyfrowym, w skrócie A/C (ang. Analog to Digital Converter). Wyczerpujący opis budowy oraz zasady działania przetworników A/C czytelnik znajdzie w na stronach Wikipedii [8], w skrypcie do Pracowni Elektronicznej FUW [9] oraz w Horowitz i Hill (2009), Nadachowski i Kulka (1985). Istnieje wiele metod konwersji sygnału analogowego na cyfrowy. Poniżej, dla przykładu omówiony zostanie jeden ze sposobów, polegający na porównaniu napięcia wejściowego z N równomiernie rozłożonymi poziomami odniesienia.

(29)
Rys 17. Schemat prostego 2-bitowego przetwornika analogowo-cyfrowego, którego działanie polega na porównaniu napięć wejściowych z napięciami referencyjnymi. Zaprezentowany przetwornik może dokonać konwersji napięcia analogowego z zakresu od 0 V do 10 V (napięcie wejściowe układu dzielników napięcia utworzonych z rezystorów).

Na rys. 29 zaprezentowano schemat ideowy takiego 2-bitowego przetwornika. Elementem elektronicznym, służącym do porównywania napięć jest komparator [10],[11], Horowitz i Hill (2009), Nadachowski i Kulka (1985), który można zrealizować za pomocą wzmacniacza operacyjnego. Na rysunku 17 napięcia referencyjne wytworzone są przez drabinkę rezystorów, tworzących dzielniki napięcia[12], ,[13], Horowitz i Hill (2009), Nadachowski i Kulka (1985). Wyjścia komparatorów połączone są z koderem[14], [15], Horowitz i Hill (2009), wytwarzającym słowo binarne, odpowiadające najwyższemu numerowi komparatora, uaktywnionego przez napięcie wejściowe Uwe. Przykładowo, na rys. 29 pierwszy od dołu komparator porównuje napięcie wejściowe z napięciem: 1,67 V, komparator drugi z napięciem 5 V, natomiast komparator trzeci z napięciem 8,33 V. Jeśli na wejściu układu pojawi się napięcie:
Uwe < 1,6V to wyjście żadnego z komparatorów nie zostanie uaktywnione, a na wyjściu kodera pojawi się słowo 00 (dziesiętnie 0),
1,6V = < Uwe < 5V to uaktywni się wyjście komparatora numer 1, a na wyjściu kodera pojawi się słowo 01 (dziesiętnie 1),
5V = < Uwe < 8,33V to uaktywni się wyjście komparatora numer 2, a na wyjściu kodera pojawi się słowo 10 (dziesiętnie 2),
8,33V = < Uwe < 10V to uaktywni się wyjście komparatora numer 3, a na wyjściu kodera pojawi się słowo 11 (dziesiętnie 1).
Układ zaprezentowany na rys. 29 jest w stanie przypisać napięciu analogowemu, o maksymalnej amplitudzie zmieniającej się w zakresie od 0 V do 10 V, cztery stany, odpowiadające binarnym sekwencjom 00, 01, 10 i 11. Rozdzielczość napięciowa takiego przetwornika jest więc równa:
ΔU = 10 V / 4 = 2,5 V
Jest to oczywiście wartość za duża w przypadku konwersji sygnału EEG. W nowoczesnych elektroencefalografach, stosowane są przetworniki analogowo - cyfrowe o znacznie większej ilości bitów, co w połączeniu z wąską skalą pomiaru daje w efekcie rozdzielczości wystarczające na potrzeby pomiaru sygnału EEG. Przykładowo, 16-bitowy przetwornik analogowo cyfrowy, dokonujący konwersji w zakresie od -5 mV do +5 mV, ma rozdzielczość napięciową równą:
ΔU = 10 mV / 216 = 10 mV / 65536 = 153 nV
zaś rozdzielczość 24-bitowego przetwornika o zakresie pomiaru od -250 mV do +250 mV wynosi:
ΔU = 500 mV / 224 = 10 mV / 16777216 = 30 nV
Rolą przetwornika A/C nie jest jednak tylko zamiana sygnału analogowego w dziedzinie amplitudy napięć. Aktywność elektryczna mózgu zmienia się w czasie, dlatego konwersję opisaną powyżej, powinna być dokonywana w każdej chwili czasu, co oczywiście jest niemożliwe. Rozwiązaniem tego problemu jest odczytywanie wartości napięcia w regularnych odstępach czasu. Proces taki nazywamy próbkowaniem sygnału. Pojawia się jednak pytanie, czy sygnał dyskretny w dziedzinie czasu, może poprawnie odtwarzać informację, która była zawarta w sygnale ciągłym. Odpowiedź na to pytanie jest twierdzącą, pod warunkiem spełnienia pewnego warunku, o którym mówi twierdzenie Nyquista-Shannona[16]:
Sygnał dyskretny w dziedzinie czasu jest wierną reprezentacją sygnału ciągłego, z którego powstał na drodze próbkowania, jeśli sygnał ciągły nie zawierał składowych częstościowych wyższych niż połowa częstości próbkowania.
Przykładowo, na płycie CD nagrany jest dzwięk, który jest próbkowany z częstością 44 kHz, czyli w odstępach czasu równych \Delta t = \frac{1}{44000} s = 22,7 \mu s. Ucho ludzkie rozróżnia dźwięki o częstości od 16 Hz do 20kHz. Z godnie z twierdzeniem Nyquista-Shannona, aby dyskretny sygnał zawierał tę samą informację co sygnał ciągły (czyli abyśmy mogli słuchać nie zniekształconej muzyki), próbkowanie sygnału w studio nagrań musi odbywać się przynajmniej z częstością 2*20 kHz = 40 kHz. Przyjmuje się, że aktywność elektryczna mózgu rejestrowana na powierzchni głowy zawiera składowe częstościowe w granicach od 0 do 100 Hz, chociaż największą moc tego sygnału rejestruje się w paśmie od 0 do 50Hz. Na potrzeby badania EEG, przetwornik A/C musi więc próbkować sygnał z częstością minimum 100 Hz. Nowoczesne elektroencefalografy umożliwiają wybór częstości próbkowania w granicach od 256 Hz do 2048 Hz.

Filtr dolnoprzepustowy.

Ogólnie, rolą filtrów jest usuniecie z sygnału niepożądanych składowych częstościowych. W poprzednim paragrafie można było dowiedzieć się, że próbkowanie sygnału w dziedzinie częstości, wymaga spełnienia pewnego warunku, a mianowicie sygnał ciągły nie może zawierać składowych częstościowych wyższych niż połowa częstości próbkowania. W związku z tym, zanim sygnał trafi na wejście przetwornika analogowo-cyfrowego, zbyt wysokie składowe częstościowe muszą być z niego usunięte, co dokonuje się przy pomocy filtrów dolnoprzepustowych. Uwaga, wiele filtrów w elektroencefalografach jest zaprogramowanych w układach mikroprocesorowych, bądź też wchodzą w skład pakietów do wizualizacji i analizy sygnału EEG. Są to filtry cyfrowe, czyli układy elektroniczne lub programy operujące już na sygnale binarnym. W elektroencefalografie musi jednak występować przynajmniej jeden filtr analogowy, znajdujący się przed przetwornikiem A/C. Analogowe filtry dolnoprzepustowe są wykonywane najczęściej na bazie układów RC [17], [18], Horowitz i Hill (2009), Nadachowski i Kulka (1985). Charakterystyka idealnego filtru dolnoprzepustowego została zaprezentowana na rys. 30. Rzeczywiste filtry mają charakterystykę, pokazaną na rys. 31.

(30)
Charakterystyka amplitudowo-częstościowa idealnego filtru dolnoprzepustowego. Na osi pionowej odłożono stosunek napięcia wyjściowego na filtrze, do napięcia wejściowego. Powyżej pewnej częstości granicznej fg filtr nie przepuszcza sygnału.
(31)
Charakterystyka amplitudowo-częstościowa rzeczywistego filtru dolnoprzepustowego. Na osi pionowej odłożono stosunek napięcia wyjściowego na filtrze, do napięcia wejściowego. W filtrze rzeczywistym występuje pewien obszar przejściowy, pomiędzy częstościami dla których Awy / Awe = 1, a częstościami dla których Awy / Awe jest bliskie 0. Z reguły przyjmuje się, że częstość odcięcia filtru, od której sygnał jest tłumiony, to taka częstość, dla której stosunek Awy / Awe = 0.75. Odpowiada to sytuacji, kiedy energia sygnału wyjściowego maleje do połowy wartości sygnału wyjściowego.

Filtr górnoprzepustowy i sieciowy

Rolą tych filtrów jest usuniecie z sygnału EEG zakłóceń powstałych na granicy skróra-elektroda-elektrolit oraz zaburzeń pochodzących od sieci zasilającej i urządzeń zewnętrznych. Jak można było się dowiedzieć w rozdziale dotyczącym zasady działania elektrod, na granicy faz metal – elektrolit powstaje pewien charakterystyczny potencjał o wielkości mogącej dochodzić do kilkuset mV. Potencjał ten w zasadzie jest stały w czasie (o ile nie zmieniają się parametry elektrolitu, np. żelu, który został zastosowany do badania). Obserwowana aktywność elektryczna mózgu nie zmienia się wokół potencjału zerowego, ale wokół potencjału standardowego elektrod. Z uwagi na stałą amplitudę tego artefaktu w czasie, składa się on z bardzo niskich składowych częstościowych, dlatego można go usunąć z zapisu EEG poprzez zastosowanie filtru górnoprzepustowego [19], [20], Horowitz i Hill (2009), Nadachowski i Kulka (1985). Z reguły, filtr taki ma ustawioną częstość odcięcia w granicach 0.1 Hz – 2 Hz. Przykładową charakterystykę rzeczywistego filtru górnoprzepustowego zaprezentowano na rys. 32.

(32)
Charakterystyka amplitudowo - częstościowa rzeczywistego filtru górnoprzepustowego. Na osi pionowej odłożono stosunek napięcia wyjściowego na filtrze, do napięcia wejściowego. Sygnał o częstości niższej niż częstość odcięcia fg jest silnie tłumiony.

Z kolei filtr sieciowy, służy do usunięcia artefaktu związanego z siecią elektryczną. Jest to filtr pasmowo-zaporowy [21], [22], Horowitz i Hill (2009), Nadachowski i Kulka (1985), którego charakterystykę pokazano na rys. 33. Filtry górnoprzepustowy oraz sieciowy mogą być realizowane w elektroencefalografach jako analogowe układy elektroniczne lub filtry cyfrowe, zaprogramowane w układach mikroprocesorowych.

(33)
Charakterystyka amplitudowo - częstościowa rzeczywistego filtru pasmowo-zaporowego (sieciowego). Na osi pionowej odłożono stosunek napięcia wyjściowego na filtrze, do napięcia wejściowego. Sygnał o częstości w okolicach 50 Hz jest usuwany z sygnału wyjściowego.

Dodatki

Praktyczne uwagi dotyczące przeprowadzania rejestracji sygnału EEG

Obecnie produkowane elektroencefalografy charakteryzują się pod wieloma względami bardzo dobrymi parametrami, np. dokładnością konwersji analogowo-cyfrowej na poziomie kilkudziesięciu nV, impedancją wejściową dochodząca nawet do 1012 Ω, częstością próbkowania sygnału EEG wynoszącą 2048 Hz i więcej. Wciąż jednak obok sygnału EEG rejestrowane są również artefakty. Należy pamiętać, że jeśli chce się uzyskać sygnał, będący dobrym odzwierciedleniem elektrycznej aktywności mózgu, powinno się pamiętać o pewnych regułach, niezależnie od jakości posiadanego elektroencefalografu. Wbrew pozorom, które mogą powstać pod wpływem rozwiązań technologicznych występujących w elektroencefalografie, osoba przeprowadzająca badanie EEG ma olbrzymi wpływ na jakość uzyskanego pomiaru. Jeśli popełni ona jakiś błąd w trakcie np. zakładania elektrod na głowę badanej osoby, nawet najbardziej zaawansowana elektronika nie będzie w stanie skorygować tego błędu. Warto jest więc, wykonując badanie lub eksperyment związany z rejestracją EEG, przestrzegać następujących reguł:

  1. Wszystkie elektrody zastosowane w badaniu EEG powinny być takie same. Nie wolno stosować elektrod kilku różnych typów, np. chlorosrebrowych i złotych. Potencjał standardowy elektrody chlorosrebrowej wynosi około 220 mV podczas gdy elektrody stalowej, pokrytej złotem jest większy od 500 mV. Zastosowanie tych dwóch rodzajów elektrod prowadziłoby do powstania różnicy potencjałów na poziomie 300 mV, zaburzającej rejestrację EEG.
  2. Jeśli do zapisu czynności elektrycznej mózgu stosowane są elektrody chlorosrebrowe, należy pamiętać, że ciemnobrązowa warstwa chlorku srebra, stopniowo, wraz z kolejnymi badaniami EEG będzie ulegać zniszczeniu. Po pewnym czasie spod warstwy AgCl zacznie pojawiać się srebrny dysk elektrody. Nie powinno się wykonywać rejestracji sygnału EEG za pomocą zużytych elektrod chlorosrebrowych (takich, na których nie występuje już warstwa AgCl) oraz nowych elektrod tego samego typu. Potencjał standardowy srebra wynosi około 700 mV, podczas gdy potencjał elektrody chlorosrebrowej 220 mV. Zastosowanie nowych i zużytych elektrod, podobnie jak w poprzednim punkcie doprowadzi do powstania różnicy potencjałów, tym razem na poziomie ~500 mV.
  3. Badana osoba pod żadnym pozorem nie powinna stykać się z elementami, które mogą być uziemione.
  4. Kontakt badanej osoby z elementami metalowymi (np. stół, którego konstrukcja oparta jest na metalowym stelażu), będzie prowadzić do zwiększenia zakłóceń pochodzących od sieci elektrycznej.
  5. Należy zadbać, aby badana osoba została wygodnie ułożona, w przeciwnym razie mimowolne napięcia mięśni, np. karku, doprowadzą do powstania trudnego do usunięcia z zapisu EEG artefaktu wytworzonego przez sygnały elektrycznie sterujące mięśniami.
  6. Pacjent, nie powinien wykonywać żadnych ruchów, w tym: nie marszczyć czoła, nie zaciskać szczęk, nie ruszać językiem, ograniczyć mruganie oczami do minimum. Jeśli to możliwe, badana osoba powinna lekko zmrużyć oczy, co przeciwdziała szybkiemu wysychaniu rogówki, oraz włożyć język między zęby, co zapobiegnie jego ruchom oraz zaciskaniu szczęk.
  7. Należy mierzyć opory pomiędzy elektrodami umieszczonymi na głowie pacjenta. Powinny być one mniejsze od 5 kΩ i mieć zbliżone wartości na każdej elektrodzie. W celu zmniejszenia oporu skóry, powinna być ona przemyta spirytusem, acetonem lub innym, dopuszczonym do użytku roztworem odtłuszczającym. Powinno się zadbać, aby w przestrzeni pomiędzy elektrodą a skórą znajdowało się jak najmniej włosów.
  8. Elektrody powinno się zakładać na głowie pacjenta, zaczynając od odprowadzeń znajdujących się w części potylicznej głowy i postępując w kierunku czoła. Dzięki czemu kable od już założonych elektrod na głowie nie będą przeszkadzały w umieszczaniu następnych.
  9. Opisując źródła zakłóceń, które wpływają na rejestrację sygnału EEG, zostały pominięte wielkości pasożytnicze kabli łączących elektrodę ze wzmacniaczem. Kable te będą głównie sprzężone pojemnościowo z siecią elektryczną, dlatego ich ruch może prowadzić (w zależności od elektroencefalografu) do zwiększenia artefaktu sieciowego. W takim przypadku warto jest, po umieszczeniu elektrod na głowie, spiąć kable w jedną wiązkę.

Literatura

Skrypt do Pracowni Elektronicznej FUW [23]

Horowitz P., Hill W. Sztuka elektroniki cz. 1 i 2. Wydawnictwa Komunikacji i Łączności WKŁ, 2009

Nadachowski M., Kulka Z. Analogowe układy scalone. Wydawnictwo Naukowo-Techniczne, Warszawa, 1985.

Magnetoencefalografia

Sugerowana lektura (Hämäläinen et al., 1993)

Wstęp

Magnetoencefalogram (MEG) to zapis pól magnetycznych, indukowanych przez prądy jonowe występujące w komórkach nerwowych. Pola te są niezmiernie słabe — rzędu setek femtotesli (fT). Ilustruje to skalę trudności związanych z ich pomiarem i oddzieleniem pól pochodzących z mózgu od szumów elektromagnetycznych. Pola magnetyczne generowane przez ruch metalowym śrubokrętem w odległości kilku metrów czy przejazd samochodu w odległości kilkudziesięciu metrów są o kilka rzędów wielkości silniejsze niż pola pochodzące z mózgu. Praktyczny pomiar MEG umożliwiło wprowadzenie niezwykle czułych magnetometrów SQUID (ang. Superconducting Quantum Interference Device) wykorzystujących efekty kwantowe w nadprzewodzących pierścieniach. Uzyskanie nadprzewodnictwa wymaga jednak bardzo niskich temperatur (rzędu 4,2 K czyli ok. –269ºC), przez co urządzenia te są duże i bardzo kosztowne. Dla porównania: najwyższej klasy aparaty do naukowych pomiarów EEG kosztują dzisiaj (grudzień 2009) ok. 10 - 20 tysięcy Euro za system 16 - 32 kanałowy, a prosty 2 - 4 kanałowy zestaw EEG do celów neurofeedback można zbudować już za kilkaset złotych (korzystając np. z projektu http://openeeg.org). Standardowy system do pomiaru MEG (ponad 200 magnetometrów lub gradiometrów) to koszt rzędu 2 milionów Euro. Proporcjonalnie wysokie są również koszty utrzymania MEG — kilkadziesiąt litrów ciekłego helu na tydzień, duży pobór prądu itp. Ponadto, rejestracja MEG musi się odbywać w pomieszczeniach specjalnie budowanych pod kątem ekranowania pól magnetycznych.

MEG i EEG mierzą ślady tych samych procesów elektrycznych zachodzących w mózgu. Jednak propagacja pola magnetycznego jest znacznie mniej zakłócana przez zmienne własności ośrodków pomiędzy źródłami (przybliżanymi zwykle modelem dipola prądowego) a czujnikami. Można powiedzieć, że granice tkanek, czaszki, skóry i powietrza, modyfikujące bardzo mocno pole elektryczne, są dla pola magnetycznego przezroczyste. O ile w EEG widać aktywność wszystkich odpowiednio silnych źródeł, to MEG wykazuje przede wszystkim wkłady od dipoli zorientowanych prostopadle do promienia kuli przybliżającej głowę.

Słów kilka o historii

Pierwszy pomiar MEG został wykonany przez fizyka Davida Cohena w 1968 (Cohen D., 1968), jeszcze przy użyciu cewek miedzianych. Niestety ze względu na niską czułość detektorów nawet zastosowanie magnetycznie izolowanego pomieszczenia nie dawało zadowalających sygnałów. Kolejną próbę Cohen podjął w MIT, gdzie miał do dyspozycji lepiej izolowany pokój pomiarowy i pierwsze SQUIDy jako detektory. Początkowe wersje urządzeń pomiarowych miały jeden detektor SQUID umieszczony w termostacie. Urządzenie to pozwalało na rejestrację sygnałów jednokanałowych. Począwszy od lat 80-tych zaczęto produkować urządzenia MEG z coraz to większą ilością SQUIDów zamkniętych w jednym termostacie. Współczesne urządzenia MEG dysponują 128 - 300 sensorami zamkniętymi w termostacie dopasowanym kształtem do głowy.

Co mierzy aparatura MEG

(34)
Kolorem szarym zaznaczono prądy jonowe płynące wokół neuronu w wyniku akcji synaptycznej. Strzałką zaznaczono kierunek dipola prądowego posiadającego prądowe źródło w dendrytach i prądowy zlew w okolicy ciała neuronu. Płynące prądy są źródłem pola magnetycznego.

Zgodnie z równaniami Maxwella ruch ładunków powoduje powstanie pola magnetycznego prostopadłego do kierunku tego ruchu. Sygnały MEG (i EEG) pochodzą od prądów jonowych płynących w drzewkach dendrytycznych neuronów w czasie transmisji synaptycznej (rys. 34).

W pierwszym przybliżeniu, wypadkowe prądy płynące w pobliżu neuronu w wyniku akcji synaptycznej (tj. pobudzenia lub hamowania neuronu przez drugi neuron połączony z nim synapsą) można traktować jak punktowy dipol prądowy, który charakteryzowany jest przez swoją wartość, kierunek i położenie. Pole magnetyczne powstające wokół takiego dipola ma zwrot zgodny z regułą prawej ręki i linie pola są okręgami o środku na osi dipola. Aby pole magnetyczne miało mierzalne wartości potrzebna jest superpozycja dużej liczby synchronicznie aktywnych dipoli neuronowych o z grubsza jednakowej orientacji. Ze względu na swoje równoległe ułożenie w poprzek warstw kory, najlepsze warunki do takiej superpozycji mają korowe neurony piramidalne.

(35)
Idea pomiaru MEG.

Kora jest pofałdowana tworząc bruzdy i zakręty. Pole magnetyczne pochodzące od neuronów umieszczonych w bruzdach jest prostopadłe do powierzchni głowy i daje większy wkład do sygnału MEG niż pole pochodzące od neuronów umieszczonych w zakrętach. Ideę pomiaru MEG ilustruje rysunek (rys. 35).

SQUID

SQUID (ang. Superconducting Quantum Interference Device) — jedno z najczulszych urządzeń służących do pomiaru natężenia pola magnetycznego. Wykorzystywany jest efekt kwantyzacji strumienia indukcji magnetycznej w pętli nadprzewodzącej i efekt Josephsona. Schemat pętli SQUID (dc-SQUID) przedstawiony jest na rys. 36.

(36)
Schemat pętli nadprzewodzącej urządzenia SQUID z zaznaczonymi złączami Josephsona. A - powierzchnia pętli urządzenia SQUID, L - indukcja pętli.

Zmiana strumienia pola magnetycznego obejmowanego przez pętlę SQUID wywołuje zmianę natężenia prądu przepływającego przez urządzenie, jak i zmianę prądu indukowanego w pętli.

Napięcie U na połączonych równolegle złączach Josephsona wykazuje okresową zależność od strumienia magnetycznego przenikającego pętlę SQUID z okresem równym kwantowi strumienia magnetycznego Φ0 = h / (2e) gdzie: h Stała Plancka, e ładunek elementarny. Elektronika urządzenia SQUID działa w układzie sprzężenia zwrotnego. Do pętli aplikowany jest albo prąd albo dodatkowe pole magnetyczne (wytwarzane przez dodatkową cewkę modulującą) tak, aby układ pracował w ustalonym punkcie charakterystyki napięcie - strumień. Wielkość zmian aplikowanego prądu jest funkcją zmian strumienia magnetycznego. Aby otrzymać dobry stosunek sygnału do szumu (związanego z samoindukcją pętli) indukcja L pętli SQUID musi być mała. W rezultacie powierzchnia A pętli SQUID też jest mała. W praktyce stosuje się transformer strumienia złożony z dużej anteny o powierzchni Acewki, sprzęgniętej magnetycznie z pętlą SQUID (rys. 37).

(37)
Sprzężenie urządzenia SQUID z cewką o dużej powierzchni.

Wprowadzenie cewki - anteny daje w zależności od konstrukcji cewki (magnetometr, gradiometr osiowy, gradiometr planarny) możliwość pomiaru jednej z trzech wielkości:

  • strumienia pola magnetycznego — magnetometry
  • gradientu strumienia magnetycznego w kierunkach stycznych do powierzchni ciała — gradiometry planarne
  • gradientu strumienia magnetycznego w kierunku normalnym do powierzchni ciała — gradiometry osiowe

Konfiguracje cewek dla powyższych opcji przedstawione są na rys. 38.

(38)
Różne typy cewek. a) magnetometr (pojedyncza pętla), b) gradiometr osiowy pierwszego rzędu, c) gradiometr planarny

Dla prawidłowego działania urządzenia SQUID muszą znajdować się w stanie nadprzewodzenia. Stąd też cewki i urządzenia SQUID umieszczone są w termostacie chłodzonym ciekłym helem.

Zakłócenia

Źródła zakłóceń

Jak już wspomnieliśmy poziom sygnałów biomagnetycznych jest rzędu 100-103 fT, czyli około 9 rzędów wielkości mniejszy niż pole magnetyczne Ziemi. Źródłem innych sygnałów, które utrudniają pomiar są linie energetyczne, silniki elektryczne, poruszające się obiekty ferromagnetyczne (np. tramwaj przejeżdżający kilkaset metrów od urządzenia MEG, w szpitalu metalowe łóżka, na których przewozi się pacjentów, zmienne pola magnetyczne magnesów stosowanych w obrazowaniu MRI o gradiencie rzędu 10 mT/m). Wpływ na pomiar MEG mogą mieć także instrumenty laboratoryjne takie jak generatory bodźców. Z tego względu bodźce akustyczne są na ogół dostarczane przez plastikowe rurki, a bodźce wzrokowe są rzutowane przez układy luster (rys. 39).

(39)
Aparatura do pomiaru MEG.

Innym źródłem artefaktów są ruchy gałek ocznych oraz czynność elektryczna serca (pole magnetyczne serca może mieć amplitudę o 2 rzędy wyższą niż to generowane w mózgu). Także mechaniczne ruchy ciała związane z biciem serca i oddechami mogą powodować dodatkowe zakłócenia, szczególnie jeśli badany miałby na sobie przedmioty z materiałów magnetycznych np. zegarek, okulary itp.

Redukcja zakłóceń

Ekranowanie

Podstawową techniką stosowaną do zmniejszania zakłóceń jest umieszczenia aparatu MEG w ekranowanym pomieszczeniu. Ściany takiego pomieszczenia zbudowane są przeważnie z kilku warstw μ-matalu o bardo wysokiej przenikalności magnetycznej rozdzielonej warstwami czystego aluminium o wysokim przewodnictwie - umożliwiają one indukownie prądów wirowych, które przeciwstawiają się zmianom pola magnetycznego. Takie pomieszczenia zapewniają osłabienie pól zewnętrznych o częstościach powyżej 1Hz rzędu 100dB (Hämäläinen et al., 1993, str. 445).

Gradiometry

Inną metodą jest stosowanie gradiometrów osiowych (rys. 38 b). Są one czułe jedynie na zmiany pola występujące pomiędzy kolejnymi poziomami cewek. Założenie, które tu przyjmujemy jest takie, że pola magnetyczne pochodzące od źródeł bliskich (w głowie) zmieniają się w przestrzeni znacznie szybciej niż pola pochodzące od źródeł odległych (np. od przejeżdżającego obok budynku aparatury MEG samochodu).

Literatura

Cohen D. Magnetoencephalography: evidence of magnetic fields produced by alpha rhythm currents. Science 161:784-786, 1968.

Hämäläinen M., Hari R., Ilmoniemi R.J., Knuutila J., and Lounasmaa O.V. Magnetoencephalography — theory, instrumentation, and applications to noninvasive studies of the working human brain. Rev. Mod. Phys. 65: 413 - 497, 1993.

Korejestracja EEG i fMRI

Jak wspomniano w poprzednich rozdziałach spośród metod obrazowania funkcjonowania mózgu, elektroencefalografia i magnetoencefalografia wyróżniają się najlepszą rozdzielczością czasową, jednak ograniczoną rozdzielczością przestrzenną. W sygnale MEG nie są też widoczne aktywności od wszystkich odpowiednio silnych dipoli, a tylko tych zorientowanych prostopadle do promienia kuli przybliżającej głowę. Sygnał EEG natomiast jest znacznie bardziej zniekształcony poprzez własności ośrodków pomiędzy źródłami a powierzchnią głowy. Połączenie informacji z sygnału EEG i MEG (a zwłaszcza jednoczesny pomiar) daje lepsze możliwości lokalizacji źródeł analizowanych aktywności, jednak nadal są to metody przybliżone, bazujące na rozkładzie pól na powierzchni głowy. Jeżeli chodzi o lokalizacje przestrzenną źródeł mierzonych aktywności, pomocne mogą być techniki związane z obrazowaniem mózgu, jak np. rejestrowany przy pomocy skanera MRI (ang. Magnetic Resonance Imaging - rezonans magnetyczny) sygnał obrazujący stopień utlenienia krwi. Zmiany intensywności w tym sygnale mogą być lokalizowane w mózgu z dokładnością rzędu milimetra.

Co rejestruje sygnał fMRI?

Wzrost aktywności metabolicznej w obszarze aktywowanych neuronów powoduje wzrost zapotrzebowania na tlen rozprowadzany przez hemoglobine w krwi. Lokalną odpowiedzią na to zapotrzebowanie jest zwiększenie przepływu krwi do aktywnych obszarów mózgu, co następuje z opóźnieniem ok. 1 - 5 sekund. Odpowiedź ta, nazywana odpowiedzią hemodynamiczną, osiąga maksimum po ok. 4 - 5 sekundach, a następnie wraca do poziomu odniesienia. Prowadzi to do lokalnych zmian we względnej koncentracji oxyhemoglobiny (hemoglobiny połączonej z tlenem, utlenowanej) i deoxyhemoglobiny (hemoglobiny nie połączonej z tlenem) oraz do zmian w lokalnej objętości krwi mózgu, oprócz lokalnych zmian w przepływie krwi. Hemoglobina połączona z tlenem jest diamagntykiem, a hemoglobina bez tlenu jest paramagnetykiem, tak więc sygnał rezonansu magnetycznego dla krwi będzie różny w zależności od stopnia utlenowania. Sygnał związany z lokalnymi zmianami przepływu utlenowanej krwi nazywa sie BOLD. Słowo to jest skrótem od Blood Oxygenation Level-Dependent, co można przetłumaczyć jako "zależny od poziomu utlenowania krwi". Obecnie, prawie wszystkie badania fMRI używają sygnału BOLD do lokalizacji miejsc o wzmożonej aktywności w mózgu. Inne proponowane metody polegają np. na pomiarze ile oxyhemoglobiny zostało zamienione na deoxyhemoglobine. Niezależnie od mierzonych parametrów, zmiany w przepływie krwi spowodowane wzmożonym, lokalnym zapotrzebowaniem na tlen w neuronach są zawsze opóźnione o parę sekund w stosunku do aktywności neuronów, a pełny przebieg odpowiedzi BOLD na krótki bodziec trwa ok. 15 sekund. Właśnie ten efekt jest przyczyną ograniczeń czasowych fMRI.

Badania EEG - fMRI

Zaledwie kilka lat po wprowadzeniu badań fMRI (początek lat 90-tych), zaproponowano jednoczesny pomiar EEG w skanerze MRI. Otworzyło to szeroką ścieżkę możliwości analizy różnego rodzaju aktywności spontanicznych (jak np. międzynapadowe iglice epileptyczne), które mogły być rejestrowanej jedynie w zapisie EEG. Korelacja momentów wystąpienia aktywności obserwowanych w sygnale EEG ze zmianami w sygnale BOLD pozwala na identyfikacje ośrodków w mózgu związanych z tymi zjawiskami. Możliwości korejestracji EEG - fMRI nie sprowadzają się jedynie do lokalizacji znanych zjawisk, co do których wiadomo, że przejawiają się jednocześnie w fMRI i EEG. Istnieje wiele procesów, których związek pomiędzy aktywnością elektryczną a hemodynamiczną nie jest oczywisty bądź jeszcze potwierdzony (Khader et al., 2008). Niemniej, jednocześnie rejestrowany sygnał EEG wykorzystywany jest zawsze do określenia w czasie stanu aktywności mózgu i obserwowania towarzyszących temu zmian hemodynamicznych. Bardzo ważny jest tu odpowiedni dobór testów statystycznych określających istotność obserwowanych korelacji pomiędzy zjawiskami w zapisie EEG, a zmianami w sygnale rejestrowanym przez skaner MRI (sygnał BOLD).

Pierwsze podejście z zastosowaniem techniki korejestracji EEG - fMRI dotyczyło badań międzynapadowych wyładowań epileptycznych. Obecnie wykorzystuje się tę technikę do monitorowania mózgu w czasie aktywności rozpoznawanych w sygnale EEG oscylacji, takich jak np. fale alfa, a także do badań reakcji mózgu na bodźce zewnętrzne, oraz aktywności podczas odpoczynku czy snu.

Technika jednoczesnego pomiaru EEG i fMRI

Pionierem jednoczesnego pomiaru EEG - fMRI jest R.J. Ives (Ives et al., 1993). Był to wielki krok technologiczny. Skaner MRI nie był przyjaznym miejscem do pomiaru EEG gdyż aparatura ta generuje stałe, duże pole magnetyczne i szybkozmienne pole magnetyczne podczas skanowania. Każdy ruch przewodu elektrody wewnątrz dużego pola magnetycznego lub każda zmiana pola wokół obwodu zamkniętego indukuje prąd, który jest widoczny jako artefakt w EEG. Poza okresem skanowania także delikatny ruch np. głowy pacjenta może wywoływać podobny efekt. Gdy podczas skanowania pole magnetycznie zmienia się bardzo szybko indukowany jest silny prąd powodujący zakłócenie o amplitudzie niemal 50 razy większej niż mierzone EEG (jest to tzw. artefakt gradientowy). Użyte elektrody EEG i przewody muszą być wykonane z materiałów niemagnetycznych (zazwyczaj stosuje się elektrody Ag/AgCl). Poza tym w skanerze należy unikać pętli przewodów - ograniczać powierzchnie obwodów zamkniętych (w tym celu zaproponowano skręcanie par przewodów). Wzmacniacz zazwyczaj łączy się z komputerem, znajdującym się poza pomieszczeniem ze skanerem, za pomocą przewodów z włókien optycznych, które zapewniają brak przewodnictwa elektrycznego pomiędzy wnętrzem i zewnętrzem pomieszczenia skanera. Taki kanał przewodnictwa elektrycznego mógłby pogorszyć jakość obrazów MRI.

Problemy korejestracji EEG i fMRI - przetwarzanie zarejestrowanych sygnałów

(40)
Sygnały EEG z jednoczesnego pomiaru EEG i fMRI. Szczególnie widoczne artefakty podczas pracy skanera MRI oraz artefakt balistokardiograficzny pojawiający się około raz na sekundę, związany z biciem serca.

Pełne wykorzystanie możliwości jakie daje korejestracja EEG - fMRI utrudniają pewne, nie do końca rozwiązane, problemy. Jednoczesny pomiar zmian metabolicznych w mózgu podczas rejestracji EEG pociąga za sobą szereg zakłóceń jakości sygnału EEG (rys. 40). Największy jest wpływ artefaktów pochodzących od dużego pola magnetycznego - włączanie akwizycji skanera MRI oraz efekt balistokardiograficzny (Ritter et al., 2006; Herrmann et al., 2008; Menon et al., 2005; Niazy et al., 2005). Proponuje się różne metody eliminacji artefaktów gradientowych. Częstym podejściem jest oszacowywanie kształtu zakłócenia i wycinanie z każdego odcinka akwizycji. Uznaje się że potrzeba próbkowania sygnału EEG z częstością do 5 kHz w celu precyzyjnego zapisu artefaktu gradientowego do jego późniejszego usuwania. Najpowszechniej stosowaną metodą jest AAS (average artifact subtraction, Allen et al., 2000). Pulse artefakt, często nazywany też balistokardiograficznym (BCG) pojawia się jako niewielka fala następująca każdorazowo z rytmem bicia serca. Jego źródłem jest prawdopodobnie niewielki ruch głowy, lub elektrod, z powodu pulsowania krwi w tętnicach. Ten artefakt odnotowano od początków badań jako jeden z głównych problemów jednoczesnego pomiaru EEG w skanerze MRI. Najczęściej usuwa się go przez odejmowanie metodą AAS.

Literatura

Allen P.J., Josephs O., Turner R. A method for removing imaging artifact from continuous EEG recorded during functional MRI. NeuroImage, 12(2):230–239, 2000.

Herrmann C.S., Debener S. Simultaneous recording of EEG and BOLD responses: a historical perspective. Int J Psychophysiol, 67(3):161-168, 2008.

Ives R.J., Warach S., Schmitt F., Edelmann R.R., Schmoer D.L. Monitoring the patient’s EEG during echo planar MRI. Electroenceph Clin Neurophysiol. 87:417–420, 1993.

Khader P., Schicke T., Röder B., Rösler F. On the relationship between slow cortical potentials and BOLD signal changes in humans. Int J Psychophysiol. 67(3):252-261, 2008.

Menon V., Crottaz-Herbette S. Combined EEG and fMRI studies of human brain function. Int Rev Neurobiol, 66:291-321, 2005.

Niazy R.K., Beckmann C.F., Iannetti G.D., Brady J.M., Smith S.M. Removal of fMRI environment artifacts from EEG data using optimal basis sets. NeuroImage, 28:720–737, 2005.

Ritter P., Villringer A. Simultaneous EEG-fMRI. Neurosci Biobehav Rev, 30(6):823-838, 2006.

następny>

Zapis i wizualizacja biomedycznych szeregów czasowych

<poprzedni

Praktyczna rejestracja danych. Próbkowanie

Jak wiemy, dane eksperymentalne zbierane są dzisiaj przy użyciu przetworników analogowo-cyfrowych. Urządzenia te mierzą badaną przez nas wielkość fizyczną w pewnych chwilach czasu i przekazują wynik pomiaru w postaci liczby binarnej, zapisywanej przez komputer sterujący całym procesem. Operację wybierania wartości mierzonych w kolejnych chwilach czasu nazywamy próbkowaniem. Dane nie mają więc postaci funkcji ciągłych lecz są szeregami osobnych wartości. Postać taką nazywamy w odróżnieniu od ciągłej — dyskretną. Fakt, że dane eksperymentalne mają postać szeregów liczb (tzw. szeregów czasowych) ma istotne konsekwencje w doborze metod ich analizy.

Podczas próbkowania zapisujemy tylko niektóre wartości mierzonej wielkości fizycznej. Wartości spomiędzy chwil zapisu są „stracone”. Czy jesteśmy w stanie powiedzieć ile informacji tracimy w procesie próbkowania? Ponieważ analiza danych w dziedzinie częstości ma duże znaczenie dla analizy EEG, zastanowimy się nad konsekwencjami próbkowania w tym przypadku.

Jeżeli dane są próbkowane w stałych odstępach czasu Δt (a tylko takimi przypadkami będziemy się zajmować), to możemy powiedzieć, że częstość próbkowania wynosi 1/Δt. Jeśli więc np. dane są próbkowane co 10 ms, to innymi słowy są próbkowane 100 razy na sekundę czyli częstość ich próbkowania wynosi fs = 1/(10·10−3 s) = 100 1/s = 100 Hz.

Z intuicyjnego punktu widzenia możemy wyobrazić sobie składowe o różnych częstościach, czyli sinusoidy od bardzo „rozwlekłych” do coraz „gęstszych”. Podczas próbkowania otrzymujemy co prawda tylko niektóre wartości tych funkcji, ale ich kształt pomiędzy punktami obserwacji ciągle jest możliwy do odtworzenia. Granicznym przypadkiem będzie częstość taka, że podczas próbkowania będziemy na przemian mierzyć maksymalną i minimalną wartość funkcji. Składowe o wyższych częstościach będą zmieniać się już na tyle szybko, że w czasie między pobraniem jednej próbki a próbki następnej nie będziemy w stanie stwierdzić jaką naprawdę funkcję mierzymy — czy taką, której pół okresu już minęło, czy taką, której do połowy okresu jeszcze chwilę brakuje (rys. 41).

(41)
Demonstracja zjawiska utożsamiania: sygnały „czarny”, „zielony” i „czerwony” (o różnych częstościach) są próbkowane w chwilach czasu t_1, t_2, t_3, t_4. Częstość sygnału „czarnego” odpowiada dokładnie połowie zastosowanej częstości próbkowania. Próbki zmierzone dla sygnałów „zielonego” (zielone kropki) i „czerwonego” (czerwone kółka) są nieodróżnialne, mimo że sygnały te różnią się częstościami (sygnał „czerwony” ma częstość większą od fs/2, sygnał „zielony” — mniejszą).

Z powyższych rozważań wnioski są następujące. Jeżeli dane są próbkowane z częstością fs, to jesteśmy w stanie zarejestrować częstości z zakresu [0, fs/2]. Istnieje ścisły dowód tego faktu zwany twierdzeniem o próbkowaniu lub twierdzeniem Nyquista (czasem spotyka się tu też inne nazwiska). Częstością Nyquista dla konkretnych danych nazywamy połowę częstości z jaką te dane były próbkowane. A co z częstościami większymi niż częstość Nyquista? Jak widzieliśmy na przykładzie nie możemy ich odróżnić od częstości mniejszych niż fs/2. Zjawisko takie nazywamy utożsamianiem (ang. aliasing). Jeśli w mierzonym sygnale są obecne częstości większe niż połowa częstości z jaką ten sygnał próbkujemy, to będą one sygnale spróbkowanym „udawać” inne, niższe częstości. Prosty eksperyment myślowy przekonuje, że np. sygnał o częstości dokładnie równej częstości próbkowania będzie nieodróżnialny od wartości stałej. Jest to zjawisko silnie niepożądane. Aby uniknąć tego rodzaju problemów musimy przed rozpoczęciem zbierania danych upewnić się, że w sygnale nie będzie częstości wyższych niż częstość Nyquista. Używa się w tym celu filtrów sprzętowych — układów elektronicznych usuwających z sygnału częstości z niepożądanego zakresu.

Warto wspomnieć, że zjawisko utożsamiania w przypadku próbkowania obrazów nosi nazwę zjawiska stroboskopowego. Ponieważ obraz telewizyjny lub filmowy jest próbkowany i widzimy poszczególne „próbki czasowe” wyświetlane kolejno po sobie, zjawiska periodyczne, aby były wyświetlane prawidłowo, muszą mieć częstość poniżej częstości Nyquista. Obrót koła samochodu jest przykładem takiego zjawiska periodycznego — przy wzroście prędkości obrotowej nagle obserwujemy na ekranie jakby koło obracało się w przeciwną stronę lub wręcz stanęło. Oświetlenie jarzeniowe starego typu dawało światło migoczące regularnie (z częstością sieci energetycznej). Zastosowanie takiego oświetlenia w hali maszyn mogłoby spowodować, że ze względu na zjawisko stroboskopowe np. szybko wirujący wał tokarki mógłby być postrzegany jako obracający się powoli lub wręcz nieruchomy. Mogłoby to prowadzić do wypadków przy pracy i dlatego maszyny takie oświetla się oświetleniem żarowym.

Formaty danych

Każdy producent aparatury do pomiaru EEG tworzy zwykle własny format, w którym dane zapisywane są w postaci cyfrowej na dysku. Jeśli opis formatu jest otwarty, to można dane wczytywać do innych programów, ale trzeba w tym celu napisać odpowiedni fragment kodu.

Paradoks polega na tym, że różnice między formatami są zwykle minimalne i ograniczają się zwykle do kilkunastu - kilkudziesięciu bajtów nagłówka, podczas gdy większość danych to po prostu liczby całkowite -- bo takie wychodzą z przetwornika ADC (kiedyś 12-bitowe, ostatnio coraz częściej 24-bitowe). Fizyczny sposób pomiaru wymusza również organizację danych -- kanały odpowiadające zapisom potencjałów z odprowadzeń zapisywane są w formie multipleksowanej, czyli: pierwsza próbka z pierwszego kanału, pierwsza próbka z drugiego kanału ... pierwsza próbka z ostatniego kanału, druga próbka z pierwszego kanału .... Ale żeby te liczby poprawnie odczytać i zinterpretować, musimy wiedzieć co najmniej:

  • ile kanałów jest zapisanych w danym pliku
  • jaka była częstość próbkowania, co określa odległość w czasie między kolejnymi próbkami
  • jak przeliczyć zapisane wartości liczbowe na napięcie w mikrowoltach
  • itp.

Takie właśnie dane zapisywane są w nagłówkach (header, na początku pliku) czy ew. w stopkach (footer, na końcu pliku), do ich odczytania konieczna jest znajomość danego formatu - na przykład żeby wiedzieć, że informację o tym, ile w danym pliku zapisano kanałów, odczytamy jako liczbę całkowitą na ósmym bajcie (offset) od początku pliku.

Propozycją rozwiązania tego problemu jest zapis tych informacji w języku SignalML opartym o XML, por. http://signalml.org.

następny>

Metody analizy sygnałów EEG — analiza w dziedzinie czasu

<poprzedni

Tradycja analizy wzrokowej EEG

W ciągu dziesięcioleci klinicznych zastosowań EEG sklasyfikowano szereg charakterystycznych rytmów i tzw. grafoelementów, czyli krótkich fragmentów sygnału wykazujących określone cechy i pojawiających się w określonych stanach mózgu. O ile niektóre z nich widać już gołym okiem, to jednak ze względu na ogromną zmienność osobniczą i międzyzapisową tylko po części możliwe było sklasyfikowanie ich cech w postaci definicji.

(42)
Fale alfa

Fale alfa (rys. 42) są rytmiczną aktywnością kory mózgowej w paśmie 8-12 Hz. Występowanie rytmu alfa przypisuje się stanowi relaksu z zamkniętymi oczami. Fale alfa najlepiej widoczne są w odprowadzeniach tylnych, czyli z okolic części kory odpowiadającej za przetwarzanie informacji wzrokowych. Ta jedna z najwcześniej zaobserwowanych struktur EEG — mimo, że nie występuje podczas właściwego snu — ma fundamentalne znaczenie dla analizy EEG, ponieważ świadczy o „przedsennym” czuwaniu pacjenta, a jej zanik oznacza przejście ze stanu czuwania do płytkiego snu. Fale alfa zanikają także podczas wysiłku umysłowego, np. wykonywaniu działań matematycznych albo przy otwarciu oczu i zadziałaniu na nie światła. Blokowanie rytmu alfa jest wyrazem desynchronizacji aktywności neuronów, zachodzącej pod wpływem koncentracji umysłowej lub stymulacji narządów zmysłów. Rytm o częstości w paśmie alfa rejestrowany w okolicach kory motorycznej nazywany jest też rytmem mu (μ). Wykazuje on istotny zanik w momencie wykonywania ruchu przez człowieka lub tylko zamierzenia jego wykonania.

(43)
Fale delta

Fale delta (rys. 43) są wysokoamplitudową aktywnością o niskiej częstości (0-4 Hz) i czasie trwania co najmniej 1/4 s. Do celów praktycznych przyjęto, że dolną granicą częstości jest 0,5 Hz. Pojawiające się podczas głębokiego snu fale delta o amplitudzie przekraczającej 75 μV nazywa się falami wolnymi (ang. Slow Wave Activity, SWA). Występowanie SWA spowodowane jest wysoką synchronizacją neuronów kory (większą synchronizację spotyka się tylko podczas ataku epilepsji). Fale delta rejestruje się także podczas głębokiej medytacji, u małych dzieci i w przypadku pewnego rodzaju uszkodzeń mózgu.

(44)
Fale theta

Aktywnością theta (rys. 44) nazywamy aktywność w paśmie od 3 do 7 Hz i rozpiętości (ang. peak-to-peak) rzędu kilkudziesięciu μV. Charakterystyczne fale theta występują np. w okresie snu płytkiego – przypuszcza się że w tym czasie następuje przyswajanie i utrwalanie uczonych treści. Fale theta są najczęściej występującymi falami mózgowymi podczas medytacji, transu, hipnozy, intensywnego marzenia, intensywnych emocji. Odmienny rodzaj fal theta jest związany z aktywnością poznawczą, kojarzeniem ─ w szczególności uwagą, a także procesami pamięciowymi (tzw. rytm FMθ - frontal midline theta). Jest on obserwowany głównie w przyśrodkowej części przedniej części mózgu.

(45)
Fale beta

Fale beta lub rytm beta (rys. 45) - niskoamplitudowe oscylacje o częstości w przedziale 12-30 Hz. W paśmie beta wyróżnia się następujące przedziały: wolne fale beta (12-15 Hz), właściwe-średnie pasmo beta (15-18 Hz) i szybkie fale beta, o częstości powyżej 19 Hz. Ta mało zsynchronizowana praca neuronów charakteryzuje zwykłą codzienną aktywność kory mózgowej u człowieka, percepcję zmysłową i pracę umysłową. Specyficzna aktywność beta towarzyszy również stanom po zażyciu niektórych leków. Fale beta zazwyczaj występują w okolicy czołowej. Obrazują one zaangażowanie kory mózgowej w aktywność poznawczą. Fale beta o małej amplitudzie występują podczas koncentracji uwagi, gdy mózg nastawiony jest na świadomy odbiór bodźców zewnętrznych za pomocą wszystkich zmysłów.

(46)
Fale gamma

Fale gamma (rys. 46) fale mózgowe o częstości w okolicach 40 Hz (30 - 80 Hz). Aktywność w paśmie 80 - 200 Hz określa się natomiast jako wysokoczęstotliwościowa (high) gamma. Rytm gamma towarzyszy aktywności ruchowej i funkcjom motorycznym. Fale gamma związane są też z wyższymi procesami poznawczymi, m.in. percepcją sensoryczną, pamięcią. Przypuszcza się, że rytm gamma o częstotliwości około 40 Hz ma związek z świadomością percepcyjną (dotyczącą wrażeń zmysłowych i ich postrzegania) oraz związany jest z integracją poszczególnych modalności zmysłowych w jeden spostrzegany obiekt. Aktywność high-gamma występuje podczas aktywacji kory mózgowej, zarówno przez bodźce zewnętrzne (np. dotykowe, wzrokowe), jak i wewnętrzne (przygotowanie ruchu, mowa).

Fale o częstościach 100-250 Hz nazywane są ripples. Rejestruje się je w sygnale z implantowanych mikroelektrod, a wysokoczęstościową aktywność fast ripples (250-600 Hz) w szczególności u pacjentów z epilepsją, w obszarze ogniska epileptycznego.

(47)
Kompleks K i wrzeciono snu

Wrzeciona snu (ang. sleep spindles) (rys. 47) to charakterystyczne struktury zaobserwowane już niemal od samych początków historii pomiarów EEG. Występują podczas umiarkowanie głębokiego snu. Wrzecionami snu nazywamy aktywność o częstości 12 - 14 Hz i czasie trwania 0,5 - 1,5 s. Obwiednia tych krótkich salw dość szybkiej aktywności o niewielkiej amplitudzie przypomina kształt wrzeciona. Wrzeciona pojawiają się we wszystkich odprowadzeniach, z tym, że ich amplituda i częstość może się nieznacznie zmieniać przy przejściu od przodu do tyłu głowy (od wrzecion „wolnych” po „szybkie”). Wrzeciona snu mogą, występować w parach z kompleksami K.

Kompleksy K (ang. K-complexes, w Polsce często nazywane zespołami K), (rys. 47) mogą pojawiać się pojedynczo lub też w serii po dwa podczas umiarkowanie głębokiego snu. Definiuje się je jako dwufazową (ostry spadek poprzedzony dodatnim maksimum), wysokonapięciową (to największy pik strefy), niskoczęstotliwościową falę związaną z wrzecionami snu, przy czym jej czas trwania powinien przekraczać 0,5 s. Obecnie wymaga się aby struktury te miały częstość 1 - 4 cykli/s, amplitudę co najmniej dwa razy większą od średniej amplitudy tła i czas trwania 0,5 - 2 s. Amplituda kompleksu K jest zazwyczaj największa na czubku głowy. Kompleksy K mogą podczas snu występować spontanicznie lub też w odpowiedzi na bodźce.

Fale piłokształtne (ang. sawtooth waves) pojawiają się w EEG w czasie snu paradoksalnego (REM), są to wierzchołkowe, ujemne fale o umiarkowanej częstości i amplitudzie. Z definicji falą piłokształtną nazywa się pojedyncze lub zgrupowane po kilka fale o częstości 6 - 10 Hz, amplitudzie rzędu kilkudziesięciu μV i wyraźnym kształcie zębów piły.

Wierzchołkowe fale ostre (ang. Vertex sharp waves) występują pod koniec okresu płytkiego snu. Aktywnością tą określa się ostry potencjał maksymalny w okolicy wierzchołkowej, ujemny w stosunku do innych pól, o amplitudzie zmiennej, często dochodzącej do 250 μV peak-to-peak.

Iglice (ang. spikes), nazwa ograniczona do padaczkopodobnych wyładowań, obserwowanych także w zapisie międzynapadowym EEG. Są to grafoelementy wyraźnie wyróżniające się z czynności podstawowej, z ostrym wierzchołkiem i często następującą po nim falą wolną. Czas trwania iglicy wynosi zazwyczaj od 20 do 70 milisekund, a amplituda co najmniej dwa razy większa o od amplitudy tła w obrębie około 5 sekund.

Ponadto, w zapisie EEG pojawiają się w postaci artefaktów ślady wolnych ruchów gałek ocznych (ang. Slow Eye Movement, SEM), obserwowane w odprowadzeniach EOG (elektrookulogram) zwłaszcza w stanie płytkiego snu oraz szybkie ruchy gałek ocznych (ang. Rapid Eye Movement, REM), występujące podczas snu paradoksalnego.

(48)
80 lat postępu w klinicznej analizie EEG: od wzrokowej analizy zapisów na papierze do wzrokowej analizy zapisów na ekranie komputera. Źródło Biomedical Engineering Online

Znajomość struktur widocznych w sygnale EEG i ich korelat behawioralnych i klinicznych jest wynikiem dziesięcioleci wzrokowej analizy przebiegów EEG — kiedyś zapisywanych na papierze, dzisiaj wyświetlanych na ekranie monitora. Niestety analiza wzrokowa, poza wysokim kosztem, cechuje się ograniczoną powtarzalnością. Pomimo dążenia do standaryzacji opisu i nazewnictwa struktur (por. np. Rechtschaffen i Kales, 1968) różni eksperci, a czasem nawet ten sam ekspert po jakimś czasie, opiszą zawartość tego samego fragmentu EEG w sposób zwykle podobny, ale nie jednakowy. Powoduje to ogromne trudności w implementacji metod matematycznej analizy szeregów czasowych pod kątem zgodności z tradycją analizy wzrokowej w sytuacji, gdy samo kryterium nie jest do końca jednoznaczne. Pomimo tego, wspomniana wiedza o klinicznych i behawioralnych korelatach obecnych w EEG struktur jest niezastąpiona w sytuacji klasycznej dla nauk biomedycznych, a szczególnie wyraźnej w neuronaukach: badane efekty są często o rzędy wielkości mniejsze niż różnice międzyosobnicze. W tej sytuacji tylko powtarzanie tych samych badań w różnych ośrodkach na całym świecie na różnych populacjach osób może prowadzić do stabilnych wniosków. Jak dotychczas jedyną metodą stosowaną na tak wielką skalę jest analiza wzrokowa.

Potencjały wywołane

Wstęp

Potencjały wywołane EEG (ang. evoked potentials, EP) są śladami odpowiedzi mózgu na bodźce. W przypadku MEG poprawnie mówi się o polach wywołanych (ang. evoked fields, EF). Zwykle reakcja ta jest mała (wyjątek stanowią kompleksy K) i w zapisie pojedynczej realizacji reakcji na bodziec najczęściej niewidoczna wśród czynności pochodzącej od wielu innych procesów zachodzących w tym samym czasie w mózgu. Ich wyodrębnienie z tak zwanego tła EEG/MEG, czyli manifestacji elektrycznej innych, trwających w tym samym czasie w mózgu, procesów (aktywny prąd niezależny), wymaga w dniu dzisiejszym zapisu odpowiedzi na szereg powtórzeń tego samego bodźca (rys. 49). Pierwsze potencjały wywołane pokazał pod koniec lat 40-tych Dawson (Dawson 1947) wykonując superpozycję pojedynczych realizacji na kliszy fotograficznej. Z czasem skomplikowane urządzenia analogowe zastąpione zostały przez cyfrowe uśrednianie kolejnych fragmentów EEG, zsynchronizowanych według momentu wystąpienia bodźca, łatwo realizowane za pomocą komputera.

(49)
Uśrednianie potencjałów wywołanych. a) ciągły zapis EEG z wyróżnionymi momentami wystąpienia bodźca (w tym przypadku słuchowego) b) kilkadziesiąt kolejnych odcinków, wyciętych jako sekunda EEG od momentu wystąpienia kolejnych bodźców, ustawione jeden pod drugim c) uśredniony potencjał wywołany — widać m. in. załamek P300 ok. 300 milisekund po bodźcu

Techniki te opierają się na założeniu, że zawarta w EEG odpowiedź mózgu na każdy z kolejnych bodźców jest niezmienna, a EEG odzwierciedlające pozostałe procesy traktowane jest jak nieskorelowany z nią proces stochastyczny. Zależnie od rodzaju potencjałów wywołanych, założenia te są mniej lub bardziej nieuzasadnione; podważa je choćby powszechnie znany efekt habituacji, polegający na osłabieniu późnych potencjałów wywołanych kolejnymi powtórzeniami bodźca.

Istota potencjałów wywołanych jest przedmiotem otwartej dyskusji i dziesiątków prac, dotykających od lat podstawowych w tej dziedzinie pytań: czym jest potencjał wywołany, który widzimy w uśrednionym przebiegu? Czy naprawdę wynika z deterministycznie powtarzanej, jednakowej odpowiedzi pojawiającej się po każdym powtórzeniu bodźca niezależnie od „tła”, czy może wynika z reorganizacji faz tego właśnie „tła” EEG, czy może kombinacji tych dwóch efektów? Jest to wspaniałe pole dla zastosowań zaawansowanych metod modelowania i analizy sygnałów. W ostatnich latach powstają dziesiątki prac na ten temat, a od czasu do czasu również krytyczne artykuły wykazujące, że dotychczasowe odkrycia są raczej artefaktami stosowanych metod a nie wynikają z własności analizowanych danych (Yeung et al., 2004). Jak widać jest tu wciąż bardzo wiele do zrobienia, gdyż zrozumienie tego mechanizmu stoi na drodze do „świętego Graala”, którym w tej dziedzinie jest parametryzacja pojedynczych potencjałów wywołanych.

Niezależnie od tego, w neurofizjologii klinicznej nazwą potencjał wywołany określa się krzywą widoczną po uśrednieniu odpowiedzi na kilkanaście do kilku tysięcy bodźców (Szelenberger 2000). Gromadzona od dziesięcioleci wiedza o behawioralnych i klinicznych korelatach potencjałów wywołanych opiera się na rozpoznawaniu w przebiegach uśrednionych tak zwanych załamków, czyli przejściowych wzrostów lub spadków potencjału (na przykład na rys. 49 widać załamek P300). Nazwy załamków składają się zwykle z litery „P” (od ang. positive), jeśli wychylenie jest dodatnie, lub „N” (od ang. negative), jeśli wychylenie jest ujemne, oraz liczby. Uwaga:

  • Nie ma niestety jednej ustalonej konwencji prezentacji potencjałów koniecznie trzeba więc zwracać uwagę na orientację wykresu, a wykonując wykres samemu - zamieszczać informację o orientacji kierunku dodatniego,gdyż kierunek dodatni może być wykresie skierowany do góry lub do dołu.
  • Liczba następująca po N lub P określa przybliżoną liczbę milisekund od wystąpienia bodźca, czyli tak zwaną latencję. Nie można jednak ścisłego związku między tą liczbą a liczbą milisekund np. potencjał P300 w zależności od szczegółów paradygmatu doświadczalnego może wystąpić znacznie później. np. w eksperymentach językowych zdarza się że P300 występuje później niż N400 :-).


Rys. 50 przedstawia schematycznie najważniejsze załamki rozpoznawane w potencjałach słuchowych, czyli wywoływanych bodźcem dźwiękowym. Dla potencjałów wzrokowych i somatosensorycznych istnieją podobne klasyfikacje.


(50)
Orientacyjny schemat załamków rozpoznawanych w słuchowych potencjach wywołanych, na podstawie (Szelenberger 2000). Skala czasu logarytmiczna. Najszybsze (do 12 ms) składowe egzogenne to potencjały pniowe (BAEP), oznaczane jako fale I-VII. Litery „P” i „N” oznaczają dodatnie i ujemne wychylenia związane z dalszymi załamkami

Najszybsze (czyli o najmniejszej latencji) składowe to potencjały egzogenne, odzwierciedlające wstępne fazy przekazu informacji. W potencjałach słuchowych są to potencjały pnia (ang. brainstem auditory evoked potentials, BAEP), składające się z siedmiu fal występujących pomiędzy 1 a 12 ms od bodźca. Są one generowane np. w nerwie słuchowym czy pniu mózgu, i wykorzystywane w klinicznej diagnostyce integralności dróg słuchowych. Podobnie jak inne wczesne potencjały o latencjach poniżej 100 ms, są praktycznie niezależne od stanu uwagi.

Po potencjałach o średniej latencji (między 12 a 50 ms) zaczynają się późne potencjały słuchowe, odzwierciedlające bardziej złożone reakcje na bodziec. Na przykład amplituda załamka N100 wzrasta w stanie skupienia uwagi czy pobudzenia emocjonalnego. Około 200 milisekund po bodźcu pojawia się załamek odzwierciedlający modną ostatnio falę niezgodności (ang. mismatch negativity). Jest on wyrazem nieświadomej i automatycznej reakcji na zmianę bodźca — na przykład na pojawiające się stosunkowo rzadko dźwięki o innej częstości w serii dźwięków o jednakowej wysokości. Wreszcie pierwszy i najpopularniejszy całkowicie endogenny załamek to P300, pojawiający się po rozpoznaniu bodźca oczekiwanego, na którym skupiamy uwagę: na przykład, jeśli w serii pojawiających się losowo liter mamy zliczać wystąpienia jednej z nich, to na średniej odpowiedzi na pojawienie się tej litery pojawi się załamek P300.

Uśrednianie w dziedzinie czasu

Jak już było wspomniane powyżej podstawową techniką stosowaną do analizy potencjałów wywołanych jest uśrednianie wielu realizacji odpowiedzi na bodziec wyrównanych względem jakiegoś charakterystycznego zdarzenia, np. momentu podania bodźca albo momentu behawioralnej reakcji na bodziec (np. wciśnięcie przycisku). Podejście to bazuje na trzech założeniach:

  • Reakcja jest czasowo związana z bodźcem. Tzn. w kolejnych realizacjach występuje ona zawsze z tym samym opóźnieniem.
  • Reakcja na bodziec skutkuje zawsze pojawieniem się w sygnale składowej o stałym kształcie (mówimy o stałej morfologii).
  • Spontaniczna czynność EEG — ta która nie dotyczy przetwarzania interesującego nas bodźca jest niezależnym, stacjonarnym szumem o średniej zero.

Zgodnie z powyższymi założeniami mierzony w i-tej realizacji sygnał można wyrazić jako:

xi(t) = s(t) + ni(t)

Uśrednianie po N realizacjach daje:

\bar x (t) = \frac{1}{N} \sum_{i=1}^N x_i(t) = \frac{1}{N} \left(N s(t) + \sum_{i=1}^N n_i(t) \right)

Wartość oczekiwana sredniego sygnału sygnału wynosi:

\mathrm{E}\left[ \bar x(t) \right] = s(t)

gdyż dla szumu o średniej zero mamy:

\mathrm{E}\left[\frac{1}{N} \sum_{i=1}^N n_i(t)\right] = 0.

Wariancja \bar x(t) wynosi:

\sigma^2_{\bar x(t)} = \mathrm{E} \left[  \left( \frac{1}{N} \sum_{i=1}^N n_i(t)\right)^2 \right] \approx \frac{1}{N} \sigma^2_{n(t)}

gdyż s(t) jest deterministyczne.

Dla potencjałów pojawiających się w pierwszych kilkudziesięciu milisekundach po bodźcu model ten można uznać za poprawny, gdyż wykazują one zależność głównie od parametrów fizycznych bodźca. Dla późniejszych składowych staje się on coraz bardziej wątpliwy ze względu na występujące korelacje ze stanem (np. uwagi) badanego.

Dla późniejszych składowych można by postulować bardziej ogólną wersję modelu potencjału wywołanego:

xi(t) = si(t) + ni(t)

Ten model uwidacznia, że do opisu potencjału wywołanego potrzebna jest nie tylko średnia, ale i wyższe momenty rozkładu (np. drugi moment centralny czyli wariancja).

Wariancja w przypadku szumu skorelowanego

W poprzednim paragrafie pokazaliśmy, że w przypadku niezależnego szumu wariancja uśrednionego sygnału (w danej chwili czasu) maleje jak \frac{1}{N}. Jednak w przypadku gdy kolejne próbki szumu są skorelowane (np. występuje silna aktywność rytmiczna alfa) sytuacja się komplikuje. Intuicyjnie łatwo możemy to sobie wyobrazić w granicznym przypadku. Załóżmy, że tło dla potencjałów o stałej morfologii stanowi sinusoida. Jeśli będziemy podawać bodźce w odstępach będących wielokrotnością okresu tej sinusoidy to w uśrednianych fragmentach sygnału owa sinusoida jest tak samo powtarzalna jak badany potencjał i uśrednianie nie prowadzi do poprawy stosunku amplitudy sygnału do amplitudy tła.

Stopień zależności pomiędzy próbkami można zmierzyć przy pomocy funkcji autokorelacji. Jeśli funkcję autokorelacji przybliżymy przez:

Rxx(τ) = σ2exp( − β | τ | )cos(2πf0τ)

gdzie σ2 jest wariancją szumu, f0 jest średnią częstością aktywności rytmicznej, β / π jest szerokością pasma tej czynności, zaś τ opóźnieniem, to wariancję potencjału wywołanego można wyraxić jako :

\sigma^2_{\bar x(t)} = \frac{\sigma^2}{N} \left[ \frac{1-\exp(-2 \beta T)}{1 - 2 \exp(- \beta T) \cos(2 \pi f_0 T) +\exp(-2 \beta T)} \right]

gdzie T jest odstępem między bodźcami. Widać stąd, że obecność czynności rytmicznej w tle wpływa na stosunek sygnału do szumu. Z powyższego równania widać, że stosunek wariancji dąży do \frac{\sigma^2}{N} gdy βT staje się duże.

Periodyczna stymulacja może ponadto prowadzić do wzbudzenia czynności rytmicznej o częstości równej częstości pobudzania bądź jej harmonicznej.

Wariancja latencji

Jedną z form zmienności potencjału wywołanego w pojedynczych realizacjach jest wariancja latencji.

Czerwona linia: Uśrednianie 100 potencjałów wywołanych o latncjach z rozkładu normalnego N(300,30 ), Niebieskie linie: przykładowe pojedyncze realizacje wzięte do średniej

Zmienność latencji prowadzi do:

  • zmniejszenia amplitudy \bar x
  • wzrostu rozciągłości czasowej załamka

O tych konsekwencjach zmienności latencji należy w szczególności pamiętać porównując średnie potencjały uzyskane w różnych warunkach eksperymentalnych. Gdy zauważymy, że średnie potencjały różnią się amplitudą należy rozważyć możliwość, że w istocie warunki eksperymentalne wpływają na różnice w wariancji latencji.

Naturalne jest, że zmienność latencji jest bardziej widoczna w przypadku załamków trwających krótko niż w przypadku załamków trwających długo. Wariancja latencji rożnie wraz z jej wartością, stąd wśród późnych składowych potencjałów wywołanych nie obserwuje się komponentów krótkotrwałych.

Uśrednianie metodą Woody'ego

Model potencjału ze zmienną latencją i sposób na jego efektywniejsze uśrednianie zaproponował Woody (1967). Model ten zakłada, że w każdej realizacji występuje komponent addytywny s_i(t)\;, który co do kształtu jest stały, a pomiędzy realizacjami różni się tylko latencją:

 s_i(t) = s(t +\Delta t_i)\;

Woody zaproponował aby \Delta t_i\; szacować na podstawie maksimum funkcji korelacji wzajemnej pomiędzy i-tą realizacją a wzorcem. W pierwszym kroku wzorcem jest średni potencjał uzyskany przez proste uśrednienie realizacji. Następnie w sposób iteracyjny dokonuje się:

  • poprawek w wyrównaniu poszczególnych realizacji,
  • obliczenia nowego wzorca poprzez uśrednienie realizacji po korekcie wyrównania,
  • obliczenia nowych poprawek do wyrównania realizacji.

Habituacja

Zmienność w odpowiedziach na kolejno występujące po sobie bodźce można podzielić na komponent stochastyczny i deterministyczny. Komponent deterministyczny odzwierciedla zmianę czułości układu nerwowego na kolejne bodźce. Nowy bodziec często wywołuje reakcje pobudzenia widoczną w wielu parametrach takich jak przewodnictwo skóry, rytm serca i reaktywność kory mózgowej. Powszechnie obserwowanym zjawiskiem jest spadek reaktywności na powtarzające się bodźce zwany habituacją. Niekiedy obserwuje się także zjawisko przeciwne — wzrost reaktywności na bodziec — zwane sensytyzacją.

Klasycznym sposobem na badanie tych zjawisk w potencjałach wywołanych jest uśrednianie w podzbiorach lub uśrednianie blokowe. Wymaga ono zmiany paradygmatu rejestracji danych. Załóżmy, że interesującym nas bodźcem jest błysk światła. Chcemy zaobserwować ewentualne zmiany amplitudy i latencji w ciągu 100 potencjałów będących reakcją na błysk powtarzający się co 500 ms.

Uśrednianie w podzbiorach

W metodzie tej musimy założyć, że proces habituacji jest powolny, tzn. zmiany pomiędzy kolejnymi reakcjami są bardzo małe. W takim przypadku możemy podzielić długą serię bodźców na ciąg pod-serii i uśrednienie przeprowadzić dla każdej pod-serii osobno.

Ilustracja uśredniania w podzbiorach

Uśrednianie blokowe

W tym celu eksperyment wykonujemy w wielu seriach. Jedna seria składa się ze 100 błysków powtarzanych co 500 ms. Po serii następuje przerwa trwająca np. 5 s (długość przerwy wyraża nasze oszacowanie czasu potrzebnego na zanik habituacji). Po przerwie seria jest powtarzana. Powtórzeń serii wykonujemy N. Następnie uśredniamy fragmenty sygnałów odpowiadające sobie w kolejnych seriach.

W tym paradygmacie zakładamy, że każda seria rejestrowana jest w tych samych warunkach. Zaniedbujemy efekty związane ze zmęczeniem i zmianami w np. stopniu koncentracji badanego.

Ilustracja uśredniania w blokach

Literatura

Dawson G. D. Cerebral responses to electrical stimulation of peripheral nerve in man. J Neurol Neurosurg Psychiatry, 10:134-140, 1947.

Rechtschaffen A. i Kales A. (Edytorzy) A manual of standardized terminology, techniques and scoring system for sleep stages in human subjects. Number 204 in National Institutes of Health Publications. US Government Printing Office, Washington DC, 1968.

Szelenberger W. Potencjały wywołane. Wydawnictwo Elmiko, Warszawa, 2000.

Yeung N., Bogacz R., Holroyd C. B. i Cohen J. D. Detection of synchronized oscillations in the electroencephalogram: An evaluation of methods. Psychophysiology, 41:822 - 832, 2004.

następny>

Metody analizy sygnałów EEG — analiza widmowa

<poprzedni

Metody nieparametryczne

Transformacja Fouriera

Analiza wzrokowa sygnałów, jakkolwiek wciąż stosowana, szczególnie w praktyce klinicznej, nie wykorzystuje współczesnych możliwości analizy danych. Ponieważ duża część danych biomedycznych jest dzisiaj zbierana w sposób cyfrowy, możemy takie dane analizować przy użyciu komputerów. Obszerny dział wiedzy zwany analizą sygnałów dostarcza metod matematycznych służących do precyzyjnej i zaawansowanej oceny informacji, jaka zawarta jest w badanych zapisach. Warto podkreślić, że jakkolwiek wiele metod matematycznych analizy sygnałów było opracowanych już dość dawno, dopiero rozpowszechnienie się komputerów w laboratoriach umożliwiło ich praktyczne zastosowanie.

Analizując wzrokowo fragmenty zapisów EEG (i oczywiście także innego typu dane) możemy wyróżnić w nich struktury różnej postaci i kształtu. Szczególnie istotne są tzw. rytmy czyli składowe o postaci fal o pewnej określonej częstości. Ich kształty mogą być bardzo zróżnicowane w zależności od ilości takich składowych obserwowanych w sygnale, ich częstości i amplitud. Analiza wzrokowa wyróżnia w EEG kilka takich charakterystycznych rytmów; wiadomo też, że ich rola fizjologiczna jest inna. Dobrze więc byłoby móc umieć oddzielić poszczególne rytmy z sygnału i badać ich zachowanie dokładniej. Innymi słowy chcielibyśmy mieć funkcję zależną od częstości mówiącą o zawartości poszczególnych rytmów w sygnale. Funkcję taką nazywamy gęstością widmową mocy lub w skrócie widmem sygnału. Zagadnieniami wyznaczania takiej funkcji i opisem własności sygnału w zależności od częstości zajmuje się analiza widmowa.

Sygnały, które zbieramy w eksperymencie i których zapisy analizujemy wzrokowo są to wartości badanej przez nas wielkości w kolejnych chwilach czasu. Mówimy, że są to wartości rejestrowane (lub funkcje operujące) w dziedzinie czasu.

Do dalszych rozważań dobrze będzie zauważyć następujący fakt Wyobraźmy sobie, że mamy zmierzony nieskończony sygnał (czyli funkcję w dziedzinie czasu) — X(t), t = 0, ..., +∞. Jak sprawdzić czy nasz sygnał zawiera składową o częstości ω? Składowa taka ma postać funkcji sinusoidalnej, tak jak na przykład h(t) = sin(ωt).

Aby zbadać czy nasz sygnał zawiera poszukiwaną składową możemy policzyć iloczyn skalarny naszego sygnału z sygnałem sinusoidalnym. Iloczyn taki możemy uważać za ocenę korelacji tych dwóch sygnałów.

(56)\langle X(t), h(t) \rangle = \int_{0}^{\infty}X(t)h(t) dt= \int_{0}^{\infty}X(t)\sin(\omega t) dt

Możemy z takich iloczynów utworzyć następujące relacje

(57)\begin{array}{l}G(\mathrm{\omega})=\int_{0}^{\infty}X(t)\sin(\omega t) dt\\F(\omega)=\int_{0}^{\infty}X(t)\cos(\omega t) dt\end{array}

Relacje te nazywają się transformacjami sinus i kosinus Fouriera. Jak widać w rezultacie dostajemy dla naszego oryginalnego sygnału (funkcji X(t)) funkcje G(ω) lub F(ω) zwane transformatami sinus i cosinus Fouriera funkcji X(t). Transformaty są już funkcjami zależnymi od parametru ω czyli częstości. Mówimy, że są one wyrażone w dziedzinie częstości. Tak więc funkcji w dziedzinie czasu można przyporządkować jednoznacznie pewną inną funkcję operującą w dziedzinie częstości. Relacje te można również odwrócić i dla funkcji z dziedziny częstości uzyskać transformatę odwrotną produkującą funkcję w dziedzinie czasu (z dokładnością do pewnych współczynników po prawej stronie równań).

(58)\begin{array}{l}X(t)=\int_{0}^{\infty}G(\omega)\sin(\omega t) d\omega\\X(t)=\int_{0}^{\infty}F(\omega)\cos(\omega t) d\omega\end{array}

Jak można zauważyć, transformaty sinusowa czy kosinusowa nie są jeszcze dla nas poszukiwaną odpowiedzią na pytanie o zawartość składowych o określonej częstości w danym sygnale. Jeśli poszukiwana składowa nie pokrywa się akurat ani z funkcją sinus ani cosinus, ale występuje w oryginalnym sygnale z inną fazą, możemy źle ocenić jej wkład. Dlatego też bardziej ogólnym podejściem będzie policzenie tzw. całki Fouriera dającą w wyniku transformatę Fouriera:

(59)C(\omega)=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{+\infty}X(t)\mathrm{e}^{-i\omega t} dt

Ponieważ eiωt = cos(ωt)−i sin(ωt), wyrażenie powyższe zawiera splot z kombinacją funkcji sinus i kosinus. W tym przypadku transformata Fouriera C(ω) jest funkcją o wartościach zespolonych (gdyż funkcja podcałkowa zawiera człon zespolony eiωt), posiadających pewien moduł i fazę. Jest ona naszą poszukiwaną funkcją gęstości widmowej mocy. Moduł wartości tej funkcji mówi o „ilości” poszczególnych częstości w widmie sygnału czyli mocy względnej danej składowej. Faza funkcji C mówi o fazie względnej danej składowej.

Mamy też odwrotną transformatę Fouriera:

(60)X(t)=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{+\infty}C(\omega)\mathrm{e}^{i\omega t} d\omega


Funkcja X i jej transformata opisują ten sam sygnał w różny sposób. Przykłady transformat Fouriera dla wybranych funkcji

X(t) C(f )
1 δ(f )
δ(t) 1
eiat δ(fa/(2π))

Poszukiwane przez nas widmo sygnału, czyli zawartość w sygnale składowych o różnych częstościach najlepiej opisuje tzw. funkcja gęstości widmowej mocy określona poniższym wzorem:

(61)S(\omega)=C(\omega)\cdot \bar{C}(\omega)

Bliżej życia

Zauważmy, że całka Fouriera jest określona dla sygnałów nieskończonych: całkowanie przebiega w granicach od –∞ do +∞. Rejestrowane dane neurobiologiczne, które chcemy badać, są oczywiście skończone. Musimy więc rozszerzyć naszą teorię do badania sygnałów o skończonej długości. Pewną klasą sygnałów, które łatwo można w ten sposób analizować, są sygnały periodyczne. Ponieważ wartości takich sygnałów powtarzają się okresowo w czasie, zakładamy, że nasz sygnał poza czasem obserwacji możemy traktować jak nieskończony sygnał okresowy, przedłużając periodycznie posiadany sygnał poza okno obserwacji. Niestety, w przypadku danych neurobiologicznych dane praktycznie nigdy nie mają charakteru periodycznego, co więcej, są one przeważnie stochastyczne, czyli zawierają komponentę losową, sprawiającą, że ich wartości w czasie nie powtarzają się. Widmo takiego sygnału będzie więc zaburzone. Metoda transformacji Fouriera jest najczęściej wykorzystywaną metodą estymacji widma różnorodnych sygnałów. Jest tak być może dlatego, że istnieje FFT (Fast Fourier Transform, szybka transformata Fouriera) — efektywny algorytm komputerowy obliczania wartości tej transformaty (dla dyskretnych danych i w szczególnych przypadkach, co jednak w wielu sytuacjach okazuje się być wystarczające).

Splot

dla dwóch funkcji f(x) i g(x) możemy wprowadzić operację splotu tych funkcji

(62)(f\ast g)(x)=\int_{0}^{x} f(\tau)g(x-\tau)d\tau

Podobną operację możemy wprowadzić nie tylko dla funkcji ciągłych, ale także dla ciągów liczb an i bn

(63)(a\ast b)_m=\sum_{n} a_nb_{m-n}

Operacja splotu jest niezwykle ważna w dziedzinie analizy sygnałów, gdyż zachodzi następujące twierdzenie o transformacie splotu

(64)\mathrm{F}(f\ast g)=\mathrm{F}(f)\cdot \mathrm{F}(g)

Oznacza to, że splot dwóch sygnałów w dziedzinie czasu transformuje się na iloczyn transformat tych sygnałów w dziedzinie częstości. Będziemy z tego faktu korzystać w dalszej części tego rozdziału.

Transformacja Z

Transformację Z możemy traktować jako analog transformacji Fouriera dla funkcji dyskretnych (znanych tylko w określonych, równo oddalonych chwilach czasu). Przekształca ona sygnał wejściowy X = {..., x−1, x0, x1, x2, ...} na transformatę Z tego sygnału, operującą w tzw. dziedzinie Z, będącej dyskretnym analogiem dziedziny częstości.

Wyróżniamy dwustronną transformację Z:

(65)
\mathrm{Z}(X)=\sum_{n=-\infty}^{\infty}x_n z^{-n}

oraz jednostronną transformację Z:

(66)
\mathrm{Z}(X)=\sum_{n=0}^{\infty}x_n z^{-n}

Jeśli w tekście nie będziemy precyzować rodzaju stosowanej transformacji Z, będziemy mieć na myśli wersję jednostronną. W dodtaku, ponieważ operujemy ciągami współczynników o skończonej długości, górny zakres naszego sumowania będzie się kończył nie w nieskończoności, ale razem z ostatnim wyrazem ciągu.

Podstawiając z = eiωΔt możemy wyrazić nasze transformaty od częstości ω, tak jak rozumieliśmy ją w przypadku transformacji Fouriera.

Filtry

Filtry cyfrowe są to funkcje, które aplikujemy do sygnału aby zmienić jego widmo. W dziedzinie częstości działanie filtru możemy przedstawić następującym równaniem

(67)Y(f) = H(f)⋅X(f)

Działamy tutaj filtrem cyfrowym na sygnał X (tzw. wejście systemu), w wyniku tej operacji otrzymujemy (na tzw. wyjściu) przefiltrowany sygnał Y. Funkcję H nazywamy macierzą przejścia filtru.

Jeśli za funkcję X(f ) wybierzemy funkcję stałą o wartości 1, otrzymamy na wyjściu sygnał, którego względne moce poszczególnych składowych w częstości będą dokładnie takie jak wartości macierzy przejścia. Stosując transformację odwrotną (Fouriera lub Z) do wyrażenia H(fX(f ) otrzymamy w wyniku splot transformat odwrotnych h(t) i x(t). Dla funkcji X(f ) stałej, jej transformata odwrotna x(t) to funkcja delta Diraca δ(t). Transformatę odwrotną h(t) macierzy przejścia filtru nazywamy funkcją odpowiedzi impulsowej tego filtru. Opisuje ona zachowanie się filtru w przypadku pojawienia się na wejściu pojedynczego impulsu (delty Diraca).

Przekształcając równanie (67) możemy napisać

(68)H(f) = Y(f) / X(f)

Czyli funkcja H będzie mieć w ogólności postać ilorazu pewnych funkcji. Spośród wielu możliwych filtrów interesować nas będą filtry liniowe działające na sygnały próbkowane w czasie, czyli na dyskretne ciągi wartości. W ogólnym przypadku macierz przejścia takiego filtru ma postać (w dziedzinie Z — sygnały dyskretne):

(69)H(z)=B(z) / A(z)=\frac{b_0+b_1z^{-1}+\ldots+b_N z^{-N}}{1-(a_1z^{-1}+\ldots+a_M z^{-M})}

Licznik i mianownik wyrażenia na H(z) zawierają pewne wielomiany od zmiennej z–1. Często określamy filtr przez podanie współczynników tych wielomianów: b0, b1,... bN, a0, a1, ..., aM.

Funkcja odpowiedzi impulsowej h(t) takiego filtru ma postać ciągu liczb. Jeśli A(z) ≡ 1, to funkcja h(t) przedstawia skończony ciąg współczynników, a filtr taki nazywany filtrem o skończonej odpowiedzi impulsowej (ang. FIR, finite impulse response). W pozostałych przypadkach h(t) jest nieskończonym ciągiem, a filtr nazywamy filtrem o nieskończonej odpowiedzi impulsowej (ang. IIR, infinite impulse response).

Często określa się tzw. rząd filtru. Jest to większa z liczb (M, N).

Filtry stosujemy głównie w celu usunięcia z sygnału pewnych zakresów częstości. Filtry dolnoprzepustowe mają za zadanie usuwać z sygnału wszystkie częstości powyżej pewnej częstości granicznej. Filtry górnoprzepustowe mają usuwać wszystkie częstości mniejsze niż częstość graniczna. Filtry pasmowe pozostawiają w sygnale (lub usuwają z sygnału) tylko określony zakres częstości, od dolnej częstości granicznej do górnej.

Istnieje bardzo rozbudowana teoria projektowania filtrów w zależności od konkretnych potrzeb. Efektywność tłumienia niepożądanych częstości, zachowanie się filtru w okolicy częstości granicznych i wpływ filtru na pozostawione w sygnale składowe są to parametry, które trzeba dobierać indywidualnie do rozwiązywanego problemu.

Metody parametryczne

Przedstawiona powyżej idea uzyskania widma sygnału metodą transformaty Fouriera nie jest jedyną możliwością w tym zakresie. W ogólności metody estymacji (oszacowania) widma danego sygnału możemy podzielić na dwie kategorie: nieparametryczne i parametryczne. Metody nieparametryczne bazują na wyznaczaniu widma bezpośrednio z wartości sygnału. Taką właśnie metodą jest transformacja Fouriera. Metody parametryczne polegają na założeniu pewnego modelu generacji posiadanych danych. Model powinien posiadać parametry, które dopasowujemy tak, aby badany sygnał jak najlepiej dawał się opisać wybranym modelem. Po dopasowaniu parametrów modelu dalsze wnioskowanie odbywa się już nie na badanym sygnale, ale na własnościach modelu.

W przypadku analizy EEG szeroko stosowany jest model autoregresyjny (AR). Zakłada on, że wartość sygnału w dowolnej chwili czasu t można wyznaczyć z pewnej liczby poprzednich wartości oraz z pewnej składowej czysto losowej E:

(70)X(t) = \sum_{j=1}^{p}A_jX(t-j)+E(t)

Model taki w większości wypadków bardzo dobrze opisuje sygnały EEG. Wynika to z jego własności i własności samego sygnału EEG. Otóż teoretyczne widmo takiego modelu ma postać pewnej liczby składowych o określonym zakresie częstości na tle szumowym co dobrze odpowiada „rytmom” zawartym w prawdziwym sygnale.

Procedura wyznaczania widma polega na dopasowaniu współczynników modelu A1,... Ap tak, aby wariancja składowej szumowej była najmniejsza. Do tego celu służą specjalnie opracowane algorytmy, które można znaleźć w literaturze (na przykład metoda Yule’a-Walkera).

Gdy przyjrzymy się równaniu opisującemu model AR, po przekształceniu do poniższej postaci:

(71)E(t)=\sum_{j=0}^{p}A_jX(t-j)

zauważamy, że jest to tak naprawdę splot współczynników modelu i wartości sygnału.

Stosując transformację Z obu stron równania (71) przechodzimy z równaniem do dziedziny Z:

(72)\mathbf{X}(z)=\mathbf{A}^{-1}(z)\mathbf{E}(z)=\mathbf{H}(z)\mathbf{E}(z)

Dostrzegamy w tym równaniu działanie filtru o macierzy przejścia H = A−1 na sygnał szumowy E. Tak więc model AR możemy przedstawić jako filtr liniowy o macierzy przejścia

(73)\mathbf{H}(z)=\mathbf{A}^{-1}(z)=\frac{1}{\mathbf{A}(z)}=\frac{1}{\mathbf{I}-A_1 z^{-1}-A_2 z^{-2}-\ldots -A_p z^{-p}}

Widmo mocy otrzymujemy więc zgodnie ze znaną już relacją (wzór 61):

(74)\mathbf{S}=\mathbf{X}\cdot \bar\mathbf{X}^{\mathrm{T}}=\mathbf{HE}\cdot \bar \mathbf{E}^{\mathrm{T}}\bar \mathbf{H}^{\mathrm{T}}=\mathbf{HV\bar H^{\mathrm{T}}}


Analiza danych wielokanałowych

Mówiliśmy do tej pory o sygnałach w postaci pewnego zbioru wartości X(t). Jeśli dokonujemy pomiaru jednej wartości w poszczególnych chwilach czasu, nasze wartości X(t) są to po prostu liczby. Możemy jednak obserwować i rejestrować wartości jednocześnie z wielu źródeł sygnału. Dzieje się tak w przypadku zapisu EEG z wielu elektrod. W tej sytuacji wartości X(t) są (dla każdej chwili czasu t) wektorami o długości odpowiadającej liczbie obserwowanych źródeł, np. k: X(t) = (X1(t), X2(t), ..., Xk(t)), t = (t1, t2, ..., tn).

Oczywiście możemy prowadzić analizę każdego z rejestrowanych sygnałów osobno. Musimy jednak zdawać sobie sprawę z faktu, że wielokanałowy zestaw danych zawiera jeszcze dodatkową informację o współzależności sygnałów między sobą. Analizując sygnały osobno, informację tę całkowicie pomijamy. Aby ją wydobyć, musimy użyć specjalnych funkcji, zaprojektowanych do badania związków między sygnałami.

Większość wzorów z poprzednich rozdziałów ny. analizy widmowej może być w łatwy sposób rozszerzona na przypadek danych wielokanałowych poprzez traktowanie wartości badanego sygnału X(t) jako wielkości wektorowej (wzory z rozdziału o analizie parametrycznej od razu są napisane przy tym założeniu). Widmo mocy wielokanałowego zestawu danych jest w takim wypadku macierzą o wymiarze k×k. Na przekątnej tej macierzy znajdują się widma własne (autowidma) każdego z sygnałów osobno, a poza przekątną mamy widma wzajemne (krosswidma), mówiące o stopniu zależności sygnałów między sobą w dziedzinie częstości.

\mathbf{S}(f)=\left( 
\begin{array}{cccc}
S_{11}(f)&S_{12}(f)&\ldots&S_{1k}(f)\\
S_{21}(f)&S_{22}(f)&\ldots&S_{2k}(f)\\
\vdots&   \vdots&   \ddots&\vdots   \\
S_{k1}(f)&S_{k2}(f)&\ldots&S_{kk}(f)\\
\end{array}
\right)


Koherencje

Widma wzajemne mówią nam o tym, na ile składowe o określonych częstościach przebiegają „wspólnie” dla dwóch sygnałów. Moduł widma wzajemnego mówi na o wspólnej amplitudzie danej składowej, a faza o ich spójnym wzajemnym przesunięciu w fazie w danej częstości. Wadą tej wielkości jest jej zależność od mocy całkowitej sygnału. Wprowadza się więc znormalizowaną miarę współzależności sygnałów w dziedzinie częstości nazywaną koherencją (zwyczajną):

(75)K_{ij}(f)=\frac{S_{ij}(f)}{\sqrt{S_{ii}(f)S_{jj}(f)}}

Miara ta zbudowana jest z odpowiednich elementów macierzy widmowej. Element macierzy K jest odpowiadającym mu elementem macierzy S podzielonym przez odpowiednie widma własne. W taki sposób moduł koherencji przyjmuje wartości z przedziału [0, 1]. Wartość 0 oznacza brak związku, a wartość 1 identyczność badanych sygnałów (dla danej częstości).

Koherencja jest miarą szeroko stosowaną w analizie najróżnorodniejszych sygnałów. Jest łatwa w użyciu i daje natychmiast wgląd w sytuację: czy dane dwa sygnały mają ze sobą coś wspólnego? Warto zauważyć, że aby koherencja miała wysoką wartość nie wystarczy, aby dwa sygnały zawierały składową o takiej samej częstości. Składowe te w obu sygnałach muszą być ze sobą związane, na przykład posiadać niezmienne (słabo zmienne) przesunięcie fazowe. Dlatego też czasami mówi się, że koherencja opisuje liniowy związek faz sygnałów.

Związki przyczynowe

Istnienie związku między sygnałami może oznaczać, że jeden z nich jest źródłem informacji dla drugiego. Czy możemy określić kierunek wzajemnego wpływu sygnałów? Możemy na przykład zbadać fazę koherencji — kierunek przesunięcia fazowego powinien wskazywać, który sygnał był wcześniejszy niż drugi. W praktyce jednak metoda taka działa tylko dla bardzo prostych sygnałów. Dla danych biologicznych, o charakterze stochastycznym, jest ona praktycznie bezużyteczna. Z drugiej strony, zagadnienie to jest trudne, dlatego w literaturze istnieje wiele propozycji funkcji opisujących związki przyczynowe między sygnałami, działających lepiej lub gorzej w różnych sytuacjach.

Jednym z możliwych podejść jest oparcie definicji funkcji opisującej związki przyczynowe o macierz przejścia modelu autoregresyjnego. Jeśli przyjrzymy się równaniu (72), zauważymy, że nasz sygnał X w dziedzinie częstości otrzymujemy z transformaty sygnału szumowego E (którego widmo nie zależy od częstości), na który działa macierz przejścia H. Tak więc całość zależności między sygnałami z całego zestawu, również te kierunkowe, zawarte są w tej macierzy. Na tej idei bazuje defincja skierowanej funkcji przejścia (ang. directed transfer function, DTF). Jej nienormalizowana wersja (NDTF) jest zdefiniowana na podstawie odpowiednich elenetów macierzy przejścia H; transmisja z kanału j do i opisana jest jako:

(76)\mathrm{NDTF}(j \rightarrow i)=\theta_{ij}^2(f)=|H_{ij}(f)|^2

Wartość 0 oznacza brak transmisji z kanału j do i w częstości f. Funkcja powyższa może przyjmować dowolnie wartości. Możemy wprowadzić normalizację tej wartości w taki sposób, że będziemy opisywać stosunek transmisji z kanału j do kanału i do sumy transmisji do kanału i ze wszystkich kanałów. Taka postać funkcji DTF była zaproponowana w pracy []:

(77)\mathrm{DTF}(j \rightarrow i)=\gamma_{ij}^2(f)=\frac{|H_{ij}(f)|^2}{\sum_{m=1}^{k}{|H_{im}(f)|^2}}

W tym przypadku wartość 0 funkcji oznacza brak transmisji. Maksymalną wartością jest zaś 1 oznaczające, że do kanału i informacja dopływa wyłącznie z kanału j.

następny>

Metody analizy sygnałów EEG — przykłady

<poprzedni

Desynchronizacja i synchronizacja EEG związana z bodźcem (ERD/ERS)

W rozdziale dotyczącym analizy sygnałów EEG w dziedzinie czasu opisaliśmy klasyczne podejście do badania odpowiedzi mózgu na bodźce, tj. potencjały wywołane. Ale:

  • W podobny sposób badać możemy też odpowiedzi na bodźce wewnętrzne, jak na przykład dobrowolna decyzja machnięcia palcem. Wtedy badanie systematycznych zmian w EEG/MEG również przed bodźcem nie będzie zaprzeczać przyczynowości.
  • Nie wszystkie systematyczne zmiany w sygnale będą widoczne po uśrednieniu -- na przykład aktywność występująca po każdym bodźcu w ściśle określonym paśmie częstości i zawsze z tym samym opóźnieniem, ale z przypadkowymi fazami, będzie znikać po uśrednieniu odpowiednio dużej ilości przebiegów (rys. 51).
(51)
Powyższa symulacja pokazuje efekt uśredniania dla
a) odpowiedzi związanej fazowo z bodźcem
b) odpowiedzi niezwiązanej fazowo z bodźcem

Opisane powyżej odpowiedzi związane z bodźcem bez zachowania stałych zależności fazowych nazywamy aktywnością indukowaną (induced), w odróżnieniu od opisanej w poprzednim rozdziale aktywności wywołanej (evoked).

Definicja

Klasycznymi miarami takich odpowiedzi są desynchronizacja i synchronizacja EEG związana z bodźcem (event-related desynchronization and synchronization, ERD/ERS). Jest to spadek (desynchronizacja, ERD) lub wzrost (synchronizacja, ERS) mocy w określonym paśmie częstości, występujący w okolicy czasowej zdarzenia, mierzony jako procentowa zmiana w stosunku do odcinka sygnału odzwierciedlającego czynność mózgu nie związaną z bodźcem (Pfurtscheller i Arnibar, 1979). Względna zmiana mocy może przyjmować wartości dodatnie i ujemne. Tradycyjnie ujemne wartości nazywane są ERD, a dodatnie ERS. ERD/ERS można wyrazić następującym wzorem:

(78)\mathrm{ERD/ERS}_f(t) = \frac{P_f(t) - R_f}{R_f} 100\%

gdzie:

  • Pf(t) - średnia moc chwilowa w paśmie częstości f. Uśrednianie przebiega po realizacjach.
  • Rf - średnia moc w paśmie f w okresie referencyjnym. Uśrednianie przebiega po realizacjach i po czasie trwania okresu referencyjnego.

Interpretacja fizjologiczna

Tradycyjne nazwy ERD i ERS mają swoje źródło w fizjologicznej interpretacji zmian mocy sygnału w określonych pasmach. Wspominaliśmy już w naszym podęczniku Biofizyczne podstawy generacji sygnałów EEG[24]), że źródłem mierzalnego na zewnątrz głowy sygnału elektrycznego lub magnetycznego jest synchroniczna aktywność wielu neuronów (głównie piramidalnych kory). Szacuje się, że wpływ na wielkość sygnału EEG lub MEG ma głównie stopień synchronizacji neuronów wytwarzających ten sygnał, a w drugiej kolejności ich ilość. Tak więc wzrost mocy w pewnym paśmie (np. alfa ERS) interpretowany jest jako wzrost synchronizacji aktywności neuronów generujących aktywność EEG w tym paśmie, zaś spadek mocy (np. alfa ERD) interpretowany jest jako spadek synchronizacji neuronów generujących aktywność EEG w tym paśmie częstości. Przy takiej interpretacji należy pamiętać o skali w jakiej dokonywany jest pomiar. Zarówno elektrody EEG jak i sensory MEG mierzą sygnały średnie pochodzące od olbrzymich ilości neuronów. Zatem spadek mocy w tym sygnale odpowiada desynchronizacji w skali globalnej (rzędu 106 - 107 neuronów). Nie musi on jednak implikować desynchronizacji w skali mikro. Łatwo możemy wyobrazić sobie następujący model: w okresie referencyjnym mamy do czynienia ze słabo związaną oscylującą meta-populacją neuronów, która pod wpływem bodźca rozpada się na wiele mniejszych populacji neuronów, z których każda z osobna może mieć zwiększoną synchronizację wewnętrzną, ale pomiędzy sobą te populacje są rozsynchronizowane.

Klasyczne metody liczenia ERD/ERS

(52)
Klasyczne obliczanie ERD/ERS.
a) Przykładowy zapis EEG jednej z N realizacji
b) przefiltrowany sygnał EEG w wybranym paśmie (tutaj: [15 25] Hz)
c) przefiltrowany sygnał podniesiony do kwadratu — w ten sposób uzyskujemy przebieg mocy pasmowej w czasie
d) uśredniony po realizacjach przebieg mocy pasmowej w czasie
e) wygładzony przebieg z d) za pomocą średniej biegnącej (tutaj okienko 0.25 s) czerwone pionowe linie wyznaczają okres referencyjny
f) ERD/ERS - względna zmiana sygnału e) w odniesieniu do okresu referencyjnego.

Klasycznie estymowanie ERD/ERS polega na wykonaniu następujących kroków (patrz rys. 52. ):

  1. filtrowanie pasmowe
  2. wyrównanie realizacji względem bodźca
  3. obliczanie mocy chwilowej (podniesienie do kwadratu wartości każdej próbki sygnału)
  4. uśrednienie mocy chwilowej po realizacjach
  5. wygładzenie przebiegu czasowego uśrednionej mocy chwilowej średnią biegnącą lub innym filtrem dolnoprzepustowym
  6. zastosowanie wzoru ( 78) do wyliczenia względnych zmian mocy

Filtrowanie pasmowe dobrze jest wykonać przed pocięciem sygnału na realizacje aby zminimalizować efekty brzegowe filtra. Więcej na temat klasycznych metod liczenia można znaleźć w Pfurtscheller (1999), Pfurtscheller i Lopes da Silva (1999).

Rozszerzenie na przestrzeń czas-częstość

(53)
Średnia gęstości energii fragmentów EEG, liczonych osobno dla każdego z odcinków zsynchronizowanych według momentu niewymuszonego ruchu palcem (chwila 0). Oś pozioma w sekundach, oś pionowa w hercach, w górnym panelu energia proporcjonalna do wysokości, w środkowym do jasności. Widać desynchronizację (zanik) w paśmie alfa (8 - 12 Hz) w okolicy ruchu; ponadto, wysokorozdzielcza estymata uzyskana za pomocą algorytmu MP (Durka, 2007a, b) wyraźnie rozdziela dwie składowe tego pasma o bliskich sobie częstościach. Widoczny również wzrost w paśmie beta (15 - 20 Hz) po ruchu. W dolnym panelu pierwszych piętnaście z 57 odcinków EEG, wykorzystanych do uśrednienia gęstości energii.

Klasyczna technika zaproponowana przez Pfurtscheller i Arnibar (1979) polega na uśrednianiu energii sygnałów przefiltrowanych w wybranym paśmie częstości. Wymaga ona wyboru reaktywnych pasm częstości, dających największe zmiany mocy. Pasm takich zwykle poszukiwano metodą prób i błędów. Pełen obraz zmian gęstości energii w przestrzeni czas - częstość można uzyskać uśredniając czasowo - częstościowe estymaty gęstości energii, obliczone dla każdego powtórzenia osobno. Najczęściej stosowanymi estymatorami są: spektrogram (krótkoczasowa transformata Fouriera- STFT) (Makeig, 1993) lub ciągłą transformata falkowa (CWT) (Tallon-Baudry et al., 1996). W sytuacjach gdy istotna jest wysoka rozdzielczość czasowo - częstotliwościowa stosowane jest dopasowanie kroczące (MP) (Durka et al., 2001) (rys. 53). Następnie dla każdego binu częstości, obliczana jest miara ERD/ERS, przy pomocy wzoru ( 78). W efekcie uzyskiwana jest mapa prezentująca ERD/ERS w przestrzeni czas - częstość (rys. 53 środkowy panel).

Ocena istotności

Podobnie jak opisane w poprzednim rozdziale potencjały wywołane, ERD i ERS widoczne są jako efekty statystyczne w zapisach co najmniej kilkunastu powtórzeń. Klasyczne oraz czasowo - częstotliwościowe estymatory ERD/ERS obrazują zarówno istotne efekty jak i przypadkowe fluktuacje. Aby wyłowić istotne efekty musimy posłużyć się testami statystycznymi. Poniżej omówimy procedurę oceny istotności dla map czas - częstość (Durka et al., 2004; Zygierewicz et al., 2005). W przypadku klasycznym przebiega ona analogicznie.

  • Każdą z map rozkładu gęstości energii dzielimy na elementy resele o rozmiarach Δt× Δf. W ramach resela gęstość energii jest całkowana dając energię. Uzyskujemy w ten sposób podział przestrzeni na pasma częstości i na okienka czasowe.
  • Następnie formułujemy zestaw hipotez. Dla każdego resela w analizowanym obszarze czas - częstość hipoteza zerowa H0 stwierdza, że jego średnia energia jest równa średniej energii w reselach o tej samej częstości w okresie referencyjnym. Hipotezą alternatywną jest brak równości.
  • Każdą z hipotez testuje się przy pomocy testu statystycznego (może to być test t, test permutacyjny lub repróbkowany, test nieparametryczny np. Wilcoxona (ten akurat testuje równość median). W wyniku, dla każdego resela dostajemy prawdopodobieństwo, że prawdziwa jest dla niego hipoteza H0.
  • Aby przyjąć bądź odrzucić hipotezę H0 trzeba ustalić poziom istotności α biorąc pod uwagę fakt, że wykonaliśmy wiele testów. Odpowiedni poziom istotności można wyznaczyć stosując np. metodę FDR (False Discovery Rate) (Benjamini i Yekutieli, 2001).
  • Ostatecznie w reselach dla których została odrzucona hipoteza H0 prezentowany jest odpowiadający im fragment mapy ERD/ERS.

Procedura ta została zilustrowana na rys. 54.

(54)
Kolejne kroki prowadzące do obliczenia ERD/ERS w obszarach istotnych statystycznie zmian. W lewej kolumnie w oparciu o estymatę gęstości energii obliczoną z algorytmu MP, a w prawej w oparciu o STFT, a) i d) Mapy rozkładu gęstości energii w dziedzinie czas - częstość. Pionowymi liniami zaznaczony jest okres referencyjny REF. Przerywana pionowa linia wskazuje moment ruchu. b) i e) mapy ERD/ERS zaprezentowane dla odcinka czasu po okresie referencyjnym c) i f) statystycznie istotne obszary map b) i e). Na mapie c) zaznaczone są typowe efekty ERD/ERS A i B - desynchronizacja w okresie okołoruchowym odpowiednio w paśmie alfa i w paśmie beta, C - odrzut (ERS) w paśmie beta po ruchu (ang. beta rebound), D - wyższa harmoniczna odrzutu w paśmie beta. Dane pochodzą z eksperymentu polegającego na świadomym ruchu palca wskazującego prawej ręki. Przedstawione mapy obliczone są na podstawie 57 ruchów dla sygnału zebranego przez elektrodę C3 (znajdującą się nad kontralateralną korą ruchową) odniesionego do średniego potencjału z czterech sąsiadujących elektrod (tzw. transformata Hjorhta — przybliżenie dwuwymiarowego laplasjanu)

Podstawowe wyniki eksperymentów

Poniżej wymienimy najczęściej obserwowane efekty ERD/ERS. Są one związane z poszczególnymi rytmami obserwowanymi w zapisach EEG i MEG. Bardzo ogólnie można powiedzieć, że rytm alfa jest interpretowany jako rytm spoczynkowy dużych populacji neuronów. Rytm beta wiązany jest z uwagą, zaś rytm gamma z aktywnym przetwarzaniem informacji.

ERD w paśmie alfa

Spadek mocy w paśmie alfa w danej okolicy kory mózgowej interpretowany jest jako aktywacja znajdujących się tam neuronów, co powoduje ich wyjście ze stanu spoczynkowego. Blokowanie rytmu alfa często wywołane jest pojawieniem się bodźców w modalności, którą reprezentuje dany fragment kory (np. otwarcie oczu powoduje zanik rytmu alfa w korze wzrokowej, zaciśnięcie pięści blokuje fale o częstości alfa w korze czuciowej ręki). Spadek mocy w paśmie alfa często poprzedza zaangażowanie danego fragmentu kory w zamierzone działanie (np. ERD alfa w korze ruchowej ręki, zaczyna się już na 1 - 2 s przed wykonaniem zamierzonego ruchu tą ręką - rys 54c) struktura A).

Efekt centrum-obrzeże

Efekt ten polega na wystąpieniu ERD w paśmie alfa w pewnym miejscu kory i jednoczesnym ERS w paśmie alfa w sąsiednich obszarach związanych z inną modalnością bądź kończyną (np. przy ruchu ręką obserwujemy ERD alfa w obszarze ręki i ERS alfa w obszarze nogi)

ERD w paśmie beta

Efekt ten polega na spadku mocy w paśmie beta w obszarze kory mózgowej odpowiadającej modalności, na której skupiona jest uwaga, np. rys. 54c) struktura B.

Odrzut ERS w paśmie beta

Efekt ten polega na przejściowym wzroście mocy powyżej poziomu z okresu referencyjnego, następujący po zakończeniu działania, któremu towarzyszył ERD w paśmie beta, np. rys 54c) struktura C.

ERS w paśmie gamma

Efekt ten polegający na zwiększeniu mocy w paśmie gamma powyżej poziomu z okresu referencyjnego. Efekt ten obserwowany jest w niektórych eksperymentach EEG i w wielu eksperymentach z wykorzystaniem ECoG (elektrod umieszczonych bezpośrednio na korze) w trakcie gdy w danym fragmencie kory zachodzi przetwarzanie informacji. W EEG, gamma ERS zazwyczaj występuje w niskim paśmie około 40 Hz, natomiast w ECoG widoczne jest szerokopasmowe ERS gamma nawet w paśmie 40 - 120 Hz.

Literatura

Benjamini, Y., Yekutieli, Y. The control of the false discovery rate under dependency. Ann Stat 29: 1165–1188, 2001.

Durka, P.J. Matching Pursuit, Scholarpedia, p. 20910, 2007a [25]

Durka, P. J. Matching Pursuit and Unification in EEG analysis. Engineering in Medicine and Biology. Artech House, 2007b. ISBN 978-1-58053-304-1.

Durka, P. J., Ircha, D., Neuper, C., Pfurtscheller, G. Time-frequency microstructure of event-related desynchronization and synchronization. Med Biol Eng Comput 39(3): 315–321, 2001.

Durka, P.J., Zygierewicz, J., Klekowicz, H., Ginter, J., Blinowska, K. On the statistical significance of event-related EEG desynchronization and synchronization in the time-frequency plane. IEEE TransBiomed Eng 51: 1167–1175, 2004.

Makeig, S. Auditory event-related dynamics of the EEG spectrum and effects of exposure to tones. Electroencephalogr Clin Neurophysiol 86: 283–293, 1993.

Pfurtscheller, G. Quantification of ERD and ERS in the time domain. W Pfurtscheller, G., Lopes da Silva, F. H. (Edytorzy), Event-related desynchronization. Vol. 6. Elsevier, 89–105, 1999.

Pfurtscheller, G., Arnibar, A.Evaluation of event-related desynchronization(ERD) preceding and following voluntary self-paced movements. Electroencephalogr Clin Neurophysiol 46: 128–146, 1979.

Pfurtscheller, G., Lopes da Silva, F. H. Event-related EEG/MEG synchronization and desynchronization: basic principles. Clinical Neurophysiology 110: 1842–1857, 1999.

Tallon-Baudry, C., Bertrand, O., Delpuech, C., Pernier, J. Stimulus specificity of phase-locked and non-phase-locked 40Hz visual responses in human. Journal of Neuroscience 16(13): 4240–4249, 1996.

Zygierewicz, J., Durka, P., Klekowicz, H., Crone, N., Franaszczuk, P. Computationally efficient approaches to calculating significant ERD/ERS changes in the time-frequency plane. J Neurosci Methods 145(1–2): 267–276, 2005.

Problem odwrotny w elektro- i magnetoencefalografii

Jednym z najważniejszych i jednocześnie najtrudniejszych problemów elektroencefalografii (oraz MEG) jest lokalizacja przestrzenna źródeł aktywności rejestrowanej na zewnątrz czaszki, czyli rozwiązanie tzw. problemu odwrotnego EEG/MEG. Nawet przyjmując drastycznie uproszczony model źródeł jako dipoli prądowych, umieszczonych w jednorodnym przestrzennie przewodniku o kształcie idealnej kuli, stajemy przed problemem nie mającym jednoznacznego rozwiązania: istnieje nieskończenie wiele różnych konfiguracji prądów wewnątrz kuli, generujących dokładnie ten sam rozkład potencjałów na jej powierzchni -- co udowodnił von Helmholz już w roku 1853. Inaczej mówiąc, rozwiązania problemów odwrotnych są niejednoznaczne. Dlatego uzyskane tą drogą przestrzenne rozkłady źródeł aktywności są -- mimo pozornego podobieństwa -- czymś zupełnie innym niż obrazy uzyskiwane z tomografii komputerowej czy jądrowego rezonansu magnetycznego. W przypadku tych ostatnich, obraz trójwymiarowy rekonstruujemy z przekrojów o rozdzielczości znanej bezpośrednio z natury zjawisk fizycznych wykorzystywanych w procesie obrazowania. W przypadku rozwiązań odwrotnych EEG/MEG sytuacja jest niejako odwrócona: najpierw wybieramy zestaw kryteriów spośród wspomnianych w skrócie w dalszej części rozdziału, po czym na jego podstawie wybieramy jeden z możliwych rozkładów przestrzennych prądów, który na koniec możemy ew. wizualizować w postaci przekrojów. Dlatego nie powinno się używać w odniesieniu do rozwiązań problemu odwrotnego terminu tomografia.

(55)
Problem wprost to znalezienie rozkładu potencjałów mierzalnych na powierzchni czaszki, generowanego przez daną konfigurację prądów płynących wewnątrz. Problem odwrotny to próba odtworzenia tych prądów na podstawie zmierzonego rozkładu potencjałów. W przypadku analizy źródeł aktywności obserwowanej w szeregach czasowych EEG/MEG należy z nich najpierw wyodrębnić aktywność związaną z badanym zjawiskiem

Pierwszym krokiem na drodze do rozwiązania problemu odwrotnego jest tzw. problem wprost, polegający na obliczeniu rozkładu potencjałów mierzonych na powierzchni głowy przy założeniu znanego rozkładu gęstości prądu wewnątrz mózgu. Należy jednak pamiętać, że:

  • pola przenoszą się przez mózg, płyn owodniowy, czaszkę i skórę, mające różne przewodnictwa elektryczne. Przestrzenny kształt tych struktur anatomicznych jest różny dla każdego człowieka.
  • nawet w/w ośrodki nie są jednorodne; szczególnie mózg, ze względu na obecność neuronów, wykazuje dużą anizotropowość przewodnictwa, czyli niejednorodność, zależnie od kierunku.

Zwykle przyjmuje się podział przestrzenny mózgu na elementy objętości zwane wokselami, od ang. volume element (analogicznie do piksela od picture element). W każdym wokselu przyjmujemy stałą wartość i kierunek gęstości prądu. Jeśli wartości te dla każdego woksela ułożymy w wektor j o wymiarze trzykrotnie większym niż ilość wokseli Nv (dla każdego woksela kierunek i wartość prądu określają trzy współrzędne przestrzenne), a potencjały mierzone na elektrodach umieścimy w wektorze a o wymiarze ne równym liczbie czujników (elektrod), to propagację pola z każdego woksela do każdego czujnika opisywać będzie tzw. macierz przejścia (lead field) K o wymiarach 3Nv na Ne. Po uwzględnieniu nie objętego modelem szumu e, problem wprost przyjmuje postać z równania (79)

(79)a = Kj + e

Macierz K znajdujemy rozwiązując równania Maxwella w przybliżeniu niskich częstości z więzami wyznaczonymi przez granice ośrodków. Najczęściej były one przybliżane modelem trzech koncentrycznych sfer, ale coraz częściej stosuje się np. metodę elementów skończonych dla obliczenia propagacji dla konkretnego mózgu, którego kształty znamy z segmentacji i trójwymiarowej rekonstrukcji obrazów MRI. W każdym przypadku informacje morfologiczne wykorzystuje się dla ograniczenia przestrzeni rozwiązań do fizjologicznie możliwych lokacji źródeł (np. kora mózgowa i hipokamp). W braku MRI dla danego pacjenta wykorzystuje się często dane z Atlasu Mózgu Człowieka (Talairach i Turnoux 1988).

Opisane powyżej problemy ze znalezieniem macierzy K, czyli rozwiązaniem problemu wprost, to dopiero wstęp do rozwiązania problemu odwrotnego. Gęstości prądów j dla wszystkich wokseli z powyższego równania wyznaczane są drogą minimalizacji szumu e. Jednak choćby z faktu, że Nv > > Ne, widać konieczność przyjęcia dodatkowych więzów, takich jak np. jednoczesna minimalizacja normy rozwiązania (minimum energii) czy laplasjanu (maksymalna gładkość przestrzenna). Są to tzw. rozwiązania rozproszone (distributed solutions). W uzasadnionych przypadkach można też szukać rozwiązań w postaci z góry ustalonej liczby dipoli -- wtedy optymalizacji podlegać będą ich pozycje, kierunki i natężenia. Przegląd znanych rozwiązań znaleźć można w Scholarpedii (Ramirez i Makeig 2008).

Na koniec należy przypomnieć, że punktem wyjścia dla praktycznych rozwiązań problemu odwrotnego EEG nie są rozkłady potencjału, ale wielozmienne szeregi czasowe mierzone na każdej z elektrod (rys. 55). Można szukać rozwiązań dla każdego punktu w czasie z osobna, ale takie dane wejściowe będą obciążone dużym szumem, który szczególnie źle wpływa na rozwiązania odwrotne. Dlatego zwykle stosujemy przetwarzanie wstępne dla wyodrębnienia z danych aktywności związanych z badanym zjawiskiem, jak np. opisane rozdziale Metody analizy sygnałów EEG - analiza w dziedzinie czasu [26] uśrednianie potencjałów wywołanych. Duże nadzieje na poprawę jakości rozwiązań odwrotnych EEG/MEG daje czułość i selektywność adaptacyjnych przybliżeń czas-częstość (Durka 2007a, b; Durka et al., 2005).

Literatura

Durka, P.J. Matching Pursuit, Scholarpedia, p. 20910, 2007a [27]

Durka, P. J. Matching Pursuit and Unification in EEG analysis. Engineering in Medicine and Biology. Artech House, 2007b. ISBN 978-1-58053-304-1.

Durka, P. J., Matysiak, A., Montes, E. M., Valdes-Sosa P. i Blinowska, K. J. Multichannel matching pursuit and EEG inverse solutions. Journal of Neuroscience Methods, 148(1):49-59, 2005.

Ramírez R. R. i Makeig, S. Source localization, Scholarpedia, 2008 [http:www.scholarpedia.org/article/source_localization]

Talairach J. i Tournoux P. Co-Planar Stereotaxic Atlas of the Human Brain. Stuttgart, 1988.

Oprogramowanie do analizy danych EEG i MEG

Jako program do analizy danych EEG/MEG rozumiemy program implementujący przynajmniej część z metod analizy omówionych w poprzednim i bieżącym rozdziale. Pewną funkcjonalność w tym zakresie posiadają programy dostarczane przez producentów sprzętu rejesrującego czynność EEG/MEG. Każdy z nich ma przynajmniej możliwość wyświetlania sygnałów, bardzo często oznaczania interesujących fragmentów danych lub artefaktów, filtrowania w zadanych pasmach częstości, czasem możliwe jest wykonywanie analizy spektralnej dla zaznaczonego fragmentu danych.

Bardziej zaawansowane analizy prowadzi się zwykle w dedykowanych do tego programach. Poniżej krótko omówimy najbardziej popularne obecnie pakiety. Omówiony jest stan tych pakietów w czerwcu 2009. Dziedzina analizy sygnałów EEG i MEG rozwija się obecnie bardzo dynamicznie więc aktualne informację na temat każdego ze wspomnianych poniżej pakietów należy szukać na podanych stronach internetowych.

Pakiety otwarte (Open Source, GPL)

Obecnie dominują trzy pakiety. Wszystkie są toolboxami działającymi w środowisku Matlab. Każdy wyrósł z nieco odmiennych korzeni i stąd cechuje go pewna specyfika podejścia do problemów analizy, ale w chwili obecnej oferują one podobną funkcjonalność i zarówno dzięki wspólnej platformie jak i wysiłkom tworzących je ludzi możliwa jest mniej lub bardziej łatwa integracja funkcji z różnych toolboxów. Ponieważ pakiety te są wykonywane w Matlabie mają zaletę przenośności między różnymi systemami operacyjnymi, na których działa Matlab tzn. Linux, Unix, Windows i Mac OS X.

Fieldtrip

Fieldtrip jest typowym toolboxem tzn. nie posiada on własnego interface'u. W związku z tym wymaga on znajomości programowania w Matlabie. Dostarcza natomiast wielu funkcji służących do analiz czasowych i spektralnych sygnałów EEG/MEG. Jego specjalnością są implementacje metod rozwiązywania problemów wprost i odwrotnych i ich wizualizacja. Z funkcji dostępnych w toolboxie łatwo można składać skrypty do potokowego przetwarzania danych i lokalizacji źródeł.

Więcej informacji na stronie: http://fieldtrip.fcdonders.nl/

EEGLAB

EEGLAB jest interaktywnym toolboxem matlabowym do przetwarzania zarówno ciągłych jak i związanych z bodźcami danych EEG i MEG. Wyrósł jako narzędzie do analizy EEG na pozimie sensorów. Dostarcza on możliwość analizy składowych niezależnych (ICA), analiz czasowo-częstotliwościowych i wiele narzędzi do wizualizacji danych i wyników. Dzięki współpracy z toolboxem Fieldtrip możliwa jest lokalizacja źródeł czynności EEG i MEG.

EEGLAB ma dość przejrzysty interfejs użytkownika, tak że większość standardowych procedur analizy danych można "wyklikać". Dodatkowo tworzona jest historia wywoływanych funkcji. Ułatwia ona pisanie skryptów do obliczeń nieinteraktywnych. Mechanizm wtyczek (plug-inów) umożliwia rozbudowywanie funkcjonalności interfejcu EEGLABa.

Mocną stroną jest import wielu formatów danych. EEGLAB wspiera analizę zarówno pojedynczych datasetów jak i zbiorów danych agregowanych w tzw. studtset. Więcej informacji na stronie: http://sccn.ucsd.edu/eeglab/

SPM

SPM jest interaktywnym toolboxem. Ma bardzo rozbudowany interfejs. Ale wspiera też pisanie własych skryptów przetwarzania danych. Pakiet sięga korzeniami do analizy danych PET, MRI i fMRI. Aktualna wersja (SPM8) została rozbudowana o stosunkowo wygodną wersję do wczytywania i wstępnej obróbki szeregów czasowych. Bardzo mocną stroną SPM jest statystyczna obróbka wyników i bardzo dobra segmentacja obrazów MRI w oparciu o statysyki bayesowskie. Więcej szczegółów na stronie: http://www.fil.ion.ucl.ac.uk/spm/software/spm8/

Pakiety komercyjne

Curry

Curry oferuje pełną ścieżkę przetwarzania danych: od wstępnego przetwarzania danych, filtrowania sygnałów, przez analizy składowych głównych (PCA) lub składowych niezależnych (ICA) do lokalizacji źródeł aktywności elektrycznej.

Integruje informacje z różnych modalności obrazowych(MRI, fMRI, PET, SPECT and CT) do tworzenia indywidualnych modeli głowy metodą elementów granicznych BEM (Boundary Element Method).

Lokalizacja źródeł może być prowadzona przy użyciu indywidualnego modelu głowy, lub standardowych modeli głowy BEM lub modeli głowy opartych na elementach skończonych - Finite Element Method (FEM).

Metody lokalizacji źródeł to fitowanie dipoli, MUSIC, dla źródeł rozciągłych: beamforming, Lp norms, sLORETA, SWARM.

Możliwy jest eksport wyników do formatów Excel, MATLAB i SPM. Co ważne w zastosowaniach klinicznych produkt ma FDA Market Clearance for intended clinical applications.

Więcej szczegółów na stronie producenta: [28]

BESA

BESA jest programem nakierowanym na analizę źródeł czynności elektrycznej w mózgu. Można w niej przeprowadzić pełną ścieżkę od przeglądania i preprocesowania danych (filtrowanie, usuwanie artefaktów, uśrednianie) danych.

Do dyspozycji mamy standardowe modele głowy FEM.

Zaimplementowane metody lokalizacji źródeł dipolowych to multiple source probe scan (MSPS) for model validation i RAP-MUSIC z algorytmem genetycznym szukania optymalnego dopasowania.

Metody obrazowania źródeł rozciągłych: wieloźródłowy beamformer (multiple source beamformer (MSBF)), metody minimalizacji normy rozwiązania: LORETA, sLORETA, swLORETA, LAURA, SSLOFO.

Pakiet oferuje dodatkowo możliwości analiz czasowo - częstotliwościowych ERD/ERS oraz analizy koherencji źródeł.

Więcej informacji na stronie producenta: [29]

następny>

Przykłady zastosowań

<poprzedni

Neurofeedback

W dzieciństwie uczymy się najpierw chodzić, później biegać, tańczyć. Ucząc się kontrolować ruchy własnych rąk i nóg, rozwijamy nasze zdolności motoryczne. Czy w takim razie analogicznie wiedza, którą posiadamy o tym, jak działa mózg, pozwala nam na kontrolowanie jego pracy? Odpowiedzią jest neurofeedback, który jest kompleksowym systemem treningowym, wprowadzającym zmiany na poziomie komórkowym mózgu (Demos 2005), (Swingle 2008). Zwiększa kontrolę nad funkcjonowaniem mózgu. Jest szczególnym rodzajem biofeedbacku, który zasadę swojego działania opiera na sprzężeniu zwrotnym sygnałów fizjologicznych takich jak tętno, temperatura ciała, elektryczna aktywność mięśni (EMG), skóry (EDA/GSR) etc. Biofeedback umożliwia sterowanie za pomocą bieżącego sprzężenia zwrotnego rejestrowanego sygnału, nieświadomymi i niezamierzonymi procesami fizjologicznymi. Neurofeedback (EEG Biofeedback) jest metodą wykorzystującą sygnały z Centralnego Systemu Nerwowego, jak np. aktywność fal mózgowych.

Rodzaje neurofeedbacku

EEG-biofeedback

LENS - Low Energy Neurofeedback System - wykorzystuje się tutaj bardzo słabe pole elektromagnetyczne, które modyfikuje działalnośc elektryczną mózgu. Dzięki temu mózg staje sie bardziej plastyczny i jego samoregulacja jest ułatwiona.

HEG - hemoencephalography - ten typ treningu modyfikuje przepływ krwi, zwiększając go w obszarach, gdzie występuje deficyt. Przepływ krwi odgrywa istotną rolę w funkcjonowaniu mózgu, gdyż krew zaopatruje tkanki w tlen i glukozę, które są niezbędne do ich prawidłowego funkcjonowania. Jest to podstawą do obserwacji prawidłowej aktywności rytmicznej mózgu. Zależność między zmniejszonym CBF a nieprawidłowościami w funkcjonowaniu mózgu została potwierdzona przez badania PET (Positron Emission Tomography) oraz SPECT (Single Photon Emission Computed Tomography) (Demos 2005). Podczas pracy neuronów występuje zwiększony przepływ krwi. Pacjent, wykorzystując mechanizm sprzężenia zwrotnego może modyfikować utleniwanie swojeg mózgu.

Historia powstania

Jeszcze w późnych latach ’50 minionego wieku ludzie sceptycznie odnosili się do pomysłów świadomego kontrolowania ANS, jednakże w przeciągu dekady udowodniono, że regulowanie sygnałów elektrycznych w korze mózgowej i poszczególnych mięśniach jest możliwe. Biofeedback jest metodą treningu, która powstała dla potrzeb NASA w latach sześćdziesiątych XX wieku. Miała ona pomóc astronautom w radzeniu sobie z powierzanymi im zadaniami podczas lotów kosmicznych w warunkach silnego stresu. O jej szybkim rozpowszechnieniu zadecydował korzystny ku temu profil zainteresowań panujących w Ameryce lat sześćdziesiatych i siedemdziesiątych. Bardzo modne były wówczas tematy stanów świadomości oraz hipnozy. Obserwuje się również silne dążenie do poznania kultur Dalekiego Wschodu oraz ich oddziaływanie przez zwrot w kierunku jogi, relaksacji i medytacji. Trzecim komponentem uzupełniającym ten obraz jest zainteresowanie psychodelicznymi narkotykami wpywającymi na świadomość. Poza tymi trednami obecnymi w kulturze amerykańskiej pod koniec lat sześćdziesiątych opublikowane zostały dwa artykuły, które w bardzo obiecujący sposób rokowały o terapii biofeedback. Pierwszy, w Science w 1969 roku, był autorstwa N. Millera. W swoich eksperymentach na zwierzętach dowodził on, iż można kształtować wolicjonalnie odpowiedź autonimicznego układu nerwowego bez udziału mięśni poprzecznie prążkowanych (Miller, 1969, za: Roberts, 1985). Drugi artykuł ukazał się w tym samym roku co poprzedni i odbił się dużym echem wśród klinicystów, mimo, iż nie był on pracą eksperymentalną. Dotyczył on wolicjonalnej kontroli fali alfa oraz związku między jej wystąpieniem a świadomością (Kamiya, 1969, za: Roberts, 1985). Nigdy nie udało się zreplikować żadnego z tych badań, aby uzyskać wyniki przedstawiane przez badaczy. Amatorów nowej metody zrzeszało, założone w 1969 roku, Biofeedback Research Society, które za cel stawiało sobie prowadzenie badań nad zastosowaniem tej metody. Zarówno sprzyjające warunki socjokulturowe jak i publikowane badania stworzyły bardzo podatny grunt do rozpowszechnienia się nowej metody, która miała szansę zapewnić wgląd w nieświadomość i dać kontrolę nad procesami, które dotychczas były uznawane za niemodyfikowalne wolicjonalnie przez człowieka.

Zastosowanie neurofeedbacku

Neurofeedback polega na świadomej obserwacji zmian zachodzących w aktywności naszego mózgu i zamianie nieprawidłowego rytmu na pożądany. Oscylacje fal, czyli ciągłe zmiany amplitudy określonych pasm częstotliwości, są rejestrowane za pomocą EEG podłączonego do komputera. Informacja zwrotna, jaką otrzymuje pacjent o aktywności swoich fal mózgowych, wyświetlana jest na monitorze obserwowanym przez pacjenta. Jego zadaniem jest zmiana aktywności fal mózgowych podczas obserwowania bieżącej rejestracji sygnału EEG. Parametry treningu ustala terapeuta kontrolujący przebieg całego treningu. By ułatwić pacjentom zadanie, podczas terapii jako informacje zwrotną wykorzystuje się aplikacje graficzne (gry komputerowe o bardzo uproszczonej formie) sterowane, zamiast joystickiem, klawiaturą, czy myszką, sygnałem EEG rejestrowanym przez komputer. Pacjent, za pomocą interfejsu graficznego ma za zadanie sprawić, by twarz widoczna na ekranie uśmiechnęła się lub samochód, którym steruje jechał szybciej. Prawidłowo wykonane zadanie polega na wygaszeniu niepożądanych oraz wzmocnieniu pożądanych częstotliwości fal. Wielokrotne powtarzanie treningów ma na celu wprowadzenie stałych zmian w aktywności mózgu, świadomej kontroli tych zmian oraz wykorzystywania tych umiejętności w życiu codziennym.


(56)
Przykładowy wygląd ekranu monitora pacjenta w trakcie sesji neurofeedback.


Początkowo, trening neurofeedback przeznaczony był dla ludzi zdrowych, chcących poprawić swoją sprawność intelektualną oraz umiejętność kontrolowania własnego stanu psycho-fizycznego. Skupiano się na nauce kontrolowania emocji i stresu oraz poprawie samooceny, jak również umiejętności koncentracji. Skuteczność metody sprawiła, że terapię neurofeedback zaczęto stosować u ludzi cierpiących z powodu zaburzeń, takich jak: epilepsja, bóle głowy, problemy z koncentracją, zaburzenia nastroju, zaburzenia odżywiania (anoreksja, bulimia), nerwice, parkinson, schizofrenia, zaburzenia snu, po urazach głowy, po udarach mózgu oraz wiele innych. Atrakcyjność formy pozwoliła na stosowanie terapii u dzieci z dysfunkcjami rozwojowymi, np: zaburzenia rozwoju psychomotorycznego wieku dziecięcego, ADHD, czy zaburzenia mowy. Prawidłowo przeprowadzony trening nie powoduje efektów ubocznych, jak również daje możliwość ciągłej rejestracji mierzalnej poprawy stanu pacjenta, możliwej do zaobserwowania po kilku treningach (Demos 2005),(Robbins 2000).

Psychofizjologiczne podstawy działania biofeedbacku - Warunkowanie sprawcze oraz neuroplastyczność

Terapia neurofeedback to metoda usprawniania działania OUN (ośrodkowego układu nerwowego) poprzez tworzenie w mózgu nowych połączeń synaptycznych oraz osłabiania niepożądanych, już istniejących. Za działanie terapii biofeedback od strony psychofizjologicznej odpowiadają dwa zjawiska. Pierwsze, psychologiczne, to warunkowanie sprawcze (instrumentalne), drugie-neurofizjologiczne - neuroplastyczność układu nerwowego. Warunkowanie sprawcze niejako jest tutaj przyczyną zajścia procesów neuroplastyczności, a co za tym idzie uzyskania pożądanego efektu terapii.

Warunkowanie sprawcze: Proces ten nazywany jest również warunkowaniem drugiego typu lub warunkowaniem instrumentalnym. Ważnym elementem jest tutaj istnienie bodźca warunkowego, który wymaga wolicjonalnego wykonania danej reakcji przez organizm. W tym przypadku jest sposób generowania pożądanych fal. Wykonanie reakcji warunkowej, tj. zdobycie punktów w grze co jest pochodną generowania pożądanych fal mózgowych, powoduje zaspokojenie bodźca bezwarunkowanego. Badania nad warunkowaniem instrumentalnym leżały u podstaw założeń, na których opiera się neurofeedback (Gruzelier, Egner, 2005). Eksperymenty przeprowadzane przez Stermana na kotach polegały na prostym schemacie: aby dostać się do mięsa głodny kot musiał nacisnąć dźwignię. Następnie zadanie skomplikowano, przez konieczność rozpoznania przez zwierzęta zestawu błysków i dźwięków. Po wielu próbach koty ogniskowały uwagę na błyskach wytwarzając w korze sensomotorycznej rytm ok. 14 Hz (nazwany rytmem sensomotorycznym - SMR). Po treningu koty same generowały ten rytm będąc głodnymi. W ten sposób potwierdzono zależność, która leży u podstaw mechanizmu biofeedbacku. W porównaniu do normalnego warunkowania instrumentalnego, pacjent ma tutaj utrudnione zadanie, ponieważ rezultat jest niewidoczny i dużo bardziej abstrakcyjny. Pacjenci zmuszeni są w tej sytuacji wykorzystywać metodę prób i błędów, a informację o efektach dostają w formie symbolicznych punktów. Dlatego, w tym wypadku, kluczowe jest jasne rozumienie, za co przyznawana jest nagroda oraz motywacja i pozytywne nastawienie pacjenta.

Neuroplastyczność: U podstaw działania biofeedbacku leży funkcjonalna i anatomiczna plastyczność układu nerwowego. Plastyczność układu nerwowego zachodzi od poziomu najniższego, synaptycznego, między konkretnymi neuronami, przez zmiany w obrębie coraz większych struktur. Najprostszą zasadą tłumaczącą podstawowy mechanizm powstawania zmian plastycznych jest reguła Hebba. Mówi ona, że “jeśli neuron A w sposób częsty i powtarzalny powoduje pobudzenie i powstanie potencjału czynnościowego w neuronie B, nastąpią procesy wzrostowe lub metaboliczne w obu komórkach, tak że skuteczność pobudzenia neuronu B przez neuron A będzie zwiększona” (Hebb 1949). Na poziomie komórkowym w sytuacji, gdy dane połączenie neuronalne jest wykorzystywane częściej niż inne stanie się ono trwalsze, jego waga wzrośnie, przez co pobudzenie będzie następować szybciej. Zależność ta tłumaczy występowanie zjawiska LTP (long-term potentation, długotrwałe wzmocnienie synaptyczne). Występuje ono w sytuacji długotrwałego pobudzania synapsy między dwoma neuronami, w wyniku czego, po pewnym czasie odpowiedź pobudzanego neuronu na taki sam bodziec jest dużo silniejsza niż na początku. Cechą LTP jest szybka indukcja oraz długi czas trwania. Odwrotnym procesem do LTP jest LTD (long-term depression, długotrwałe osłabienie synaptyczne). Następuje wówczas spadek efektywności synapsy wywołany przez niedostateczną jej stymulacje. Obydwa wyżej opisane procesy występują w wielu rejonach mózgu i przypisywane im są m.in. procesy uczenia się, pamięci i redukcji zbędnej informacji. Zmiany plastyczne mają również swoje odbicie w morfologii synaps i neuronów. Wzmocnienie połączenia pomiędzy neuronami wiąże się ze wzrostem liczby synaps pomiędzy nimi i/lub silniejszą odpowiedzią pobudzanej synapsy (zmiana wagi synaptycznej). Wzmocnienie synaptyczne może wynikać z różnych procesów. Może mieć podłoże biochemiczne: przez zwiększenie wydzielania neurotransmitera, zmianę liczby receptorów na synapsie, wolniejsze usuwanie neurotransmitera ze szczeliny synaptycznej, uaktywnienie działania milczących (nieaktywnych) synaps. Na poziomie samej synapsy - przez zmianę właściwości wewnętrznych błony i zmianę jej pobudliwości, m.in. przez dodanie dodatkowych kanałów jonowych. Zmiana wagi synaptycznej może również nastąpić przez zmianę położenia jej na neuronie, np. połączenie aksonalne są dużo bardziej stabilne niż synapsy na kolcach dendrytycznych. W końcu zmiana odpowiedz synapsy może być uzyskana przez zmianę jej wielkości i kształtu, co usprawnia jej działanie. Plastyczność neuronalna jest przedmiotem zainteresowania badaczy i na chwile obecną nie sposób orzec, jakie czynniki decydują o występowaniu konkretnej zmiany pomiędzy synapsami. Stwierdzono, że procesy takie zachodzą na poziomie komórkowym i leżą u podłoża plastycznych zmian zachodzących w naszym układzie nerwowym, m.in podczas uczenia się. Dlatego szukając wyjaśnienia działania neurofeedbacku od strony fizjologicznej, zakłada się, że jest on związany z występowaniem procesów plastyczności synaptycznej. Neurofeedback to trening mózgu, więc aby można było zaobserwować poprawę w jego funkcjonowaniu, należy wyznaczyć pacjentowi zadanie wymagające pewnego wysiłku. W tym celu ustala się tak zwany „próg”, który określa poziom trudności wykonywanego zadania. Próg ten jest modyfikowany w czasie terapii, w zależności od postępów pacjenta. Warunkiem koniecznym, by trening przyniósł efekt, jest wprowadzenie elementu nagrody, która przyznawana jest w odpowiednim czasie – zawsze wtedy, gdy pacjent osiągnie pożądaną aktywność mózgu w trenowanym obszarze. Nagrodą tą są punkty przyznawane w czasie gry. Zmniejszanie amplitudy wybranych pasm częstości jest osiągane poprzez obniżanie progu. Zadaniem pacjenta, w takim wypadku, jest zmniejszenie amplitudy tak, by była ona mniejsza niż wartość progowa. Zwiększanie amplitudy jest osiągane poprzez podwyższenie progu na około 2/3 średniej wartości rejestrowanych amplitud wzmacnianego parametru. Pacjenci są nagradzani, gdy osiągnięta przez nich wartość amplitudy jest wyższa, niż wartość progowa, którą ustawia się 5-10 uV powyżej średnich wartości amplitud hamowanego parametru. Warto jednak zaznaczyć, że zdarza się, że nie jest to jedynym celem terapii - często zadaniem terapeuty jest przeprowadzenie treningu w taki sposób, aby uzyskać odpowiednie proporcje między parametrem hamowanym a wzmacnianym. W aparaturze EEG DigiTrack Biofeedback zastosowano w celu ułatwienia wyboru progu kolory. W przypadku wzmacniania parametru, im pod progiem więcej koloru (np. czerwonego, zielonego, etc), a mniej szarego, tym łatwiejsze zadanie przed pacjentem. W przypadku hamowania parametru, jest odwrotnie - im pod progiem więcej szarego, tym łatwiej pacjentowi osiągnąć pożądane parametry.


(57)
Przykładowy wygląd ekranu monitora terapeuty w systemie EEG DigiTrack. Widoczne są, w lewym górnym rogu: zapisy z dwóch kanałów EEG, w prawym górnym rogu: podział na pasma częstości oznaczony kolorami, na dole: wykresy przebiegów mocy w czasie, w poszczególnych pasmach częstości, z zaznaczonymi progami, dla jednego z kanałów.


Organizacja treningów

Podczas treningu wymagamy od pacjenta skupienia i zaangażowania, dlatego należy zapewnić mu odpowiednie warunki. Trening powinien być przeprowadzany w pokoju wyciszonym, gdzie wraz z pacjentem przebywa jedynie terapeuta (oraz opiekun w przypadku takiej konieczności). Nie zaleca się używania oświetlenia typu „świetlówka”, jednakże nie ma rygorystycznych wskazań dotyczących oświetlenia pokoju terapeutycznego — w zależności od dysfunkcji, pacjenci różnie reagują na intensywność światła. Aby poprawić pacjentom (np. z ADHD) warunki pracy, zaleca się, by wystrój pokoju był oszczędny (nie rozpraszał uwagi pacjenta), lecz sprzyjający relaksowi. Dopuszcza się stosowanie muzyki relaksacyjnej w tle. W celu wyeliminowania artefaktów ruchowych i mięśniowych, istotne jest by fotel, na którym siedzi pacjent był stabilny, z zagłówkiem oraz bez możliwości „bujania się” oraz żeby nogi spoczywały wygodnie i nieruchomo. Należy pamiętać, że kluczowe jest zapewnienie pacjentowi komfortowej pozycji sprzyjającej relaksowi i rozluźnieniu. Fotel umiejscawia się na wprost monitora, na którym wyświetlana jest gra, w odległości 1-1,5 m. Głowica aparatury medycznej nie powinna znajdować się bliżej, niż 1,5 m od monitora. Drugi monitor, na którym wyświetlane są informacje o przebiegu terapii, powinien być ustawiony tak, by pacjent nie widział co się na nim znajduje, gdyż mogłoby to spowodować dekoncentrację. Należy pamiętać, by nie ustawiać aparatury w pobliżu urządzeń emitujących pole elektromagnetyczne, gdyż może to zakłócić pracę aparatury, jak również wpłynąć na czynność bioelektryczną mózgu. Dodatkowe zalecenia można uzyskać u producentów aparatury medycznej. Istotne jest, by trening był prowadzony systematycznie, o tej samej godzinie, nie częściej niż raz dziennie (konieczny sen między treningami), ale nie rzadziej niż dwa razy w tygodniu. Czas przeznaczony na jeden trening jest sprawą indywidualną (Demos 2005). Przy jego ustalaniu należy wziąć pod uwagę fakt, że podczas sesji treningowej pacjenta może bardzo zmęczyć wykonywanie konkretnego zadania, na przykład koncentrowanie uwagi. Postępy, jakie wykonuje pacjent podczas gry obserwuje się po pierwszych treningach, jednakże konieczne jest powtarzanie treningów w celu utrwalenia zmian. Dlatego też terapia u większości pacjentów składa się zazwyczaj z 20-60 treningów, choć w niektórych przypadkach liczba to może być większa (Demos 2005). U osób zdrowych, poprawę funkcjonowania odnotowuje się po 20 treningach. U osób z zaburzeniami wymagane jest minimum 40-60 treningów. Terapia neurofeedback wymaga systematyczności i cierpliwości. Częstym zjawiskiem jest załamanie występujące, w zależności od cech indywidualnych, raz lub kilka razy w czasie terapii. Zdarza się, że powtarzanie się tego zjawiska jest powodem rezygnacji pacjentów z kontynuowania terapii.

Artefakty

Podczas wykonywania badania EEG należy być świadomym wpływu niepożądanych czynników na zapis czynności bioelektrycznej mózgu. Przekłamania rejestrowane jako fale wolne mogą mieć pochodzenie ruchowe (np. mruganie). Jako zakłócenie pasm o wysokiej częstotliwości mogą być odczytane artefakty mięśniowe. Ocena przewagi amplitudy w jednej z półkul może być zafałszowana przez różną grubość kości czaszki po obu jej stronach. Warto pamiętać, że skóra, kości czaszki i płyn mózgowo-rdzeniowy tworzą filtr dolnoprzepustowy, co również zmienia postać rejestrowanego sygnału. Na czynność bioelektryczną mózgu wpływają leki, używki oraz dodatki do żywności (Budzynski et al., 2009). W zależności od ich składu chemicznego, modyfikują one różnorodnie sygnał EEG. Na przykład potwierdzono wpływ na czynność bioelektryczną mózgu takich substancji jak gabapentin, karbamazepina (*), okskarbazepina, fenytoina, czy nootropil będących składnikami wielu leków. Pamiętać jednak należy, że znaczący wpływ na rejestrowany sygnał EEG mają również tak powszechne substancje jak witaminy z grupy B oraz alkohol, kofeina, czy nikotyna. Warto zaznaczyć, że różnice międzyosobnicze EEG bywają większe, niż zmiany spowodowane spożyciem niektórych wyżej wymienionych substancji. Niemniej zmiany te mogą odgrywać kluczową rolę przy przeprowadzaniu treningu - ustalaniu progu, uzyskiwaniu pożądanych wzorców fal mózgowych oraz określaniu postępów terapii. Ustawienia sesji treningowej (DigiTrack) dają możliwość częściowego wykluczenia artefaktów, poprzez dyskryminowanie sygnałów o wyższej amplitudzie niż zadana. Jednakże, z powodu różnej postaci występujących zakłóceń, terapeuta powinien być świadomy możliwych przekłamań. Zapewnienie odpowiednich warunków treningowych może znacząco wpłynąć na ograniczenie artefaktów występujących w rejestrowanym sygnale.

Opis przebiegu terapii

Osoba decydująca się na terapię metodą biofeedback, przed rozpoczęciem właściwych treningów musi odbyć rozmowę z terapeutą oraz badanie diagnostyczne. Pierwszym krokiem do rozpoczęcia terapii jest przeprowadzenie przez terapeutę wywiadu z pacjentem. Podczas jego trwania terapeuta powinien dowiedzieć się o dolegliwości pacjenta, zażywane leki, jaka jest jego historia choroby oraz oczekiwania względem terapii. Jest to moment, aby dokładniej przybliżyć pacjentowi szczegóły terapii oraz ogólnie przedstawić, jakich efektów i po jakim czasie może się spodziewać. W zależności od choroby niektórzy terapeuci wykonują badania neuropsychologiczne lub testy psychologiczne w celu rozwiania wątpliwości co do przyszłej diagnozy. Podczas wywiadu ważne jest dobre nawiązanie kontaktu pomiędzy terapeuta a pacjentem. Gwarantuje to bardziej owocną współpracę oraz lepsze rezultaty terapii. Kolejnym niezbędnym krokiem przed rozpoczęciem terapii jest odbycie przez pacjenta badania diagnostycznego. Konieczność ta wynika z bardzo indywidualnego charakteru zmian w pracy mózgu u poszczególnych osób. Nie można trafnie dobrać rodzaju treningu tylko na podstawie obserwacji zachowania pacjenta oraz przedstawionego przez niego opisu dolegliwości. W zależności od terapeuty i sprzętu jaki posiada można wykonać pomiar sygnału przy użyciu tradycyjnego czepka do EEG lub wykorzystać do tego elektrody głowicy do neurofeedbacku. Sygnał zbierany jest wtedy obustronnie wzdłuż osi środkowej głowy z kolejnych punktów na czaszce, referencją jest elektroda umieszczona na płatku ucha. Aby trafnie zdiagnozować nieprawidłowości pracy określonego obszaru mózgu z każdego punktu sygnał zbierany jest w trzech warunkach: 1. osoba siedzi z otwartymi oczami 2. osoba siedzi z zamkniętymi oczami 3. osoba dostaje zadanie do wykonania, powinna się skupić na jakimś przedmiocie lub przeczytać zadany tekst. Całe badanie diagnostyczne przeprowadza się przy wyłączonym monitorze i trwa ono około 90 minut (Hammond, 2006). Zebrany sygnał jest obrabiany przez program, usuwane są artefakty. Końcowym efektem jest wynik liczbowy, który można przyrównać do danych zgromadzonych w bazie, odpowiednich do wieku badanego oraz na tej podstawie diagnozować o zaburzeniu. W niektórych przypadkach klinicyści analizują cały zapis EEG nie tylko dane liczbowe uzyskane z obliczeń programu.

Na kolejnym spotkaniu terapeuta przedstawia diagnozę, wybrany protokół (rodzaj treningu) oraz plan prowadzenia terapii, m.in. ilość sesji koniecznych do uzyskania poprawy oraz plan rozmieszczenia ich w czasie. Konieczne jest, aby między treningami był 24 godzinny odstęp oraz sen. Zaleca się również, żeby nie odbywały się rzadziej niż dwa razy w tygodniu. Ilość sesji uzależniona jest tutaj od zaburzenia, waha się od 15-20 w przypadku lęku i bezsenności do 40-50 przy leczeniu ADHD (Hammond, 2006). W zależności od podłoża zaburzenia często zdarza się, że koniecznym uzupełnieniem dla terapii biofeedback jest uczęszczanie na terapię psychologiczną. W przypadku, gdy zaburzenie ma korzenie fizjologiczne terapia biofeedback powinna przynieść pożądane skutki i jej rezultaty powinny być trwałe. W sytuacji gdy chorobę wywołują problemy psychiczne sam biofeedback będzie leczeniem objawowym i najprawdopodobniej pacjent nie uzyska trwałej poprawy, lecz po pewnym czasie może spodziewać się nawrotu dolegliwości. Dlatego bardzo ważne jest umiejętne przeprowadzenie wywiadu z pacjentem, nawiązanie z nim dobrego kontaktu oraz rzetelne przeanalizowanie zebranego przez terapeutę materiału i trafne zdiagnozowanie choroby. Terapia neurobiofeedback jest całkowicie bezbolesna i nie powinna powodować żadnych efektów ubocznych. Czasami zdarza się, że pacjenci mają poczucie zmęczenia, podniecenia lub rozdrażnienia. Niektórzy pacjenci uskarżają się początkowo na bóle głowy i problemy z zaśnięciem. Wymienione objawy mijają w krótkim czasie po sesji treningowej. W przypadku wystąpienia dolegliwości terapeuta powinien zmodyfikować protokół terapii (Hammond, 2006).

Wykorzystywane rozmieszczenia elektrod

Urządzenie do neurofeedbacku składa się ze wzmacniacza sygnałów EEG wraz z odpowiednim oprogramowaniem. Do podłączania elektrod stosuje się międzynarodowy system 10-20, z którego wykorzystuje się jedynie zapis jednokanałowy lub dwukanałowy. Dwukanałowe EEG jest bardziej wszechstronną metodą zbierania sygnału z czaszki, niż pomiar jednokanałowy. Umożliwia zarówno porównywanie sygnałów z różnych obszarów mózgu, jak również ich jednoczesne trenowanie. Jest to duża zaleta, gdyż różne obszary mózgu nie funkcjonują niezależnie — tworzą system. W dwukanałowym EEG, każdy kanał posiada dwie elektrody aktywne, natomiast elektroda uziemiająca jest wspólna dla obu kanałów.

Choroby leczone za pomocą terapii biofeedback oraz przykładowe protokoły

Biofeedback jest stosowany zarówno do leczenia chorób i zaburzeń, jak i do polepszania umiejętności uczenia się, koncentracji, relaksacji itp. Warto zwrócić tutaj uwagę, że podłożem niektórych chorób jest złe funkcjonowanie pracy mózgu i co za tym idzie, zaburzony wzór jego aktywności. W takich przypadkach zastosowanie biofeedbacku zdaje się usuwać przyczyny choroby. W wielu przypadkach, gdy zaburzona aktywność jest wynikiem innych czynników, np. psychicznych, biofeedback może mieć jedynie doraźne, krótkoterminowe zastosowanie.

ZESPÓŁ NADPOBUDLIWOŚCI PSYCHORUCHOWEJ (ADHD)

U osób cierpiących na ADHD stwierdzono zaburzenia aktywności mózgu w postaci zredukowanej czynności 'beta' i pasma SMR oraz podwyższonej częstości 'theta'. Badania Manna (za: Gruzelier i Egner, 2005) pokazują, że podczas zadań wymagających utrzymywania skupionej uwagi u dzieci z ADHD następuje wzrost thety w czołowych centralnych obszarach wraz ze spadkiem bety w tylnych obszarach skroniowych. Pokazuje to, iż obszary decydujące o wykonaniu zadania - płaty czołowe - wykazują aktywność, która pojawia się u zdrowego człowieka podczas odpoczynku. Niski poziom bety u dzieci z ADHD może mieć związek z brakiem umiejętności skupienia uwagi. Podczas wykonywania zadań wymagających wzrokowo-przestrzennej uwagi zauważono u badanych wzrost aktywności w paśmie beta. Pojawiał się on tylko w przypadku koncentrowania się na jednym bodźcu. W chwili gdy konieczna była podzielność uwagi następował spadek aktywności w tym pasmie (za: Gruzelier, J, Egner, T., 2005). Jak wynika z badań Lubara (za: Gruzelier i Egner, 2005) rytm SMR wygasza lub stabilizuje aktywność motoryczną bez spadku uwagi. Ten typ treningu najczęściej łączony jest ze zwiększaniem wyższych komponentów bety1 (15-18 Hz) z wygaszaniem niskich częstości thety (4-7 Hz), które związane są z początkowymi stadiami snu i powodują senność oraz rozkojarzenie. Główne postulaty postępowania przy dobieraniu treningu neurofeedback pochodzą z badań Lubara, pioniera w stosowaniu tego typu terapii w stosunku do osób z ADHD. Podstawowe założenia to: obniżenie poziomu thety, wzbudzenie wyższych pasm- SMR i bety - oraz hamowanie wysokich częstotliwości, które są często zakłócane przez artefakty z mięśni. Trening odbywał się przy użyciu elektrody Cz, ponieważ jej umiejscowienie pozwala na rejestracje sygnału zarówno z kory sensomotorycznej jak i czołowej. ADHD nie jest zaburzeniem jednorodnym i wśród chorych można wyróżnić różne rodzaje objawów. Jedną z klasyfikacji zaproponował Clarke (za: Gruzelier i Egner, 2005). Wyróżnił on trzy typy, w jakich może przejawiać się syndrom ADHD: typ ADHDin - inattentive - przeważa tutaj przede wszystkim brak umiejętności skupienia uwagi, typ ADHDhyp - hyperactive - z dominującą nadpobudliwością ruchową, oraz trzeci - ADHDcom - combined - typ mieszany. W obrębie tych trzech typów prowadzone były badania aktywności mózgu w poszczególnych pasmach. Okazało się, że największe różnice w stosunku do osoby zdrowej ujawniły się w typie ADHDcom, gdzie był wyższy poziom delty i thety oraz niższy poziom bety w rejonach czołowych i centralnych. Najbliższy grupie kontrolnej był typ ADHDin. Te wyniki wskazują, iż nie jest możliwe stosowanie jednego typu terapii u grupy chorych na ADHD bez wcześniejszego przeprowadzenie dokładnych badań diagnostycznych i sklasyfikowania z jakim dokładnie zaburzeniem pracy mózgu mamy do czynienia. Ostatnie badania Gruzeliera i Egnera (2005) pokazują, że różne protokoły okazują się skuteczne w stosunku do polepszenia umiejętności skupienia uwagi w zależności od rodzaju popełnianych błędów. Błędy w zadaniach u osób badanych mogły wynikać z nieuwagi lub impulsywności. Trening SMR był skuteczny tylko u osób popełniających błędy przez impulsywną odpowiedź i skutkował zmniejszeniem ich ilości. Możliwe, iż poprawa ta była związana z polepszeniem hamowania odpowiedzi. Trening beta1 przyniósł natomiast odwrotne skutki: ilość błędów zwiększyła się i skrócił się czas reakcji. Wyniki te pozawalają przypuszczać, że dla typu ADHDhyp skuteczny może okazać się protokół SMR, a dla grupy ADHD protokół beta1. Aby odpowiedzieć na to pytanie konieczne jest przeprowadzenie dalszych badań.

ZABURZENIE OBSESYJNO-KOMPULSYWNE (OCD)

Przyczynę tego zaburzenia upatruje się w hiperaktywności neuronów wchodzących w skład połączeń pomiędzy boczną korą przedczołową, jądrem ogoniastym (Caudate Nucleus) a korą obręczy (Cingulate). Aktywność kory przedczołowej wzrasta, kiedy mamy poczucie nieprawidłowości stanu rzeczy, stwierdzamy, że “coś jest nie tak jak powinno”. Jądro ogoniaste zawiązane jest z zaspokajaniem potrzeb i popędów (np. mycia) i reakcjami automatycznymi. Z kolei kora obręczy odpowiada za skupienie uwagi w sytuacjach poczucia niepewności oraz za świadome przeżywanie emocji. Osoba z zaburzeniem obsesyjno-kompulsywnym wykazuje bardzo silną aktywację kory przedczołowej oraz jądra ogoniastego w momencie myślenia o zjawisku zawiązanym z kompulsją (czynność wykonywana w celu zapobiegnięcia jakiemuś zdarzeniu). Chory zdaje sobie sprawę z irracjonalności wykonywanej czynności, lecz bardzo silnie przeżywany lęk nie pozwala na wyhamowanie kompulsji. Protokół terapii neurofeedback w typ przypadku ma na celu zredukowanie lękliwości i napięcia przez obniżenie tej niepożądanej aktywności. Najczęściej hamowana jest wysoka beta (21-34 Hz) w punktach F3, F4, Fz, czasem w pasie centralnym. Lubar (Thompson, 2003) proponuje wykorzystywanie protokołu tylko dla prawej strony uwzględniający redukowanie bety i podwyższanie pasma alfa. Niektórzy terapeuci proponują terapię biofeedback mającą na celu obniżenia lęku razem z protokołem neurofeedback aktywującym pasmo alfy (11-15 Hz) w puntach C4 i P4.

ALKOHOLIZM

Badania pokazują, że u osób uzależnionych od alkoholu nawet po długim okresie abstynencji występuję niższy poziom fal pasma alfa i theta oraz wyższy pasma bety (Hammond, 2006). Zjawisko to można również obserwować u ich dzieci. Powoduje to problem z osiągnięciem stanu wyciszenia i relaksu. Przyjmowanie alkoholu powoduje natomiast podnieniesie poziomu niskich fal alfa i theta. Stąd też hipoteza, że skłonność do nałogu alkoholowego może wynikać z podłoża biologicznego - deficytu niskich fal mózgowych oraz nadmiaru wysokich częstości. Osoby o takiej charakterystyce niejako równoważą tę asymetrię przez spożywanie alkoholu, chcąc uzyskać stan relaksacji. W terapii neurofeedback u osób z taką asymetrią fal stosuje się protokół alfa/theta. Ma on na celu ułatwienie wzrostu poziomu thety nad alfę w trakcie relaksacji z zamkniętymi oczami. Podczas takiej relaksacji na początkowym etapie pojawia się wysoka amplituda pasma alfa, która stopniowo ustępuje na korzyść pasma theta, które zaczyna dominować. Często towarzyszy temu wzrost delty. Punkt przejścia z częstości alfa na pasmo theta nazywany jest theta-alfa-cross-over, charakteryzuje się obniżeniem świadomości i wystąpieniem początkowych stadiów snu. Podczas treningów biofeedbacku osoby osiągały stan głębokiej relaksacji bez zasypiania. Badania nad wykorzystaniem biofeedbacku w leczeniu uzależnień, m.in. alkoholizmu były prowadzone w amerykańskich szpitalach od wczesnych lat siedemdziesiątych. Treningi neurofeedback dotyczyły niskich częstości - alfy (8-13 Hz) i thety (4-8 Hz) rejonów potylicznych. Bardzo często towarzyszyły im sesje EMG biofeedback i temperature control biofeedback. Efektem tych wieloletnch badań było opracowanie planu sesji nazwanego protokołem Penistona, od nazwiska jednego z czołowych badaczy. Trening biofeedback uzupełnił on o temperature control biofeedback oraz “skryptem” (script). Terapia zaczyna się od temperature control biofeedback, podczas którego pacjenci uczą się głębokiej relaksacji (ok. 5 sesji). Następnym krokiem jest trening neurofeedback, do którego wprowadzeniem jest “skrypt”, czyli malowniczy opis w jaki sposób osoba powinna się zrelaksować oraz na czym powinna skupić swoje wyobrażenia. Kolejny etap terapii - trening neurofeedback- wykorzystuje elektrode O1. Pacjent ma za zadanie generowanie fal alfa - po osiągnięciu progu rozbrzmiewa przyjemny dźwięk, który pacjent ma za pomocą feedbacku generować. W ten sposób osiąga on coraz niższe częstości fal i bardziej zrelaksowany stan. W momencie, gdy osiągnięty zostaje pożądany próg częstości pasma theta generowany jest inny dźwięk. Peniston określa ten stan jako “bardziej zrelaksowany i jako stan nieskrępowanej zadumy i dużej sugestywności, umożliwiający penetrację doświadczanych wyobrażeń.” (Budzyński et al., 2009) Zastosowanie tego protokołu cieszyło się bardzo dużą skutecznością i długim okresem utrzymywania się zmian.

DEPRESJA

Jedną z fizjologicznych zmian obserwowanych u osób depresyjnych jest asymetria aktywacji między prawą i lewą półkulą (Davidson, 1994). Przyjmuje się, że lewy centralny płat mózgu jest związany z pozytywnymi emocjami oraz motywacją, parciem w danym kierunku, a prawy - z negatywnymi afektami oraz wycofywaniem się. W przypadku biologicznej skłonności do depresji zaobserwowano znaczną przewagę fal alfa w lewej półkuli, co prowadzi do jej mniejszej aktywności i dysproporcji w odczuwaniu pozytywnych i negatywnych emocji na korzyść tych drugich. Podobne zjawisko zaobserwowano również u dzieci depresyjnych matek. Asymetria stwarza predylekcję do popadnięcia w zaburzenie depresyjne w przypadku długotrwałego przeżywania negatywnych emocji. Ten model aktywacji nie jest koniecznym warunkiem wystąpienia depresji, może ona wystąpić również u osób z symetrycznym wzorcem fal mózgowych. Jednym z protokołów zaproponowanych do zniesienia opisanej asymetrii jest alpha asymmetry protocol (nazywany również ALAY(Hammond, 2005)) autorstwa Rosenfelda. Wykorzystuje on formułę (F4-F3)/ (F3+F4), w której porównywana jest aktywacja prawego i lewego obszaru czołowego. Im wyższy wynik tego równania, tym asymetria jest mniejsza, gdyż czynnikiem pomiaru jest tutaj pasmo alfa. Im F3 będzie przyjmować mniejsze wartości, tym mniejsza będzie aktywność alfy, czyli większa aktywacja. Duża wartość F4 sugeruje, że jest tam przewaga pasma alfa. Pod względem funkcjonalnym obszar ten, odpowiedzialny za negatywne emocje i wycofanie, jest w spoczynku. Według E. Baehr ważna jest proporcja czasu, kiedy równanie Rosenfelda jest powyżej zera do ilości czasu kiedy daje ono wynik ujemny. Jak twierdzi badaczka, jest to dużo trafniejszy sposób diagnozowania. Jeżeli osoba 55% czasu miała wynik równania poniżej zera sugerowana jest depresja, jeśli powyżej 60% utrzymywał się rezultat dodatni, uważana jest za zdrową. Warto zwrócić uwagę, że wynik proporcji Rosenfelda nie informuje jak kształtują się jej poszczególne składowe. Nie wiadomo, czy pasmo alfa zostało wyhamowane w lewej półkuli czy nastąpiła większa jego aktywacja w prawym obszarze. Inne rozwiązanie problemu obniżonej aktywności lewego płata czołowego wysunął J.Gunkelman (Thompson, 2003). Zaproponował on, aby razem ze wzmacnianiem pasma beta lewego płata czołowego, wykorzystać drugi kanał do wzbudzania pasma wysokiej alfy (11-13 Hz) w obszarach ciemieniowych. Autor chciał w ten sposób wywołać rodzaj współzawodnictwa między tymi obszarami, wzmacniając pasmo alfa we właściwym dla niego rejonie występowania. Odmienny protokół stosował z pozytywnym skutkiem u swoich pacjentów Hammond (Hammond, 2005). Sesja treningowa została podzielona na dwie części. Pierwsze 20-22 minut w punktach Fp1 i F3 hamował on pasma niskiej alfy i thety oraz wzmacniał pasmo bety (15-18 Hz). Ostatnie 8-10 minut treningu wzmacniana była częstość 12-15 Hz. Skuteczność tego protokołu wykazał on w swoich badaniach prowadzonych na osobach z ostrą depresją. Skuteczność w walce z depresją zaobserwowali również badacze wykorzystujący trening przy pomocy LENS. Wskazują na to badania Larsona, który zauważył u swoich pacjentów znaczną poprawę już po 20 sesjach (Budzynski et al., 2009).

EPILEPSJA

Wśród osób cierpiących na epilepsję zastosowanie terapii neurofeedback odnotowuje się od początku lat siedemdziesiątych ubiegłego stulecia. Przyczynkiem do rozpoczęcia badań nad zastosowaniem tego typu terapii jako możliwego “lekarstwa”, były badania Stermana nad wpływem paliwa rakietowego na człowieka. Okazało się, że koty po treningu SMR nie cierpiały na ataki epileptyczne wywołane oparami (Egner i Sterman, 2006). Rytm SMR jest wywoływany przez wzajemne oddziaływanie jąder wzgórza i kory somatosensorycznej. Ponieważ oscylacje te są zmieniane przez neuromodulatory, dlatego warunkiem ich wystąpienia jest spokojne zachowanie i brak wzmożonej aktywności. Kontrola podniecenia i ekscytacji staje sie w ten sposób jednym z głównych celów treningu neurofeedback w ramach tego protokołu. Patologia epilepsji może w różnej formie przejawić się w sygnale EEG, mogą też nie występować żadne znaczące zmiany w stosunku do EEG osoby zdrowej. Największe prawdopodobieństwo zaobserwowania modyfikacji występuje w obszarach płata skroniowego. Postępowanie w przypadku stwierdzonej epilepsji jest dość jednoznaczne: należy wzmacniać pasmo SMR w obszarze sensomotorycznym kory w celu minimalizacji ataków. Przedstawione protokoły wykorzystywane przy poszczególnych chorobach są propozycją popartą badaniami prowadzonymi przez terapeutów i klinicystów. Neurofeedback jest jednak młodą metodą i badania nad optymalnym podejściem do konkretnych zaburzeń trwają i przynoszą coraz to nowe propozycje i sugestie postępowania z pacjentem.

Nowe trendy

Terapia przy użyciu neurofeedbacku rozwija się obecnie w dwóch różnych kierunkach. Jednym z nich jest standaryzowanie sygnału EEG, drugim rozwój osobisty i polepszenie sprawności umysłowej. Wbrew temu, co może się wydawać osobie, która dopiero rozpoczyna swoją przygodę z neurofeedbackiem, każdy trening jest przeprowadzany w inny sposób. Wiele zależy od osoby prowadzącej trening, która zależnie od własnych preferencji może przyjąć zarówno kognitywne metody skupiające się na nieprawidłowościach wykrytych w EEG, jak również dynamiczne mające na celu wprowadzenie globalnych, a nie lokalnych, zmian w EEG. Uważa się również, że terapia neurofeedback jest jedynie terapią wspomagającą i wskazane jest jej łączenie z terapią psychologiczną.

Interfejsy mózg-komputer

Celem działania interfejsów mózg-komputer (ang. brain-computer interface, BCI) jest bezpośrednie sterowanie komputerem za pomocą mózgu. Odpowiednio zaprogramowany komputer może umożliwiać, bez pośrednictwa mięśni, komunikację z otoczeniem (przez pisanie tekstów) lub sterowanie urządzeniami, np. kontrolę oświetlenia, telewizora itp. Najbardziej obiecujące są systemy BCI oparte o odczyt elektroencefalogramu (EEG). Pozostałe podejścia wymagają albo wszczepiania elektrod podczaszkowych, albo — jak systemy oparte na fMRI lub NIRS — wykazują kilkusekundowe opóźnienia, a w przypadku fMRI wymagają bardzo drogiej, nieprzenośnej aparatury (skaner fMRI z polem powyżej 3 T).

BCI oparte o EEG

Wśród BCI opartych o EEG, najefektywniej działają trzy podstawowe paradygmaty:

  • SSVEP (ang. steady state visual evoked potentials), oparte o koncentrowanie uwagi na symbolu migającym z częstością, która jest odzwierciedlana w EEG. Na przykład na matrycy cyfr 3x3 każda klatka miga z inną częstością. Skoncentrowanie uwagi na jednej z cyfr powoduje pojawienie się w EEG odpowiadającej częstości.
  • P300, oparte o detekcję potencjałów wywołanych przez podświetlenie np. oczekiwanej litery. Tu najczęściej podświetlane są wiersze i kolumny macierzy liter. Podświetlenie wiersza lub kolumny, w której znajduje się litera na której koncentrujemy uwagę, powoduje pojawienie się specyficznego potencjału wywołanego. Niestety jego detekcja, przy aktualnym stanie metodologii analizy sygnałów, może wymagać szeregu powtórzeń, co zmniejsza szybkość transferu informacji.
  • ERD/ERS (ang. event-related desynchronization/synchronization), oparte o odczyt intencji ruchu prawą/lewą ręką i np. stopą. Ten najbardziej „naturalny” tryb sterowania przez EEG, w którym np. wyobrażenie ruchu prawą ręką może oznaczać „skręć w prawo”, a ruchu stopą — „poruszaj się do przodu”, jest jednocześnie najbardziej skomplikowany w realizacji. Odróżnienie intencji ruchu np. lewą i prawą kończyną możliwe jest częściowo dzięki lateralizacji funkcji mózgu, więc wymaga stosunkowo dużej ilości elektrod. Jeszcze trudniejsza jest detekcja samych ERD/ERS, które w „czystej” postaci widoczne są po uśrednieniu EEG z wielu powtórzeń tego samego wyobrażenia.

Zastosowania BCI

Głównym zastosowaniem BCI jest umożliwienie komunikacji ze światem zewnętrznym pacjentom w ciężkich stadiach takich chorób jak stwardnienie zanikowe boczne (ang. amyotrophic lateral sclerosis, ALS), udar mózgowy podkorowy, zespół Guillain-Barre’a, mózgowe porażenie dziecięce (ang. cerebral palsy) czy stwardnienie rozsiane (SM).

Dwa tysiące osób rocznie w Polsce (a we wszystkich krajach Unii Europejskiej około 24 tysięcy) zapada na ALS — okrutną, neurodegeneracyjną chorobę układu nerwowego, która niszczy część centralnego układu nerwowego odpowiedzialną za ruch nie uszkadza natomiast, czucia, zdolności poznawczych i intelektu. Osoby, które na nią zapadają, stopniowo tracą kontrolę nad własnym ciałem i w ciągu 2 do 3 lat osiągają stan, kiedy nie mają żadnej możliwości skomunikowania się z otoczeniem, pozostając niewolnikami własnych ciał, skazanymi na trwanie przy życiu bez możliwości wyrażenia własnych potrzeb, opinii i emocji. ALS to choroba neurodegeneracyjna przebiegająca z zanikiem neuronów w rogach przednich rdzenia kręgowego, którymi biegną sygnały ruchowe do narządów wykonawczych - mięśni. Najbardziej okrutne jest jednak to, że choroba niszcząc tylko neurony ruchowe nie upośledza w najmniejszym stopniu intelektu chorych co czyni ich więźniami własnych ciał. Chorzy ci nie mogą mówić natomiast ich inteligencja jest pełna. Są skazani na bierną obserwację tego co się z nimi dzieje bez możliwości zareagowania na ból (też nie upośledzony) czy niewygodę. Często są przez otoczenie traktowani jak upośledzeni umysłowo. Znanym wyjątkiem jest kosmolog Stephen Hawking żyjący już 40 lat z ALS i z powodzeniem prowadzący jeszcze do niedawna wykłady za pomocą generatora mowy sterowanego ruchami gałek ocznych — jest to przykład tak zwanego zależnego interfejsu mózg-komputer (ang. dependent BCI).

Uniezależnienie komunikacji od resztkowej funkcjonalności mięśni jest znacznie bardziej interesujące z naukowego punktu widzenia. Ponadto, takie niezależne interfejsy mózg-komputer (ang. indpendent BCI) są jedyną drogą komunikacji w skrajnych stadiach niektórych z tych chorób, gdy pacjent znajduje się w tzw. „completely locked-in state”: przed osiągnięciem tego stanu pacjent musi zdecydować się na podłączenie do systemu wymuszonego oddychania ze względu na zanik funkcji także mięśni oddechowych, prowadzący w przeciwnym razie do śmierci. Wbrew obiegowym opiniom, pacjenci w tym stanie wykazują się dużą wolą życia, a ich średnia ocena jakości życia bywa znacznie wyższa niż powszechnie uważamy. Na przykład, pacjenci ze stwardnieniem zanikowym bocznym w skali depresji wypadają wprawdzie gorzej niż grupa kontrolna pacjentów zdrowych, ale znacząco lepiej od pacjentów depresyjnych bez żadnych fizycznych objawów paraliżu, i mieszczą się w przedziale normy. Podobnie wypadają pomiary jakości życia (ang. quality of life). Czynnikiem, który może przyspieszać decyzję o niekorzystaniu z aparatury podtrzymującej oddychanie, może być właśnie strach przed całkowitym zamknięciem i brakiem jakiejkolwiek komunikacji z otoczeniem. W skrajnych stadiach stwardnienia zanikowego bocznego, interfejs mózg-komputer może być jedyną nadzieją na jej zachowanie.

Kolejną grupą ludzi, którym należy zapewnić możliwość porozumiewania się z otoczeniem za pomocą tegoż interfejsu jest 14 tysięcy osób jakie w ciągu roku w Polsce zapadają na udary mózgu, a w szczególności udary pnia mózgu. Aktywność kory mózgowej u tych ludzi świadczyć może o braku deficytów intelektualnych. Jedynym sposobem żeby pomóc tym ludziom nawiązać kontakt z najbliższymi jest BCI. Do wymienionych grup należałoby dołączyć 1,2 tysiąca ofiar wypadków komunikacyjnych, w wyniku których doszło do uszkodzenia szyjnego odcinka rdzenia kręgowego. Interfejs mózg-komputer na początku zastosowań zapewne posłuży do nawiązania kontaktu z sprawnymi intelektualnie umysłami uwięzionymi w okaleczonych ciałach jednak wydaje się możliwe zastosowanie go w sterowaniu ruchami oddechowymi klatki piersiowej co umożliwiłoby uniknięcie stosowania sztucznej wentylacji płuc. BCI w połączeniu ze stosowaną już od kilkudziesięciu lat w rehabilitacji metodą FES (funkcjonalna elektrostymulacja) pozwoliłoby wykonywać proste ruchy ciała, a być może w przyszłości złożone. Na rozwój tej metody czeka w Unii Europejskiej 3 miliony niepełnosprawnych ruchowo osób.

Nie jest to jedyne zastosowanie tej nabierającej znaczenia technologii. Zastosowania wojskowe są z naturalnych względów znacznie mniej reprezentowane w publikacjach, jednak wydaje się, że nakłady na te badania są również bardzo duże. Również w zakresie zastosowań rozrywkowo-mulitmedialnych. Na przykład firmy Emotiv Systems i NeuroSky reklamują już interfejsy do gier komputerowych.

Badania snu

Czas snu nie jest bynajmniej czasem braku aktywności mózgowej. Aktywność ta przybiera jednak postać niespotykaną w czasie czuwania. Nie jest też ona jednolita w ciągu snu całonocnego. Z czasem zachodzą zmiany zarówno w dominującej częstości sygnału (od stosunkowo szybkiej do wolnej, świadczącej o śnie głębokim), jak również w jego mocy. Badacze snu wyróżnili też szereg tzw. grafoelementów, składowych rytmicznych i struktur przejściowych — krótkich fragmentów sygnału wykazujących określone cechy i pojawiających się w określonych fazach snu. Podczas czuwania neurony działają w większym lub mniejszym stopniu niezależnie, natomiast podczas snu zwolnione ze swoich funkcji, sąsiednie komórki kory, zaczynają wysyłać impulsy równocześnie, ze stosunkowo niską częstością. Wyjątkiem jest sen REM (od ang. Rapid Eye Movement), w którym ciało śpi, natomiast mózg zaczyna być aktywny, jak podczas czuwania. W efekcie tej aktywności mogą m.in. powstawać marzenia senne. A wszystko przebiega w sposób cykliczny, zaczynając od stadiów płytkiego snu, schodząc stopniowo do coraz głębszych i osiągając wreszcie stadium REM. Taki schemat powtarza się w ciągu nocy 4-5 razy, wszystko w odpowiednich proporcjach pozwalając w zdrowym, normalnym śnie na zajście właściwych tym stanom procesów fizjologicznych.

Znaczenie

Informacje zawarte w sygnale EEG mają duże znaczenie kliniczne dla diagnozy wszelkiego rodzaju zaburzeń snu i chorób neurologicznych (np. przy wykluczeniu epilepsji). Na podstawie analizy zapisów polisomnograficznych (zapisów EEG, EKG, EMG podczas snu) można badać jakość snu, kontrolować sen głęboki niezbędny do rzeczywistego relaksu. Również obiektywne testowanie leków nasennych lub innych związanych z chorobami (takimi jak depresja czy nadciśnienie) przejawiającymi się bezsennością, możliwe jest przez ocenę zapisów przebiegów nocnych EEG. Określone schorzenie wiąże się ze zmianami w sygnale EEG — zanikiem niektórych fal, wzmożoną aktywnością innych, dysproporcją stadiów czy anormalnym profilem snu. Do schorzeń, przy diagnozowaniu których ma znaczenie pomiar EEG podczas snu, należą: epilepsja, insomnia (bezsenność), apnea (bezdech nocny), narkolepsja, somnambulizm i schorzenia pokrewne, hypersomnia i zaburzenia rytmu dobowego, zaburzenia zasypiania i zaburzenia lękowe.

Opis EEG snu

W praktyce klinicznej analiza EEG snu zazwyczaj sprowadza się do tzw. hipnogramu czyli opisu jaki rodzaj snu dominował w odpowiednich przedziałach czasu oraz kontroli mikrowybudzeń, bezdechów nocnych itp. Jest to dość czasochłonna i żmudna praca. W ciągu ponad 70 lat wykorzystywania EEG, postęp jaki się dokonał w dziedzinie analizy EEG dotyczy prawie wyłącznie sposobu zapisu, zbierania i wizualizacji sygnału. Natomiast analiza danych w dalszym ciągu należy do praktyki lekarskiej — kiedyś specjaliści oceniali EEG zapisane na papierze, a dzisiaj — bezpośrednio na ekranie monitora. I o ile dany sen trwał ok. 7-8 godzin (po rozwinięciu taki zapis EEG miałby długość ok. pół kilometra), to do jego dokładnej analizy potrzeba około połowy tego czasu.

(58)
Schematyczny hipnogram 8-godzinnego zapisu snu. Kolorem czerwonym zaznaczone są fazy snu REM.

Typowy hipnogram przedstawiony jest na rys. 58. Ma on charakterystyczną strukturę tzw. „schodów snu”. Osoba usiłująca zasnąć po czasie czuwania przechodzi stopniowo w coraz głębsze stadia snu, a następnie po okresie ok. 1,5 godziny pojawia się pierwszy 5-10 minutowy sen REM. Podobny cykl trwający średnio 90 min. powtarza się w ciągu snu całonocnego. Zmienia się natomiast podział czasu między stadia, zanika sen głęboki, charakterystyczny dla pierwszej połowy snu, a wydłuża się czas trwania stadium REM.

Charakterystyczne cechy sygnału EEG w poszczególnych stadiach snu (wg. Rechtschaffen i Kales 1968)

Stadium 1: odpowiada stanowi płytkiego snu bezpośrednio po zaśnięciu bądź po okresie wzmożonego ruchu podczas snu. W EEG obserwuje się spowolnienie częstości. Zanika aktywność alfa, a jej miejsce zajmują fale theta. Charakterystyczna jest też chwilami regularna aktywność o częstości ok. 2–7 Hz i amplitudzie peak-to-peak 50–75 µV. W końcowej fazie snu mogą pojawiać się vertex sharp waves o amplitudzie do 200 µV.

Stadium 2: stanowi zazwyczaj największą część snu całonocnego. Jest stanem głębszego snu niż stadium 1. Pod względem dominującej częstości i amplitudy, zapis EEG jest podobny do zapisu ze stadium 1 z tym, że wyraźnie zaznaczona jest obecność wrzecion snu i kompleksów K. Mogą pojawiają się też inne krótkie fale wolne nie posiadające kształtu kompleksu K, jednak nie mogą one zajmować więcej niż 20% składki.

Stadium 3: stanowi jeszcze głębszy sen. Następuje zazwyczaj po Stadium 2, gdy ma miejsce zwolnienie zapisu EEG. W tym stadium 20% do 50% czasu zajmują fale delta o częstości 0 - 2 Hz i amplitudzie peak-to-peak powyżej 75 μV . Wrzeciona snu i kompleksy K mogą, choć nie muszą pojawiać się okazjonalnie w stadium 3.

Stadium 4: jest stanem najgłębszego snu. W zapisie EEG stadium 4 charakteryzuje się dominacją (powyżej 50% zapisu sygnału w składce) aktywności delta. Szybka aktywność niskoamplitudowa może pojawiać się jeszcze jedynie na kilka sekund. Wrzeciona snu i kompleksy K mogą, choć nie muszą, pojawiać się okazjonalnie w stadium 4.

Stadium REM: zwane też snem paradoksalnym, jest jednym z ciekawszych zjawisk podczas snu. Termin „sen paradoksalny” odnosi się do paradoksu polegającego na tym, że pomimo względnie małej synchronizacji w EEG (podobnej do stadium 1), sen REM jest snem głębokim. Najbardziej charakterystycznym elementem fazy REM są widoczne w zapisie szybkie ruchy gałek ocznych — Rapid Eye Movement i stąd nazwa stadium. W EEG dominują stosunkowo szybkie fale o częstości 2 – 10 Hz i małej amplitudzie. Pojawiają się ślady aktywności alfa, a także charakterystyczne dla tego stadium fale piłokształtne. W stadium REM nie obserwuje się wrzecion snu ani kompleksów K.

Faza czuwania i epizody z artefaktami ruchowymi (Movement Time) nie stanowią stadiów snu, ale są nieodłącznym składnikiem zapisów polisomnograficznych. Jako stan czuwania oznacza się odcinki EEG rejestrowane u osób bezpośrednio przed zaśnięciem. Chodzi o stan głębokiego relaksu, z zamkniętymi oczami. Ze stanem czuwania związane jest przede wszystkim występowanie silnej aktywności alfa w tylnych odprowadzeniach. Nie jest to jednak standard, ponieważ część badanych nie wykazuje wcale aktywności alfa, lub fale te są bardzo słabe w stanie głębokiego relaksu. EEG stanu czuwania charakteryzuje się niskoamplitudową aktywnością o mieszanej częstości. Mogą być obserwowane silne artefakty mięśniowe związane z przewracaniem się osoby badanej. Występują też ślady ruchów gałek ocznych i mrugnięć. EEG w momencie ruchów śpiącego zakłócone jest w większości przypadków przez artefakty pochodzące od silnego napięcia mięśni lub wzmocniony artefakt związany z poruszeniem się pacjenta.

Epilepsja

Padaczka (gr. epilepsia) jest najczęstszym schorzeniem układu nerwowego występującym u ok. 1% światowej populacji. Liczba osób, u których epilepsja występuje obecnie, występowała w przeszłości lub dopiero wystąpi, jest dwukrotnie większa tj. ok. 2% (WHO, 2001). Cechą padaczki jest pojawianie się przejściowych zaburzeń pracy mózgu, czyli tzw. napadów padaczkowych będących gwałtownymi wyładowaniami elektrycznymi w komórkach nerwowych. W zależności od obszarów mózgu, w których napad powstaje, lub do których się rozprzestrzenia, ataki padaczkowe mogą mieć różne manifestacje kliniczne. Według obowiązującej klasyfikacji, istnieje około 40 rodzajów napadów (ILAE, 1989). Możemy wśród nich wyróżnić dwa podstawowe rodzaje: napady uogólnione i częściowe. Napady uogólnione nie drgawkowe wiążą się z utratą świadomości, czemu towarzyszyć mogą inne objawy np. drganie powiek, wyprostowanie bądź drgnięcie ciała. Napady uogólnione drgawkowe wiążą się z utratą świadomości, napięciem mięśni i /lub rytmicznych drgawkach całego ciała. Podczas napadów częściowych chory zwykle nie traci świadomości. W zależności od obszarów mózgu objętych wyładowaniem napadowym mogą wystąpić rozmaite doznania wzrokowe, słuchowe, smakowe, węchowe, czuciowe lub zaburzenia ruchowe. Napady padaczkowe mogą trwać od kilku do kilkudziesięciu sekund, po czym samoistnie się kończą. Istnieje wiele odmian leków przeciwpadaczkowych. Np. napady uogólnione mogą być skutecznie kontrolowane farmakologicznie u ponad 80% pacjentów. Dla osób z napadami częściowymi, u których terapia lekowa nie jest skuteczna, istnieją inne metody terapii np. chirurgiczne usunięcie ogniska padaczkowego. Operacja może być przeprowadzona jedynie w przypadku określenia dokładnej lokalizacji ogniska. Innym sposobem na trudne do kontrolowania przypadki epilepsji jest stosowana od niedawna stymulacja elektryczna nerwu błędnego. Stymulacja odbywa się za pomocą wszczepionego stymulatora. Metoda ta, choć nie eliminuje występowania napadów, pozwala zmniejszyć ich częstość oraz złagodzić ich przebieg.

Badanie EEG

Badanie EEG jest zasadniczym składnikiem diagnostyki epilepsji. Należy jednak pamiętać, że normalny zapis EEG nie wyklucza epilepsji ponieważ zapis pomiędzy napadami może nie różnić się od zapisu u osoby zdrowej. Zapis patologiczny, z drugiej strony, nie musi jednoznacznie wskazywać na epilepsje gdyż chorobowe zapisy mogą mieć różne przyczyny. W zapisie EEG pomiędzy napadami mogą wystąpić zmiany w normalnych częstościach oraz pojawić się dodatkowe struktury np. iglice epileptyczne, co pomaga postawieniu diagnozy i prognoz na wyleczenie. Zapis napadowy pozwala natomiast odróżnić napady częściowe od uogólnionych. Na Rys. 59 pokazany jest zapis EEG napadu nieświadomości będącego napadem uogólnionym. Aktywność napadowa widoczna jest we wszystkich odprowadzeniach.

(59)
Zapis EEG napadu padaczkowego u dziecka. Jest to tzw. napad nieświadomości (ang. absence seizure) będący napadem uogólnionym. Aktywność napadowa w postaci 'iglicy i fali' o częstości 3Hz widoczna jest we wszystkich odprowadzeniach. Podczas napadu amplituda sygnału EEG jest znacząco większa niż podczas czynności normalnej.

Jeśli standardowe badanie EEG nie jest wystarczające do postawienia diagnozy, wykonany może być 24-godzinny zapis EEG. U niektórych pacjentów, w celu przedoperacyjnej lokalizacji ogniska padaczkowego, dokonuje się implantacji elektrod do wnętrza mózgu lub pomiaru EEG za pomocą siatki elektrod umieszczonej na powierzchni mózgu. Zapis taki nazywa się elektrokortykogramem (ang. electrocorticogram, ECoG). Jeżeli rodzaj i przyczyna napadów nie jest znana, pacjent może być poddany obserwacji wideo-EEG. Podczas obserwacji, zapis EEG pacjenta jest rejestrowany wraz z nagraniem obrazu wideo. Zestawienie zapisu EEG z zachowaniem pacjenta, pomaga w diagnozie epilepsji i lokalizacji obszarów mózgu generujących napady. Badanie wideo-EEG może też pomóc odróżnić napady padaczkowe powodowane wyładowaniami elektrycznymi od napadów nieepileptycznych, o podłożu psychologicznym.

Farmako-EEG

Farmako-EEG jest dziedziną elektrofizjologicznych badań mózgu, w których szukamy w zapisach EEG zmian spowodowanych działaniem leków. Jest to jednocześnie dziedzina ilościowej analizy sygnałów, gdzie staramy się nie tylko znaleźć fakt istnienia różnic, ale też móc opisać te różnice w sposób umożliwiający precyzyjne opisanie nasilenia zmian.

Sytuacja wydaje się prosta, gdy efekt wpływu badanej substancji na działanie mózgu jest wyraźny. Jednakże przy niewielkich dawkach (tzw. podprogowych) możemy nie obserwować żadnych objawów zewnętrznych, zarówno w zachowaniu jak i samopoczuciu pacjentów. Zmiany mogą być jednak zaobserwowane w zmianach w zapisie EEG. Tutaj również zmiany mogą być na tyle niewielkie, że nie ujawnią się przy analizie wzrokowej. Wtedy możemy przekonać się o ich obecności stosując metody statystyczne. Badane może być zarówno EEG spontaniczne jak i wpływ na reakcję mózgu na bodźce — potencjały wywołane.

(60)
Przykładowy rysunek ukazujący zmiany widma mocy EEG w zakresie częstości odpowiadającemu wrzecionom snu. Każdy wiersz opisuje wyniki innego badanego, każda kolumna odpowiednio: efekt placebo, zolpidemu i midazolamu. Rysunek z pracy Durka et al. (2002).

Aby wyniki były porównywalne pomiędzy pacjentami i pomiędzy badaniami, powinny być spełnione pewne standardy dotyczące nie tylko samych metod analizy sygnałów, ale także sposobu i warunków rejestracji zapisów EEG. Wdrażaniem odpowiednich standardów praktyki rejestracji oraz propagowaniem metod takiej analizy danych w różnych dziedzinach badań medycznych, biochemicznych, medycznych czy farmakologicznych zajmuje się Międzynarodowe Towarzystwo Farmako-EEG (International Pharmaco-EEG Society) organizujące materiały, konferencje oraz wydające własne czasopismo.

W farmako-EEG popularne są w szczególności parametryczne metody analizy sygnałów, dostarczające łatwych do porównania i obróbki statystycznej liczb (parametrów). Jednocześnie badane są często nie tylko zmiany w EEG, ale także inne wielkości jak zmiany w zachowaniu, rytmie serca i inne.


Literatura

Budzynski, T.H., Budzynski, H.K., Evans, J.R., Abarbanel, A. Introduction to quantitative EEG and neurofeedback : advanced theory and applications, Amsterdam, Elsevier, Academic Press, 2009.

Davidson, R.J. Cerebral Asymmetry, Emotion and Affective Style. In R.J. Davisdson & K. Hugdahl (Eds.), Brain Asymmetry Boston: MIT Press, 361-387, 1995.

Demos, J.H. Getting Started with Neurofeedback, New York, W.W. Norton & Co., 2005.

Durka, P.J., Szelenberger, W., Blinowska, K.J., Androsiuk, W., Myszka, M. Adaptive time-frequency parametrization in pharmaco EEG. Journal of Neuroscience Methods 117: 65-71, 2002.

Gruzelier,J., Egner, T. Critical validation studies of neurofeedback, Child Adolescent Psychiatric Clinics of North American 14: 83–104, 2005.

Hammond, D.C. What is Neurofeedback, Journal of Neurotherapy, 10(4), 2006.

Hebb, D. O. The Organization of Behavior: A neuropsychological theory. New York, Wiley, 1949.

Kamiya, J. Operant control of EEG alpha rhythm and some of its reported effects on consciousness. W Tart C. (Ed.), Altered states of consciousness. New York Wiley, 519-529, 1969.

ILAE. Commission on Classification and Terminology of the International League Against Epilepsy. Proposal for revised classification of epilepsies and epileptic syndromes. Epilepsia. 30: 389-399, 1989.

Miller, N.E. Learning of visceral and glandular responses. Science, 163: 434-445, 1969.

Rechtschaffen, A. i Kales, A. (Edytorzy) A manual of standarized terminology, techniques and scoring system for sleep stages in human subjects. US Government Printing Office, 1968.

Robbins, J. A Symphony in the Brain: the evolution of the new brain wave biofeedback. New York, Atlantic Monthly Press, 2000

Roberts, A. Neurobiofeedback, American Psychologist, 40(8): 938-941, 1985.

Sterman, M. B, Egner T. Neurofeedback treatment of epilepsy: from basic rationale to practical application, Expert Rev. Neurotherapeutics 6(2): 247-257, 2006.

Swingle, P.G. Biofeedback for the Brain: How Neurotherapy Effectively Treats Depression, ADHD, Autism and More. Rutgers University Press, 2008

Thompson, M., Thompson, L. The Neurofeedback Book: An Introduction to Basic Concepts in Applied Psychophysiology. Wheat Ridge, The Association for Applied Psychophysiology and Biofeedback, 2003.

WHO, 2001.


Autorzy

  • Piotr Durka
  • Maciej Kamiński
  • Rafał Kuś
  • Urszula Malinowska
  • Izabela Mikuła
  • Anna Duszyk
  • Piotr Suffczyński
  • Jarosław Żygierewicz
Osobiste