Remove ads
Z Wikipedii, wolnej encyklopedii
Interfejs mózg–komputer (ang. brain-computer interface, BCI) – interfejs pozwalający na bezpośrednią komunikację między mózgiem a odpowiednim urządzeniem zewnętrznym. Celem badań nad interfejsem mózg-komputer są usprawnienie lub naprawa ludzkich zmysłów albo czynności ruchowych. W komercyjnych celach technologia dostępna jest np. jako zamienniki joysticka lub klawiatury.
Historia interfejsów mózg-komputer rozpoczyna się od odkrycia przez Hansa Bergera aktywności elektrycznej w mózgu człowieka oraz rozwoju elektroencefalografii. W 1924 roku Berger był pierwszym, który zarejestrował aktywność ludzkiego mózgu za pomocą elektroencefalografu (EEG). Analizując wyniki EEG, Berger był w stanie zidentyfikować aktywność mózgu taką jak fale alfa (8–12 Hz) znane również jako fale Bergera.
Pierwsze urządzenie stworzone przez naukowca było niezwykle proste. Berger umieszczał srebrne przewody pod czaszkami pacjentów. Przewody te zostały później zastąpione przez srebrne folie umieszczone na czaszce pacjenta pod gumowymi bandażami. Te czujniki Berger łączył z elektrometrem Lippmanna, lecz jego badania nieodmiennie kończyły się niepowodzeniem. Bardziej wyrafinowane urządzenia, takie jak galwanometr Siemensa z podwójną cewką, który pokazywał napięcie elektryczne rzędu jednej tysięcznej volta, doprowadziły do sukcesu.
Berger analizował powiązania wyników z EEG jego mózgu z mózgami osób chorych psychicznie. EEG umożliwiło wytyczenie wielu nowych ścieżek w badaniach nad aktywnością ludzkiego mózgu i ogromnie przyczyniło się do rozwoju diagnostyki medycznej.
Kilku laboratoriom udało się nagrać sygnał kory mózgowej małpy oraz szczura, aby za pomocą BCI pobudzić ruch. Małpy nawigowały kursorem na ekranie komputera oraz posługiwały się robotycznymi ramionami w zakresie prostych ruchów, po prostu myśląc o danej czynności i obserwując reakcje urządzenia[1]. W maju 2008 roku fotografie ilustrujące małpy z Centrum Medycznego Uniwersytetu w Pittsburghu poruszające ramionami robotów przy użyciu wyłącznie myśli zostały opublikowane w wielu znanych naukowych czasopismach i magazynach[2].
W 1969 roku badania nad warunkowaniem instrumentalnym Fetza oraz jego kolegów z Regionalnego Centrum Badań i Wydziału Fizjologii i Biofizyki na Waszyngtońskim Uniwersytecie Medycznym w Seattle pokazały po raz pierwszy, że małpy są w stanie opanować zginanie ramion robota wyposażonego w biologiczne sprzężenie zwrotne przy pomocy aktywności neuronalnej[3]. Podobna praca opublikowana w latach 70. ustaliła, że małpy potrafią w szybkim tempie nauczyć się rozmyślnie kontrolować aktywnością zarówno pojedynczych, jak i tych znajdujących się w grupach neuronów pierwotnej kory ruchowej, jeżeli były nagradzanie za generowanie odpowiednich wzorców aktywności neuronalnej[4].
Badania, których celem było opracowanie algorytmów służących do rekonstrukcji ruchów z neuronów kory ruchowej, datowane są na lata 70. W latach 80. Apostolos Georgopoulos, wywodzący się z Uniwersytetu Johnsa Hopkinsa, odkrył matematyczny związek między elektrycznymi sygnałami neuronów kory ruchowej małp makaków rezusów i kierunkiem ruchu ich ramion (bazując na funkcji cosinusa). Odkrył on również, że rozproszone grupy neuronów, w różnych obszarach mózgów małp, wspólnie kontrolowały polecenia ruchu. Niestety, z uwagi na panujące wówczas ograniczenia techniczne, był on w stanie rejestrować aktywność tylko jednego obszaru zapłonów neuronów jednocześnie[5].
W połowie lat 90. pojawił się, trwający do dziś, gwałtowny wzrost zainteresowania badaniami BCI[6]. Kilku zespołom udało się przechwycić skomplikowane sygnały kory ruchowej mózgu rejestrując stan zespołów neuronów i używając ich do kontroli urządzeń zewnętrznych. Ważniejsze grupy badawcze były prowadzone przez Richarda Andersena, Johna Donoghueego, Philipa Kennedy’ego, Miguela Nicolelisa i Andrew Swartza.
Philip Kennedy (który odkrył sygnał neuronowy w 1987 roku) i jego koledzy stworzyli pierwszy dokorowy interfejs mózg-komputer poprzez wszczepienie neurotropowych stożków elektrod do mózgów małp. W 1999 roku badacze prowadzeni przez Yanga Dana z Uniwersytetu Kalifornii w Berkeley zdekodowali impulsy neuronowe, co umożliwiło im odtworzenie obrazów widzianych przez koty. Zespół użył siatki elektrod usytuowanych na wzgórzu ciała kolankowatego (które integruje wszystkie bodźce zmysłowe mózgu) kotów. Badacze nakierowali elektrody na 177 komórek mózgowych w obszarze wzgórza ciała kolankowatego bocznego, który dekoduje obrazy z siatkówki. Kotom pokazano osiem krótkich filmów, następnie nagrano impulsy neuronowe z ich mózgów. Korzystając z matematycznych filtrów, badacze zdekodowali sygnały, by utworzyć filmy z tego, co widziały koty i udało im się odtworzyć rozpoznawalne sceny i poruszające się obiekty[7]. Podobne sukcesy w badaniach nad ludźmi odnieśli później badacze z Japonii.
Miguel Nicolelis, profesor Uniwersytetu Duke’a w Durham w Karolinie Północnej, był orędownikiem korzystania z wielu elektrod rozmieszczonych na większym obszarze mózgu, w celu uzyskania sygnałów neuronowych do kierowania BCI. Takie zespoły neuronowe zwiększają precyzję i ułatwiają kontrolę interfejsu mózg-komputer. Po przeprowadzeniu wstępnych badań na szczurach w 1990 Nicolelis i jego koledzy opracowali BCI, które dekodowało aktywności mózgu małp sowich i używało zewnętrznego urządzenia do odtworzenia ruchów małp w ramionach robotów. Małpy mają zaawansowane umiejętności chwytania i sięgania i dobre umiejętności manipulacyjne rąk, co czyni je idealnymi obiektami badań do tego rodzaju pracy. W 2000 roku grupa zbudowała BCI, które odtwarzało ruchy małp sowich w czasie gdy te operowały joystickiem lub sięgały rękoma po jedzenie[8]. Interfejs ten działał w czasie rzeczywistym i mógł także przesyłać dane zdalnie do innego robota, korzystając z protokołu internetowego. Małpy jednak nie widziały robota ani nie otrzymywały żadnej odpowiedzi od interfejsu, nazwano więc go BCI z otwartą pętlą. Późniejsze eksperymenty Nicolelisa na małpach rezus zaowocowały w zamknięciu pętli BCI i pozwoliły odtworzyć ruchy małp na ramionach robotów. Małpy rezus uznawane są za lepsze obiekty do badań ze względu na ich budowę mózgu zbliżoną do ludzkiego. Małpy wstępnie operowały ramieniem używając joysticka i widząc obraz na ekranie komputera[9][10]. Później pokazano im robota bezpośrednio i nauczono kontrolować ramię poprzez obserwowanie jego ruchów. BCI wykorzystało prognozy prędkości z poprzedniego badania, by kontrolować zasięg uchwytu, a także siłę zacisku „dłoni”.
Inne laboratoria, które zbudowały BCI zdolne odtworzyć sygnały neuronowe, prowadzone były między innymi przez Johna Donoghue z Uniwersytetu Browna, Andrew Swartza z Uniwersytetu Pittsburga oraz Richarda Andresena z Caltech. Badacze ci byli w stanie odtworzyć sygnały neuronowe z dużo mniejszej liczby neuronów niż Nicolelis (15-30 w porównaniu do 50-200 u Nicolelisa). Grupa Donoghue'a nauczyła małpy rezus, by te używały interfejsu mózg-komputer do śledzenia obiektów na ekranie komputera (zamknięta pętla) z oraz bez używania joysticka[11]. Grupa Schwartza stworzyło BCI pozwalające na śledzenie obiektów w przestrzeni trójwymiarowej i odtworzenie ruchów w ramieniu robota[12]. Udało im się dokonać przełomu, pokazując, że ich małpy potrafiły nakarmić się kawałkami owoców, używając ramienia robota sterowanego wyłącznie przez myśli tych małp.[13][14][15] Grupa Andersena używała nagrań ruchów wstępnych z tylnej kory ciemieniowej w ich BCI, w tym sygnałów mózgu zwierząt, które oczekiwały na nagrodę[16].
Eksperymenty w tym zakresie prowadzi również firma Neuralink, założona m.in. przez Elona Muska. Celem firmy jest stworzenie implantu, który pozwoliłby na obsługę komputerów i innych urządzeń elektronicznych za pomocą myśli. Wszczep łączyłyby z mózgiem elastyczne nici (o średnicy 4–6 mikrometrów) z elektrodami. 16 lipca 2019 Elon Musk poinformował, że Neuralink doprowadził do tego, iż małpa, dzięki specjalnemu wszczepowi, mózgiem obsługiwała komputer[17].
Oprócz przewidywania kinematycznych i kinetycznych parametrów ruchów kończyn rozwijane są interfejsy mózg-komputer do przewidywania elektromiograficznej lub elektrycznej aktywności mięśni naczelnych[18]. Takie BCI może być stosowane w celu przywrócenia mobilności w sparaliżowanych kończynach przez elektryczną stymulację mięśni. Miguel Nicolelis i współpracownicy wykazali, że aktywność dużych zespołów neuronalnych może przewidzieć pozycję ramienia. Praca ta umożliwiła stworzenie interfejsów BCI, które odczytują intencje ruchu ręki i przekładają je na ruchy sztucznych siłowników. Carmena i współpracownicy[9] zaprogramowali kodowanie neuronowe w BCI, które pozwoliło małpom kontrolować sięganie i chwytanie używając ramienia robota. Lebedev i inni[10] stwierdzili, że sieci mózgowe reorganizują się, aby utworzyć nową reprezentację robota, oprócz reprezentacji własnych zwierzęcych kończyn. Wykazali w ten sposób, że za obsługę robota odpowiada inna część mózgu niż ta operująca własnymi kończynami. Największą przeszkodą dla technologii BCI na początku drugiej dekady XXI wieku był brak modalności czujnika, który zapewniał bezpieczny, dokładny i solidny dostęp do sygnałów mózgowych. Można sobie wyobrazić, że takie czujniki zostaną opracowane w ciągu następnych kilkudziesięciu lat. Zastosowanie takiego czujnika powinno znacznie rozszerzyć zakres funkcji komunikacyjnych, które mogą być dostarczane za pomocą BCI. Opracowanie i wdrożenie systemu BCI jest skomplikowane i czasochłonne. W odpowiedzi na ten problem dr Gerwin Schalk rozwija ogólnego przeznaczenia system BCI do badań, zwany BCI2000. BCI2000 był opracowywany od 2000 roku w ramach projektu prowadzonego przez Brain-Computer Interface program R&D w Wadsworth Center w New York State Department of Health w Albany w stanie Nowy Jork, USA. Nowe „bezprzewodowe” podejście wykorzystuje światło-zależnych kanałów jonowych, takie jak Channelrhodopsin do kontrolowania aktywności genetycznej w określonych podgrupach neuronów in vivo. W ramach prostego zadania nauczania, oświetlenie transfekcji komórek kory czuciowej wpływa na proces podejmowania decyzji swobodnie poruszających się myszy[19]. W ramach projektu MINDWALKER podjęto również badania nad wykorzystaniem BCI do sterowania egzoszkieletem.
Corocznie Nagroda BCI (fundowana przez g.tec), o wartości 3000 USD, przyznawana jest w uznaniu wybitnych i nowatorskich badań w dziedzinie interfejsu mózg-komputer. Każdego roku, znane laboratorium badawcze jest proszone o ocenę złożonych projektów i przyznania nagrody. Jury składa się z przodujących światowych ekspertów BCI rekrutowanych przez to laboratorium. Cuntai Guan, Kai Keng Ang, Karen Sui Geok Chua i Beng Ti Ang, z A * STAR w Singapurze, ze swoim projektem „Oparty na obrazach interfejs mózg-komputer sterujący robotem w pomocy nad rehabilitacją udarów”, zdobyli nagrodę BCI w 2010 roku. Moritz Grosse-Wentrup i Bernhard Schölkopf, z Max Planck Institute for Intelligent Systems w Niemczech, z ich projektem „Jakie są neurofizjologiczne przyczyny zmian wydajności w relacjach mózg-komputer?” zdobyli nagrodę BCI 2011. Nagroda BCI 2012 udała się do Surjo R. Soekadar i Niels Birbaumer (Applied Neurotechnology Lab, University Hospital Tübingen i Instytut Psychologii Medycznej i Behavioral Neurobiologia, Eberhard Karls University, Tübingen, Niemcy), w ramach projektu „Poprawa skuteczności stosowania Ipsilesionalnego interfejsu BCI w neurorehabilitacji przewlekłych udarów”.
Inwazyjne badania BCI wykorzystywane były między innymi w naprawie uszkodzonego wzroku i zapewnienie nowej funkcjonalności dla osób z porażeniem wzroku. Inwazyjne interfejsy są wszczepiane bezpośrednio do istoty szarej mózgu przy użyciu metod neurochirurgii. Ponieważ leżą one w istocie szarej, inwazyjne urządzenia produkują sygnały najwyższej jakości, ale są podatne na gromadzenie się tkanki bliznowatej, co powoduje, że sygnał staje się słabszy, a nawet może zaniknąć całkowicie, jako że organizm reaguje na ciało obce w mózgu. W nauce o wzroku bezpośrednie implanty mózgowe były stosowane w leczeniu ślepoty nabytej. Jednym z pierwszych naukowców, którzy wyprodukowali działający interfejs BCI umiejący przywrócić wzrok był prywatny badacz William Dobelle. Pierwszy prototyp Dobelle'a został wszczepiony „Jerry'emu”, człowiekowi oślepionemu w wieku dorosłym, w 1978 roku. Jedno-siatkowe urządzenie BCI zawierający 68 elektrod wszczepiono na korę wzrokową Jerry’ego i udało się wygenerować fotyzm, uczucie widzenia światła. System zawierał kamery zamontowane na okulary do wysyłania sygnałów do implantu. Początkowo implant pozwolił Jerry'iemu zobaczyć odcienie szarości w ograniczonym polu widzenia w niskiej ilości klatek na sekundę. To wymagało, żeby Jerry był podłączony do głównego komputera, ale kurcząca się elektronika i szybsze komputery pozwoliły na stworzenie bardziej przenośnej wersji jego sztucznego oka i teraz umożliwiają mu wykonywanie prostych czynności bez pomocy osób trzecich[20].
W 2002 roku Jens Naumann, również oślepiony w dorosłym życiu, stał się pierwszym w serii 16 pacjentów, którzy otrzymali implanty Dobelle'a drugiej generacji, znakowanych jako jedne z pierwszych zastosowań komercyjnych interfejsów mózg-komputer. Urządzenie drugiej generacji stosowało bardziej wyrafinowany implant umożliwiający lepsze odwzorowanie fotyzmu w spójnej wizji. Fotyzmy były rozłożone w poprzek pola widzenia, co naukowcy nazywają „efektem gwieździstej nocy”. Natychmiast po otrzymaniu implantu, Jens był w stanie wykorzystać jego niedoskonale odtworzoną wizję, by kierować powoli samochodem wokół parkingu instytutu badawczego.
Interfejsy mózg-komputer koncentrując się na neuroprotetyce ruchowej, dążą do przywrócenia ruchu u osób z porażeniem lub dostarczenia urządzenia, aby im pomóc w życiu codziennym, używając np. interfejsów z komputerów lub ramion robota. Naukowcy z Uniwersytetu Emory w Atlancie, na czele z Philipem Kennedym i Royem Bakayem, byli pierwszymi, którzy zainstalowali implant mózgu u człowieka, który to implant produkował sygnały o dobrej jakości, aby symulować ruch. Ich pacjent, Johnny Ray (1944-2002), cierpiał na zespół zamknięcia (Locked-in syndrome) po wystąpieniu udaru mózgu w jego pniu w 1997 roku. Implant Raya został zainstalowany w 1998 roku. Ray żył wystarczająco długo, aby rozpocząć pracę z implantem, w końcu nauczył się sterować kursorem komputera. Zmarł w 2002 roku z powodu tętniaka mózgu[21].
Sparaliżowany Matt Nagle stał się pierwszą osobą zdolną kontrolować sztuczną rękę za pomocą BCI w 2005 roku jako część pierwszego dziewięciomiesięcznego procesu testów ludzkiego układu implantów Cyberkinetics's BrainGate. Wszczepiony w prawą korę ruchową Nagle'a (obszar odpowiedzialny za ruch rąk), 96-elektrodowy implant BrainGate pozwolił Nagle'owi kontrolować ramię robota myśląc o ruchu ręką, a także kursor komputera, światła i telewizor[22]. Rok później, profesor Jonathan Wolpaw otrzymał nagrodę Fundacji Altran na rzecz innowacji za opracowanie interfejsu BCI z elektrod umieszczonych na powierzchni czaszki, a nie bezpośrednio w mózgu.
Ostatnio zespoły badawcze prowadzone przez grupy Braingate na Uniwersytecie Browna oraz grupa prowadzona przez Centrum Medyczne Uniwersytetu w Pittsburgu, we współpracy z Wydziałem Stanów Zjednoczonych do spraw Weteranów Wojennych, wykazały dalsze sukcesy w bezpośredniej kontroli zrobotyzowanych protez kończyn z wieloma stopniami swobody korzystając z bezpośrednich połączeń z neuronami kory ruchowej pacjentów z tetraplegią.
Częściowo inwazyjne interfejsy mózg-komputer są wszczepiane w czaszkę, ale reszta zostaje na zewnątrz mózgu, a nie w istocie szarej. Wytwarzają one sygnały o wyższej rozdzielczości niż nieinwazyjne BCI, gdzie tkanki kostne czaszki odbijają i deformują sygnały oraz mają niższe ryzyko powstawania tkanki bliznowatej w mózgu niż interfejsy w pełni inwazyjne.
Elektrokortikografia (wewnątrzczaszkowe EEG – EcoG) mierzy aktywność elektryczną mózgu spod czaszki w podobny sposób do nieinwazyjnej elektroencefalografii, a elektrody są osadzone w cienkich wkładach z tworzywa sztucznego, które są umieszczone powyżej kory, pod oponą twardą[23]. Technologie ECoG najpierw wypróbowali u ludzi w 2004 roku Eric Leuthardt i Daniel Moran z Uniwersytetu Waszyngtońskiego w Saint Louis. W późniejszym badaniu naukowcy pozwolili nastolatkowi grać w Space Invaders używając swojego implantu EcoG[24]. To badanie wskazało, że kontrola jest gwałtowna, wymaga minimalnego przeszkolenia, oraz może być idealnym kompromisem w odniesieniu do wierności sygnału i poziomu inwazyjności (Uwaga: elektrody te nie zostały wszczepione pacjentowi z zamiarem opracowania BCI. Pacjent cierpiał na ciężką padaczkę, a elektrody zostały czasowo wszczepione, by pomóc jego lekarzom zlokalizować ogniska choroby; badacze BCI po prostu skorzystali z okazji do przeprowadzenia własnych badań). Sygnały mogą być podtwardówkowe lub zewnątrzoponowe, ale nie są wykonane w samym miąższu mózgu. Nie było to badane szeroko do niedawna ze względu na ograniczony dostęp do obiektów. Obecnie jedynym sposobem, aby uzyskać sygnał do badania, jest wykorzystanie pacjentów wymagających inwazyjnego monitorowania dla lokalizacji i usunięcia ogniska padaczkowego.
ECoG jest bardzo obiecującym pośrednim interfejsem BCI, ponieważ ma wyższą rozdzielczość przestrzenną, lepszy stosunek sygnału do szumu, szerszy zakres częstotliwości i mniejsze wymagania szkoleniowe niż nagranie EEG ze skóry głowy, a jednocześnie ma mniejsze trudności techniczne, niższe ryzyko kliniczne i prawdopodobnie lepszą długoterminową stabilność niż dokorową implementację do nagrywania jednego neuronu. Profil ten, wyposażony w najnowocześniejszy dowód wysokiego poziomu kontroli przy minimalnych wymogach kształcenia pokazuje potencjał prawdziwego zastosowania dla osób niepełnosprawnych ruchowo[25].
Urządzenia do obrazowania reakcji na światło są nadal w sferze teorii. To wiązałoby się z wszczepieniem lasera wewnątrz czaszki. Laser byłby szkolony na pojedynczym neuronie i odbiciach neuronu mierzonych oddzielnym czujnikiem. Gdy neuron wyzwoliłby impuls, wzór światła lasera i odbite fale zmieniłyby się nieznacznie. Pozwoliłoby to naukowcom na monitorowanie pojedynczych neuronów, lecz wymagałoby mniejszego kontaktu z tkanką i zmniejszyłoby ryzyko gromadzenia się tkanki bliznowatej.
Oprócz inwazyjnych eksperymentów istniały również eksperymenty na ludziach z wykorzystaniem technologii nieinwazyjnego neuroobrazowania jako interfejsy BCI. Sygnały zapisane w ten sposób były wykorzystane do kontroli implantów mięśni i częściowego przywrócenia ruchu u ochotnika. Mimo że są one łatwe do noszenia, nieinwazyjne implanty produkują bardzo słaby sygnał, ponieważ czaszka tłumi, rozprasza i rozmywa fale elektromagnetyczne generowane przez neurony. Pomimo tego, że fale mogą nadal być wykrywane, trudniej jest określić obszar mózgu, który je wywołał lub też wyodrębnić działania pojedynczych neuronów.
Elektroencefalografia (EEG) jest najbardziej przebadanym potencjalnie nieinwazyjnym interfejsem, głównie ze względu na jego dobrą rozdzielczość uzyskiwaną w stosunkowo krótkim czasie, łatwość użytkowania, przenoszenia i niskie koszty instalacji. Niestety, jak również wrażliwość technologii na hałas, inną istotną barierą w korzystaniu z EEG jako interfejsu mózg-komputer jest intensywne szkolenie wymagane, by użytkownicy mogli pracować w tej technologii. Na przykład w eksperymentach rozpoczętych w połowie lat 1990, Niels Birbaumer na Uniwersytecie w Tybindze w Niemczech szkolił kilkanaście osób poważnie sparaliżowanych do samoregulacji powolnych korowych potencjałów ich EEG do tego stopnia, że sygnały te mogły być wykorzystane jako sygnał binarny do sterowania wskaźnikiem myszy[26]. (Birbaumer wcześniej szkolił epileptyków zapobiegać nadchodzącym atakom kontrolując tę małą falę napięcia). Eksperyment pokazał dziesięć pacjentów przeszkolonych do poruszania kursorem komputera przez kontrolowanie swoich fal mózgowych. Proces był powolny i wymagał więcej niż godzinę, by pacjenci zapisali 100 znaków za pomocą kursora, a szkolenia często trwały wiele miesięcy[potrzebny przypis].
Magnetoencefalografia (MEG) i funkcjonalne obrazowanie rezonansem magnetycznym (fMRI), były razem z powodzeniem stosowane jako nieinwazyjne interfejsy mózg-komputer[27]. W szeroko omawianym eksperymencie fMRI pozwoliło na skanowanie dwóch użytkowników do gry Pong w czasie rzeczywistym, przez zmianę ich odpowiedzi hemodynamicznej i przepływu krwi przez mózg techniką biofeedbacku[28].
Pomiary fMRI hemodynamicznych odpowiedzi w czasie rzeczywistym zostały również wykorzystane do sterowania ramionami robota z siedmiosekundowym opóźnieniem między myślą i ruchem[29].
W 2008 badania opracowywane w Laboratorium Komputerowej Neurologii do Zaawansowanych Badań Telekomunikacyjnych (ATR) w Kyoto, w Japonii, pozwoliło naukowcom zrekonstruować obrazy bezpośrednio z mózgu i wyświetlać je na komputerze. Artykuł ogłaszający to osiągnięcie był tematem głównym w czasopiśmie Neuron z dnia 10 grudnia 2008 roku[30]. Podczas gdy wczesne wyniki są ograniczone do czarno-białych zdjęć na 10 × 10 kwadratów (pikseli), według naukowców dalszy rozwój technologii pozwoli osiągnąć kolorowe obrazy, a nawet nagrywać sny[31][32].
Obecnie istnieje nowy obszar rozwoju gier nazywany neurogamingiem, który wykorzystuje nieinwazyjne BCI w celu poprawy wrażeń z gry, dzięki czemu użytkownicy mogą współdziałać z konsolą bez użycia tradycyjnego joysticka[33]. Niektóre programy neurogamingowe korzystają z fal mózgowych użytkownika, tętna, gestów, rozszerzeń źrenicy, a nawet emocji do wykonywania zadań lub wpływania na nastrój gry[34]. Na przykład, twórcy gry Emotiv stworzyli nieinwazyjne BCI, które określa nastrój gracza i dostosowuje muzykę lub dekoracje odpowiednio do emocji użytkownika. Obok neurogamingu, udoskonalenia w rękawicach do gier, takich jak rękawica Peregrine[35] tworzą nowe, bardziej efektywne formy gry użytkowników PC. Ta nowa forma interakcji pomiędzy użytkownikiem i oprogramowaniem pozwoli graczom na bardziej realistyczne wrażenia w grach[36]. Ponieważ będzie mniej połączeń między graczem a konsolą, Neurogaming pozwoli osobom wykorzystać swój „stan psychiczny”[37] i będzie mógł przenosić ich reakcje do gry w czasie rzeczywistym[36]. Neurogaming jest jeszcze w początkowej fazie rozwoju - pierwsza konferencja o Neurogaming odbyła się w San Francisco 1-2 maja 2013[38].
Gerwin Schalk, w wynikach z badań z udzielonej na sumę 2,2 mln dolarów dotacji, stwierdził, że możliwe jest korzystanie z sygnałów EcoG do rozróżniania samogłosek i spółgłosek osadzonych w mowie i w wymyślonych słowach. Wyniki rzuciły światło na różne mechanizmy związane z produkcją samogłosek i spółgłosek, i mogły dostarczyć podstaw komunikacji za pomocą mózgu z użyciem wyobrażonego języka[39]. Badania nad syntetyczną telepatią z użyciem fonetyzacji miały miejsce na Uniwersytecie Kalifornijskim w Irvine pod dowództwem Mike’a D'Zmura. Pierwsza taka komunikacja odbyła się w 1960 roku przy użyciu EEG do tworzenia kodu Morse’a za pomocą fal alfa w mózgu. Korzystanie z EEG do komunikacji za pomocą wyobrażonej mowy jest jednak mniej dokładne niż inwazyjne metody wprowadzania elektrody między czaszkę a mózg.[40]
John Donoghue i wpółbadacze założyli firmę Cyberkinetics. Firma, jako główny cel, postawiła na rozwój praktycznych interfejsów mózg-komputer dla ludzi. Firma sprzedaje swoje siatki elektrod pod nazwą BrainGate, które są oparte na macierzy Utah opracowanej przez Dicka Normanna.
Philip Kennedy założył Neural Signals w 1987 roku, by opracować BCI, które umożliwią sparaliżowanym pacjentom komunikować się ze światem zewnętrznym i sterować urządzeniami zewnętrznymi. Oprócz inwazyjnych BCI firma sprzedaje implant, który pozwala przywrócić mowę. „Brain Communicator” firmy Neural Signals wykorzystuje szklane stożki zawierające mikroelektrody pokryte białkami by te wiązały się z neuronami w mózgu.
Chociaż 16 pacjentów zostało uleczonych za pomocą wzrokowego BCI Williama Dobelle'a, nowe implanty przestały być produkowane w ciągu roku od śmierci Dobelle'a (zmarł w 2004 roku). Spółka kontrolowana przez Dobelle'a, Avery Biomedical Devices oraz Uniwersytet Stony'ego Brooka kontynuują rozwój implantu, lecz nie otrzymali jeszcze zatwierdzenia od Administracji do spraw Żywności i Używek dla ludzkiej implantacji w Stanach Zjednoczonych[41].
Ambient, na konferencji deweloperów IT na początku 2008 roku, pokazali produkt, który w czasie rozwoju nazwali The Audeo. Audeo celuje w stworzenie interfejsu mózg-komputer do komunikacji bez konieczności fizycznego sterowania silnikiem lub produkcji mowy. Korzystając z przetwarzania sygnału, niewymawiana mowa może być tłumaczona z przechwyconych sygnałów neurologicznych[42].
Midnball to produkt opracowany i skomercjalizowany przez szwedzką firmę Interactive Productline, w której gracze rywalizują o kontrolę ruchu piłki w całej planszy, poprzez stawanie się bardziej zrelaksowanym i skupionym[43]. Celem Interactive Productline jest rozwój i sprzedaż nieskomplikowanych produktów EEG, które trenują skupienie i relaksację[44].
Austriackie przedsiębiorstwo Guger Technologies lub g.tec[45], oferuje interfejs mózg-komputer już od 1999 roku. Firma zapewnia podstawowe modele BCI jako platformy rozwoju dla społeczności badawczej, takich jak P300 Speller, Motor Imagery oraz Steady-State Visual Evoked Potential. g.tec ostatnio opracowało g.SAHARA, które korzysta z suchych elektrod, mogących wytwarzać sygnały porównywalne do układów żelowych[46].
Hiszpańska firma Starlab, pojawiła się na rynku w 2009 roku razem z bezprzewodowym 4-kanałowym systemem o nazwie Enobio. W 2011 Enobio 8 i 20-kanałowe (CE Medical) zostało wydane i jest obecnie w handlu dzięki wyodrębnionej ze Starlab firmie Neuroelectrics. Zaprojektowany dla celów medycznych i naukowych system zapewnia rozwiązanie uniwersalne oraz platformę dla rozwoju aplikacji[47].
Istnieją trzy główne komercyjne urządzenia oraz komercyjni konkurenci w tej dziedzinie (data wprowadzenia na rynek w nawiasach), które uruchomiły takie urządzenia głównie do gier PC:
W roku 2009, pierwszy na świecie osobisty system translacji bazowany na EEG wszedł na rynek: IntendiX. System może pracować z pasywnymi, aktywnymi, lub nowymi suchymi elektrodami EEG. Pierwsza wersja używała P300 do pisania na matrycy o wyglądzie klawiatury. Oprócz pisania tekstu pacjent może korzystać z systemu do wyzwolenia alarmu, pozwalać komputerowi czytać tekst, wypisywać lub kopiować tekst do wiadomości e-mail lub wysyłać polecenia do urządzeń zewnętrznych. W marcu 2012 g.tec pokazał nowy moduł intendiX o nazwie Screen Overlay Control Interface (SOCI), który umożliwia użytkownikom grać w World of Warcraft lub Angry Birds.
Dr Stephen Hawking korzystał z interfejsu BCI, który pozwalał mu rozmawiać i prowadzić wykłady na uczelni. Za pomocą ruchu gałek ocznych Hawking był w stanie przekazać do generatora głosu swoje słowa. W 2011 roku na rynku pojawiła się nowa firma zajmująca się interfejsami BCI. Ich sztandarowy produkt, pałąk iBrain jest przenośnym, jednokanałowym urządzeniem EEG mającym na celu monitoring mózgu podczas snu. Pozwala zdiagnozować choroby takie jak bezsenność, depresja lub autyzm. Urządzenie zyskało sporą uwagę ze względu na to, że stało się częścią eksperymentu, który miał na celu umożliwienie dr Stephenowi Hawkingowi, choremu na stwardnienie zanikowe boczne (nazywane również ALS lub chorobą Lou Gehriga), komunikację za pomocą myśli. W 2012 roku Dr Philip Low, 32-letni prezes firmy NeuroVirgil o projekcie powiedział: „Chodzi o to, aby sprawdzić, czy Stephen może wykorzystać swój umysł do stworzenia spójnego i powtarzalnego wzoru, który komputer może przełożyć na, powiedzmy, słowa lub litery lub polecenie na komputerze[48]."
Doświadczenie prowadzone w 2009 roku przez Christophera Jamesa z Uniwersytetu w Southampton pokazało, że wciąż można wymyślić coś nowego w dziedzinie BCI. Naukowcy postanowili pójść o krok dalej i spróbować porozumieć ze sobą dwa mózgi używając komputerów jako formę przesyłu myśli. Na razie udało się przesłać zaledwie 4 bity, lecz można to uznać za pewną formę komunikacji. Doświadczenie polegało na tym, że jeden ochotnik wyobrażał sobie kolejno jedną z dwóch liczb. Jeśli wybrał zero, miał w myślach „poruszyć” lewą ręką, jeśli jeden, prawą. Następnie interfejs odbierał sygnały z mózgu, dekodował je na formę cyfrową i Internetem przesyłał dane do drugiego ochotnika. Komputer przekazywał dane za pomocą szybkich błysków stroboskopu diodowego, których częstotliwość zależała od przekazanej liczby. Odbiorca patrzył na błyski, podczas gdy EEG rejestrowało fale mózgowe związane z aktywnością wzrokową. Co ważne, odbiorca nie mógł świadomie odróżnić błysków, gdyż dla niego były one takie same. Na podstawie odebranych sygnałów komputer bezbłędnie odkodował przesłaną wiadomość: 1011. Christopher James uważa, że interfejs ten mógłby się przydać ludziom z syndromem zamknięcia lub ze znacznymi ubytkami masy mięśniowej[49].
W 2013 roku człowiekowi udało się kontrolować ogon szczura poprzez interfejs mózg-komputer-mózg[50].
W 2014 roku za pomocą interfejsu mózg-komputer-mózg badacz poruszał ręką innego badacza[51].
W 2015 roku połączono ze sobą i z komputerem trzy mózgi rezusów, dzięki czemu wspólnie kontrolowały one mechaniczne ramię. Połączone mózgi osiągały lepszą sprawność niż pojedyncze małpy[52].
Również w tym roku połączenie czterech mózgów szczurów okazało się mądrzejsze niż niepołączone mózgi. Szczury wykonywały zadania z klasyfikacji obiektów, rozpoznawania obrazów, przechowywania i przetwarzania informacji ruchowych a także przewidywania pogody (zwiększona lub zmniejszona liczba impulsów dostarczana do mózgu reprezentowała informacje o ciśnieniu i temperaturze, na podstawie czego szczury prognozowały czy będzie padać deszcz)[53][54].
Ważne etyczne, prawne i społeczne problemy związane z relacjami mózg-komputer:[55][56][57][58]
Clausen stwierdził w 2009 roku, że „BCI stwarza etyczne wyzwania, ale te są koncepcyjnie podobne do tych, które bioetycy napotkali w innych domenach terapii”. Co więcej, sugeruje, że bioetyka jest dobrze przygotowana do radzenia sobie z problemami, które wynikają z technologii interfejsów mózg-komputer. Haselager i współpracownicy wskazali, że oczekiwania skuteczności BCI i wartości odgrywają wielką rolę w etycznej analizie i sposobie, w jaki naukowcy BCI powinni kontaktować się z mediami. Ponadto standardowe protokoły mogą być wdrożone w celu zapewnienia etycznie świadomego wydźwięku procedur z pacjentami z chorobą locked-in.
Badacze są świadomi tego, że etyczny wydźwięk, odpowiednio moderowany entuzjazm w mediach i edukacja na temat systemów BCI będą niezwykle ważne dla społecznej akceptacji tej technologii. Dlatego ostatnio coraz więcej starań jest czynionych wewnątrz wspólnoty BCI, by wykreować konsensus w sprawie etycznych wytycznych dla badań BCI, ich rozwoju i upowszechniania.
W 2012 roku naukowcy przy pomocy BCI opartego na EEG (fala P300) poznali z 10-40% dokładnością PIN-y do kart kredytowych, miejsce zamieszkania i datę urodzenia osób biorących udział w eksperymencie[59].
Ostatnio wiele firm wykorzystało technologię EEG (oraz w jednym przypadku, NeuroSky, zbudowało technologicznie od podstaw) do tworzenia niedrogich interfejsów BCI. Technologia ta została wprowadzona do zabawek i urządzeń do gier, niektóre z tych zabawek odniosły komercyjny sukces jak NeuroSky i Mattel MindFlex.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.