W poszukiwaniu szóstego zmysłu

Kikimora

Oczy, uszy i nos to przeżytek. Błyskawiczny rozwój nowych technologii sprawił, że komputerowe wspomaganie wrażeń zmysłowych staje się coraz bardziej realne. I już wkrótce będziemy odbierać otaczający nas świat w sposób, o którym nie śniło się nawet twórcom filmów science fiction.

tekst MAREK ŚWIRKOWICZ

ilustracje MALWINA KONOPACKA

Kikimora

Kiedy nasze nowo narodzone dziecko zaczyna płakać, zwykle kompletnie nie mamy pojęcia, o co mu chodzi. Jest głodne? Doskwiera mu bolący brzuszek? A może boi się dziwnych odgłosów zza okna? Zwykłe ludzkie ucho nie potrafi rozróżnić takich subtelności. Pozostaje zatem polegać na rodzicielskiej intuicji. Chyba że… No właśnie. Co by się stało, gdybyśmy dysponowali urządzeniem, które będzie w stanie przekładać odgłosy wydawane przez małego szkraba na sensowne komunikaty? Zdaniem Dymitra Kaniewskiego z firmy IBM, jest to w pełni możliwe. Wraz z grupą innych badaczy opatentował niedawno metodę elektronicznej analizy dziecięcego płaczu. Próbki były rejestrowane na różnych etapach rozwoju dziecka i zestawiane z aktywnością mózgu, serca oraz płuc, by wyodrębnić istotne informacje. Stąd już tylko krok do przekonwertowania ich na sygnały zrozumiałe dla dorosłych. A zatem sytuacja, w której matka wsłuchuje się w potrzeby swojego maleństwa za pośrednictwem smartfona wyposażonego w odpowiednią aplikację, to tylko kwestia czasu.

Słyszące i – co ważniejsze – słuchające maszyny (bo przecież słuchanie to dużo więcej niż zdolność odbioru fal dźwiękowych) jeszcze niedawno zaliczały się w poczet futurystycznych gadżetów rodem z powieści i filmów o komputerach przejmujących władzę nad światem. Dziś mogą pomóc nie tylko w zrozumieniu płaczu naszego dziecka, ale też w usprawnieniu komunikacji poprzez inteligentne oddzielanie znaczących komunikatów od „dźwięków tła”, przełożeniu impulsów akustycznych na nerwowe dla osób niesłyszących, a nawet w przewidywaniu nadchodzących klęsk żywiołowych. Już teraz w Brazylii specjaliści wykorzystują komputerową analizę fal dźwiękowych do wczesnego ostrzegania o możliwości wystąpienia lawin błotnych. Czyli innymi słowy za pośrednictwem maszyn „wsłuchują się” bezpośrednio w naturę. Mało tego – jeden z wynalazców zaproponował nawet stworzenie urządzenia, które przetwarzałoby impulsy płynące z mózgu bezpośrednio na słowa. Czytanie w myślach? Czemu nie! A to zaledwie początek pasjonującej drogi w kierunku udoskonalenia wrażeń, jakie odbieramy za pośrednictwem „tradycyjnych” zmysłów.

Oczywiście sztuczne wspomaganie zmysłowych doznań to w dziejach ludzkości nic nowego. Wystarczy wspomnieć lunety, aparaty słuchowe, soczewki kontaktowe czy nawet sól i glutaminian sodu. Jednak nigdy dotąd rozwój myśli technologicznej nie otwierał przed nami w tej dziedzinie aż tylu nowych, nieznanych dotąd możliwości. Pod koniec każdego roku IBM ogłasza raport, w którym czołowi inżynierowie firmy przewidują, w jaki sposób rozwinie się dostępna człowiekowi technologia w ciągu najbliższych pięciu lat. Okazuje się, że przy obecnym stanie wiedzy każdy z naszych pięciu kanałów komunikacji ze światem może spokojnie zostać odtworzony w formie elektronicznej. To zaś oznacza, że już wkrótce komputery i smartfony będą nie tylko słuchać i patrzeć, ale też wyczuwać zapachy, inteligentnie tworzyć nowe smaki, a nawet przekazywać wrażenia dotykowe. Wszystko za sprawą tzw. systemów kognitywnych, czyli bazujących nie na algorytmach matematycznych (jak do tej pory), ale na imitowaniu procesów poznawczych charakterystycznych dla ludzkiego mózgu. Innymi słowy, nasi elektroniczni towarzysze przestaną wreszcie być potężnymi kalkulatorami, a zaczną poznawać rzeczywistość i uczyć się jej podobnie jak my.

No dobrze, ale jak to ma wyglądać w praktyce? Wyobraźmy sobie, że kupujemy ubranie dla dziecka w sklepie internetowym i chcemy wiedzieć, czy tkanina nie będzie przypadkiem zbyt szorstka dla delikatnej skóry. Dziś musimy uwierzyć sprzedającemu na słowo. Możliwe jednak, że już wkrótce będziemy mogli otrzymać próbkę materiału bezpośrednio na smartfon lub tablet i wyczuć jego fakturę poprzez ekran dotykowy. Mikrowibracje w połączeniu z odpowiednim systemem termicznym sprawią, że wystarczy przesunąć palcem po ekranie, by „dotknąć” np. bawełny czy jedwabiu. Ale to tylko jedno z zastosowań „elektronicznego dotyku”. Dużo większe znaczenie może mieć symulacja tego najbardziej elementarnego ze zmysłów, choćby w przypadku protez dla osób, które straciły którąś z kończyn. Dzięki połączeniu sensorów umieszczonych w nowoczesnej protezie z mikroczipami wszczepionymi w system nerwowy pacjent może np. wyczuć włącznik światła na ścianie albo sięgnąć po coś bez konieczności patrzenia w tamtą stronę. Specjalna komórka w Pentagonie, znana jako DARPA (czyli Defense Advanced Research Project Agency), już prowadzi zaawansowane badania w tej dziedzinie.

Nie mniej interesująco przedstawia się kwestia węchu. Wystarczy bowiem wyposażyć nasz smartfon w odpowiednio zaprojektowane czujniki biometryczne, by wyczuł za nas zbliżające się przeziębienie albo… zepsute mięso w bigosie. Z pozoru zasada działania jest tu podobna jak w policyjnych alkomatach, które w wydychanym powietrzu wykrywają cząsteczki alkoholu. Jednak zakres i możliwości wykorzystania danych okazują się bez porównania większe. Dlaczego bowiem nie można by było po dmuchnięciu w czujnik od razu połączyć się z lekarzem, który zdalnie postawi diagnozę? „Elektroniczne nosy” – bo tak nazywa się potocznie tego typu urządzenia – mogłyby również znaleźć zastosowanie m.in. w zakresie kontroli jakości, wykrywania szkodliwych substancji w powietrzu, monitorowania zanieczyszczenia środowiska czy ostrzegania przed zamachem bombowym na lotniskach. Nie mówiąc już o tym, że dostarczą nam dużo więcej informacji o świeżości produktów w supermarkecie niż jakakolwiek data ważności.

Czyli maszyny mogą nam pomóc zwęszyć kulinarny spisek. W jaki sposób jednak wpłyną na nasze kubki smakowe? Tutaj koncepcja jest nieco bardziej wyrafinowana. Musimy bowiem pamiętać, że nasza ukochana pizza albo sałatka to tak naprawdę nic innego jak kombinacja związków chemicznych. Co by się stało, gdyby komputer mógł te związki dobrać za nas? I to w ten sposób, by efekt końcowy nie tylko rozpływał się w ustach, ale też był optymalnie zbilansowany pod względem wartości odżywczych? Dla rodziców zmagających się z pokarmową rebelią swoich pociech byłby to prawdziwy dar niebios. Zamiast bowiem rzucać się na paczkę chipsów, młody człowiek mógłby sięgnąć po zaprojektowane na poziomie molekularnym danie, które będzie mu równie intensywnie smakować, a zarazem okaże się zdrowe i wartościowe. Nie zapominajmy bowiem, że maszyny nie znają ograniczeń kulturowych. I mogą zaproponować nam takie połączenia składników, na które nigdy byśmy sami nie wpadli. Mając przy tym pewność, że będzie nam smakować.

A co jeśli poszlibyśmy o krok dalej i zamiast wykorzystywać możliwości smartfonów i tabletów – stanowiących mimo wszystko zewnętrzne dodatki – spróbowali fizycznie połączyć nasze zmysły z maszyną? Zdaniem wyznawców filozofii transhumanizmu jest to nie tylko możliwe, ale też ze wszech miar pożądane. Pomoże nam bowiem jeszcze lepiej przyswajać informacje z otoczenia, a co za tym idzie – skuteczniej kontrolować rzeczywistość. A nawet elektronicznie ją przetwarzać na potrzeby naszej percepcji. W jaki sposób? Wystarczy wspomnieć choćby koncepcję bionicznych soczewek kontaktowych, które różnią się od tradycyjnych szkieł tym, że posiadają wbudowany mikroprocesor i są w stanie projektować elektronicznie generowane obrazy bezpośrednio na siatkówkę oka. Dzięki temu to, co widzimy wokół nas, może być dowolnie modyfikowane za pomocą odpowiednich projekcji, sterowanych przez kieszonkowy komputer. Nawigacja satelitarna wskazująca nam kierunek marszu na prawdziwej drodze? Informacje o produkcie stojącym na sklepowej półce wyświetlające się przy nim w czasie rzeczywistym? Rzeczywistość wirtualna powoli przestaje być mitem.

Widać to szczególnie na przykładzie bodaj najbardziej oczekiwanego gadżetu najbliższych miesięcy, czyli Google Glass. Elektroniczne okulary mają ponoć zdeklasować popularnością iPhone’a. Po raz pierwszy technologia tzw. rzeczywistości rozszerzonej (ang. Augmented Reality) będzie dostępna na wyciągnięcie ręki. Przez google’owski wynalazek zobaczymy bowiem dużo więcej niż tylko to, co rozciąga się przed naszymi oczami. Specjalny wyświetlacz umieszczony w polu widzenia sprawia wrażenie, jakby informacje, zdjęcia, filmy i inne wizualne komunikaty wyświetlały się bezpośrednio w przestrzeni. Ba, możemy nawet „sparować” okulary z inną osobą i oglądać świat jej oczami. Urządzenie jest sterowane niewielkim panelem dotykowym w oprawce albo głosem właściciela – na komendę wyszukuje nam potrzebne informacje w sieci, dzwoni do żony albo pstryka fotkę. Nie posiada też słuchawek. Dźwięki przekazywane są bezpośrednio do mózgu drogą pośrednictwa kostnego.

Stąd już tylko krok do wyjścia poza tradycyjnie rozumianą percepcję zmysłową. Skoro bowiem możemy komputerowo wzmocnić działanie istniejących zmysłów, dlaczego by nie stworzyć nowych? „Patrzymy na świat przez tunel. Wokół nas jest mnóstwo sygnałów, których wciąż nie jesteśmy w stanie odebrać” – uważa profesor cybernetyki na Uniwersytecie w Reading Kevin Warwick. I demonstruje swój najnowszy wynalazek, którym jest zwykła czapka bejsbolowa przerobiona na zaawansowane urządzenie do echolokacji. W połączeniu z wszczepionym pod skórę implantem informacje o położeniu organizmu w przestrzeni – i potencjalnych przeszkodach – przekazywane są bezpośrednio do układu nerwowego. Można zatem bezpiecznie spacerować w dowolnym miejscu bez konieczności użycia wzroku. Znane są również przypadki śmiałków, którzy wszczepili sobie w palce specjalne sensory, by móc wyczuwać otaczające ich pole magnetyczne. Z kolei naukowcy z Duke University opracowali implant pozwalający człowiekowi odbierać promieniowanie podczerwone.

Wszystkie te wynalazki nie są jednak nawet w połowie tak efektowne, jak skonstruowane przez pewnego zdolnego absolwenta Massachusetts Institute of Technology urządzenie zwane po prostu szóstym zmysłem. Gdy w 2009 r. Pranav Mistry zademonstrował, jakie cuda może zdziałać połączenie miniaturowej kamery, projektora i kieszonkowego komputera, specjaliści od nowych technologii długo nie mogli wyjść ze zdumienia. Nagle okazało się, że to, co Tom Cruise wyprawiał w „Raporcie mniejszości”, jest możliwe również w realnym świecie. „Szósty zmysł” w założeniu ma być tym, co pozwala nam naturalnie funkcjonować w cyfrowej rzeczywistości – dokładnie tak, jak pozostałych pięć zmysłów ułatwia poruszanie się w tej fizycznej.

Kikimora

Wystarczy powiesić sobie na szyi niewielki aparacik i – to niestety najbardziej obciachowa jak dotąd część eksperymentu – okleić koniuszki palców kolorowymi taśmami. Potem można już np. wyświetlić ekran dotykowy na stole, robić zdjęcia za pomocą ułożenia palców w odpowiedni kadr, a następnie segregować je „w powietrzu”, wykorzystując do tego ruchy rąk. Gdy nakreślimy okrąg na przegubie dłoni, pojawi nam się tam tarcza zegarka. Kiedy spojrzymy na bilet lotniczy, automatycznie wyświetlą się na nim informacje o statusie lotu. A podczas czytania gazety możemy aktualizować artykuły o najnowsze informacje. Wszystko dzięki temu, że kamera nie tylko momentalnie rozpoznaje obiekty znajdujące się w zasięgu jej obiektywu, ale też śledzi ruchy rąk (stąd te kolorowe naklejki). W połączeniu z projektorem zdolnym wyświetlić cyfrowy obraz na dowolnej powierzchni dostajemy zatem gadżet rodem z hollywoodzkich superprodukcji. Pytanie tylko, kiedy – i czy w ogóle – wynalazek Mistry’ego trafi do sprzedaży.

Wszystkie te innowacyjne technologie wpływające na nasze postrzeganie świata wywołują bowiem nie tylko zachwyt, ale też mnóstwo wątpliwości. Już dziś wiadomo, że w Wielkiej Brytanii nie będzie można używać okularów Google Glass podczas jazdy samochodem, wiele instytucji również zawczasu zabrania korzystania z nich na swoim terenie. Nieraz podnoszone były kwestie zarówno ochrony prywatności, jak i wpływu „rozszerzonej rzeczywistości” na psychikę człowieka. Czy coraz większy stopień integracji z maszyną to aby na pewno dobry kierunek? Jak korzystanie z tych gadżetów przełoży się na relacje społeczne i funkcjonowanie w obrębie rodziny? Czy nie dojdziemy wkrótce do etapu, w którym wychowanie dziecka będzie sprowadzać się głównie do nauczenia go właściwego korzystania z technologii? I jak w tym wszystkim odnajdą się instytucje edukacyjne – czy w świecie, w którym odpowiedź na praktycznie każde pytanie po kilku sekundach wyświetla nam się przed oczami, szkoła będzie jeszcze miała rację bytu?

Wciąż więcej jest pytań niż odpowiedzi. Choć z drugiej strony nie zapominajmy, że jeszcze 15 lat temu nawet zwykłe ekrany dotykowe uważane były za niewiele więcej niż filmową sztuczkę. I za 15 lat nasze dzieci mogą co najwyżej śmiać się z naszych naiwnych wątpliwości. Jak będzie naprawdę – czas pokaże.