Czy wyobrażacie sobie robota, który nie tylko czuje wasz dotyk, ale też potrafi rozróżnić, czy to delikatne pogłaskanie, czy bolesne uderzenie? Brzmi jak science fiction, ale koreańscy inżynierowie właśnie uczynili to rzeczywistością.
Jak roboty nauczyły się “czuć” jak ludzie
Zespół z Koreańskiego Instytutu Zaawansowanych Nauk i Technologii (KAIST) stworzył przełomowy system sztucznych nerwów, który naśladuje sposób, w jaki nasze ciało przetwarza informacje dotykowe. To nie jest tylko kolejny czujnik – to całkowicie nowe podejście do robotycznego “odczuwania”.
Ludzki organizm ma w tej kwestii niezwykle sprytny mechanizm. Gdy zakładamy ubranie, po kilku minutach przestajemy odczuwać jego dotyk na skórze – to zjawisko nazywa się habituacją. Z drugiej strony, gdy ktoś nas uderzy lub dotknie czegoś ostrego, nasz system nerwowy natychmiast “budzi się” i reaguje – to sensytyzacja.
Memrystory – klucz do robotycznego odczuwania
Sekretem tej technologii są specjalne półprzewodniki zwane memrystorami. Dotychczas urządzenia tego typu pozwalały jedynie na proste zmiany przewodności, ale naukowcy z KAIST dodali do nich dodatkową warstwę wewnętrzną, która może zmieniać przewodność w przeciwnym kierunku.
Dzięki temu jeden mały element potrafi naśladować złożone wzorce synaptyczne – jego reakcja słabnie przy powtarzających się bezpiecznych bodźcach, ale natychmiast się wzmacnia, gdy pojawi się sygnał niebezpieczeństwa. I wszystko to bez potrzeby skomplikowanego oprogramowania czy dodatkowych procesorów.
Test z robotyczną ręką – teoria stała się praktyką
Aby udowodnić, że ich pomysł działa, badacze zbudowali sztuczny system nerwowy i wmontowali go w robotyczną rękę. Rezultaty? Imponujące.
Ręka początkowo reagowała wrażliwie na wszystkie nieznany dotyk. Jednak gdy te same, bezpieczne bodźce powtarzały się wielokrotnie, jej reakcje stopniowo słabły – dokładnie jak u człowieka. Najciekawsze było to, co stało się później.
Gdy dotyk został połączony z wstrząsem elektrycznym (sygnalizującym niebezpieczeństwo), system natychmiast wrócił do pełnej czujności, a nawet wzmocnił swoją responsywność. Robot dosłownie “nauczył się” rozpoznawać, co jest groźne, a co nie.
Gdzie znajdą zastosowanie czujące roboty?
Potencjalne zastosowania tej technologii są fascynujące. See-On Park, główny autor badań, wskazuje na kilka kierunków:
- Miniaturowe roboty – dzięki braku potrzeby dodatkowego oprogramowania mogą być jeszcze mniejsze i bardziej energooszczędne.
- Roboty wojskowe – lepsze rozpoznawanie zagrożeń może zwiększyć ich skuteczność w terenie.
- Protezy robotyczne – pacjenci mogliby odzyskać nie tylko ruch, ale też naturalne odczucia dotykowe.
To ostatnie zastosowanie brzmi szczególnie obiecująco. Wyobraźcie sobie protezę, która nie tylko wykonuje ruchy, ale też pozwala “poczuć” różnicę między delikatnym uściskiem dłoni a zbyt mocnym chwytem.
Czy to dopiero początek robotycznej rewolucji?
Południowokoreańscy naukowcy są przekonani, że ich odkrycie otwiera drzwi do “nowej generacji robotów – mądrzejszych i bardziej energooszczędnych w odpowiedzi na bodźce zewnętrzne”. I trudno się z nimi nie zgodzić.
Dotychczas roboty były w dużej mierze “ślepe” na subtelności ludzkiego dotyku. Teraz mamy technologię, która pozwala im nie tylko czuć, ale też “myśleć” o tym, co czują. To może być prawdziwy przełom w kierunku robotów, które będą mogły naturalnie współdziałać z ludźmi.
Czytaj też: Największe modele AI spektakularnie łamią wszystkie trzy prawa robotyki Asimova
Najbliższe lata pokażą, czy ta technologia rzeczywiście znajdzie swoje miejsce w komercyjnych produktach. Jedno jest pewne – granica między sztuczną a naturalną inteligencją właśnie stała się nieco bardziej rozmyta.