Przyszłość pełna robotów
Jak zapewne wiecie z poprzednich artykułów (a mam nadzieję, że wiecie), przez ostatnie kilka miesięcy moja skromna osoba oraz mój przyjaciel Steve Manley pracowaliśmy razem nad animatroniczną głową robota. Tak naprawdę większość żmudnej pracy wykonał Steve, ja natomiast skupiałem się na wyrażaniu głupawych sugestii (lubię wykorzystywać swoje mocne strony). W rezultacie spędziłem dużo czasu myśląc o takich rzeczach jak roboty, silniki i czujniki.
Moja żona (Gina Wspaniała) często pyta mnie, ile czasu minie, zanim będziemy mogli kupić robota, który pomoże jej w pracach domowych. Obawiam się, że żona ogląda wraz ze mną zbyt wiele filmów science fiction, ponieważ wyobraża sobie humanoidalną postać, która będzie w stanie wykonywać takie czynności jak kucanie, podnoszenie z podłogi różnych przedmiotów i kładzenie ich na miejsce, napełnianie i opróżnianie zmywarki, pralki i suszarki (włączając prasowanie i składanie ubrań), podlewanie kwiatów w doniczkach i w koszyczkach na gankach przed i za domem czy wreszcie towarzyszenie jej w sklepie spożywczym, gdzie może powiedzieć coś w stylu „weź dla mnie dwie duże puszki krojonych pomidorów i spotkajmy się przy ladzie mięsnej” i tak dalej.
Nie chcąc budzić w małżonce nierealistycznych nadziei, mówiłem jej, że minie sporo czasu, zanim coś takiego się wydarzy. W głębi serca obawiam się, że możemy nie dożyć tego momentu. Ale jednocześnie, po niedawnym obejrzeniu postapokaliptycznego thrillera science fiction „Mother Android” (https://bit.ly/3N3r8tz) obawiam się również, że będziemy żyć wystarczająco długo, by pożałować, że chcieliśmy żyć wystarczająco długo, aby to zobaczyć (naprawdę, lepiej nie zaglądać do tego, co żartobliwie nazywam moim umysłem).
Przykład: niezwykle inteligentne humanoidalne roboty z Boston Dynamics, które potrafią tańczyć (https://bit.ly/3y2cezp) i uprawiać gimnastykę (https://bit.ly/3OpPkXY). Są jednak na razie jedynie bardzo drogimi prototypami i mogą sobie na nie pozwolić tylko wielkie korporacje i zamożne państwa.
Mimo to w ciągu ostatnich tygodni widziałem kilka rzeczy, które skłaniają mnie do przekonania, że przyszłość pełna robotów może być bliższa niż nam się wydaje.
Roboty, silniki i czujniki – o rany!
Jak się dobrze zastanowić, to wciąż słyszymy doniesienia o najnowszych i najlepszych czujnikach wizyjnych i akustycznych, dającym maszynom zdolność widzenia i słyszenia. Maszyny potrafią już wykrywać i rozpoznawać obiekty, mają też zdolność rozpoznawania dźwięków takich jak tłuczone szkło, a także rozumienia i reagowania na naturalną mowę ludzką. Pojawiają się również rozwiązania w zakresie czujników smaku i węchu, które pozwolą automatom wykrywać i identyfikować smaki i zapachy. Mniej mówi się jednak o czujnikach, które zapewnią maszynom zmysł dotyku – ale to również może się wkrótce zmienić.
Na przykład właśnie przeczytałem interesujący artykuł w Science Alert o tym, jak naukowcy opracowali „żywą skórę” dla robotów (https://bit.ly/3tJyXxs). Ten „materiał” wygląda wyjątkowo obrzydliwie (wybaczcie mi techniczny język); jest wodoodporny, samonaprawiający się i ma teksturę podobną do ludzkiej skóry – co nie jest zbyt zaskakujące, ponieważ faktycznie jest wykonany z komórek skóry ludzkiej.
Za sprawą dziwnego zbiegu okoliczności rozmawiałem niedawno z Keithem McMillenem, założycielem i dyrektorem technicznym firmy Bebop Sensors (https://bit.ly/3N3m4p3). Dla nas szczególnie interesujące jest to, że Keith opracował inteligentną tkaninę czujnikową, która jest wykorzystywana jako pokrycie przypominające skórę. Tkanina, nazwana Bebop RoboSkin, może zapewnić humanoidalnym robotom świadomość dotykową.
Zadziwiające jest to, że ta wrażliwość na dotyk ma przewyższać możliwości skóry człowieka pod względem rozdzielczości i czułości. W wersjach pokazanych na rysunkach, w każdym opuszku palca znajduje się 80 czujników – „takseli” (czyli „pikseli dotykowych”), rozmieszczonych w matrycy 2×3 mm. Natomiast rozstaw nerwów w opuszkach palców człowieka wynosi, jak twierdzi Keith, około 4 mm.
Muszę przyznać, że kiedy po raz pierwszy to usłyszałem, byłem nieco sceptyczny. Moja ludzka, odruchowa reakcja polegała na tym, że uważam siebie za efekt miliardów lat ewolucji, co powinno gwarantować, że moje biologiczne czujniki będą niejako „najnowocześniejsze”. Keith twierdzi jednak, że istnieje prosty sposób, aby zweryfikować jego stwierdzenie. Jeśli weźmiecie dwie plastikowe igły dziewiarskie z lekko zakrzywionymi końcówkami, zamkniecie oczy i, trzymając igły obok siebie, dotkniecie jednego z palców ich końcami, to rozróżnicie je jako oddzielne tylko wtedy, gdy odległość między tymi końcami wyniesie co najmniej 4 mm.
Czy kiedykolwiek sprawdzaliście czy potraficie czytać alfabet Braille’a? Pierwsza wersja tego dotykowego pisma, używanego przez osoby z dysfunkcją wzroku, została opracowana w 1824 roku przez 15-letniego Louisa Braille’a we Francji, który stracił wzrok w wyniku wypadku w dzieciństwie. Znaki brajla są kombinacją sześciu wypukłych kropek ułożonych w matrycy 3×2, zwanej „sześciopunktem”. Matryca ta daje 64 różne kombinacje, które wykorzystuje się do przedstawienia znaków alfanumerycznych i interpunkcyjnych. Miejsce bez żadnych kropek jest odstępem, spacją.
Kiedyś miałem okazję przesunąć jednym z moich ulubionych palców po książce napisanej alfabetem Braille’a i zwyczajnie nie byłem w stanie rozróżnić ilości i położenia wypukłych kropek pod moim zręcznym palcem. Rozumiem, że mógłbym się tego nauczyć dzięki praktyce, ale pamiętam, że byłem mocno zaskoczony jak niewiele mogłem wyczuć. Wspomnienie to wróciło do mnie, gdy Keith pokazał mi zdjęcie palca robota pokrytego materiałem BeBop RoboSkin, w trakcie czytania alfabetu Braille’a.