Kawałek historii, czyli krótko o historii interfejsów dotykowych i HMI opartych na gestach
Sterowanie urządzeniami elektronicznymi przez bezpośrednie wskazywanie konkretnych punktów na ekranie było marzeniem pierwszych użytkowników komputerów. Już w latach 50. XX wieku inżynierowie z MIT opracowali prototyp świetlnego pióra, które zostało chętnie zaadaptowane do coraz popularniejszych systemów marki IBM, Amiga i innych. Jego działanie było bajecznie proste: wskaźnik zbliżony kształtem i rozmiarami do długopisu był wyposażony w końcówkę z fotodetektorem, którą użytkownik przykładał do monitora CRT. Podczas przemiatania obrazu wiązka elektronów sukcesywnie rozświetlała luminofor w kolejnych partiach ekranu, a gdy trafiała na czujnik – ten ostatni dawał odpowiedni sygnał z powrotem do komputera. W ten sposób, znając aktualną pozycję plamki światła (X, Y) można było precyzyjnie wskazać położenie świetlnego pióra.
Co ciekawe, już wtedy użytkownicy zaczęli zgłaszać problemy natury ergonomicznej, a nawet zdrowotnej, wynikające z długotrwałego trzymania pióra w wyjątkowo nieergonomicznej pozycji: kończyna górna, zwłaszcza pozbawiona odpowiedniego podparcia, szybko ulegała przemęczeniu, co manifestowało się nawet przypadłością nazywaną mianem „gorilla arm”. Świetlne pióra z czasem praktycznie całkowicie ustąpiły innym, znacznie wygodniejszym w użytku urządzeniom wskazującym: myszom komputerowym i trackballom. Dopiero po latach zaczęły się powoli upowszechniać inne technologie obsługi interfejsów graficznych. I choć ekrany dotykowe są już od około dwóch dekad standardowym rozwiązaniem stosowanym w telefonach komórkowych, tabletach i wielu innych urządzeniach mobilnych (a także ubieralnych), to w przypadku „pecetów” czy laptopów stanowią one mimo wszystko technologię dużo mniej popularną – chyba w głównej mierze właśnie ze względów ergonomicznych. Panele dotykowe królują jednak nie tylko w elektronice konsumenckiej – coraz większy odsetek aparatury pomiarowej (głównie oscyloskopów i analizatorów widma), a także znakomita większość urządzeń medycznych, wyposażonych w różnej wielkości ekrany graficzne, mogą (lub muszą, z braku innych rodzajów interfejsu użytkownika) być sterowane właśnie za pomocą dotyku.
Z czasem popularność zaczęły zyskiwać także rozmaite technologie umożliwiające sterowanie urządzeniami elektroniczni z zupełnym pominięciem fizycznego kontaktu – czyli za pomocą mniej lub bardziej złożonych gestów. Do dziś prawdopodobnie największym rynkiem prostych czujników zbliżeniowych pozostają dyspensery mydła i środków do dezynfekcji rąk czy też bezdotykowe baterie umywalkowe, ale coraz głośniej mówi się o nadchodzącej rewolucji w obsłudze instalacji pokładowych w samochodach osobowych. A teraz ciekawostka: prognozy biznesowe wskazują, że globalny rynek technologii rozpoznawania gestów w aplikacjach motoryzacyjnych już w 2020 roku był wyceniany na niecały miliard dolarów, a w roku 2030 będzie dobijał do 4,5 miliarda! Nie dziwi zatem, że przeglądając strony internetowe producentów półprzewodników co rusz natrafiamy na infografiki kuszące nas wymyślnymi systemami sterowania wyposażeniem pokładowym za pomocą ruchów ręki.
Ekspresowy przegląd technologii wyświetlaczy dotykowych
Przez kilka dekad rozwoju ekranów graficznych – równolegle z dopracowywaniem istniejących i poszukiwaniem nowych metod wyświetlania obrazu – powstawał także szereg technologii pozwalających na precyzyjną i szybką detekcję dotyku. Pokrótce omówimy najważniejsze z nich, zwracając uwagę na aspekty implementacyjne oraz zalety i wady, rozpatrywane z użytkowego punktu widzenia.