Naukowcy z Cornell University opracowali prototypowe okulary sonarowe, które mogą bezgłośnie odczytywać ruchy twarzy w celu komunikacji. Okulary wykorzystują maleńkie mikrofony i głośniki do interpretacji słów wypowiadanych przez użytkownika w celu wykonywania poleceń, takich jak pomijanie utworu muzycznego, wprowadzanie hasła, a nawet praca na modelach CAD bez użycia klawiatury. Ten przełom w rozpoznawaniu cichej mowy jest znaczący, ponieważ większość technologii w tej dziedzinie opiera się na z góry określonych poleceniach i kamerach, co jest niepraktyczne i niewykonalne.
Ruidong Zhang, doktorant w Cornell, opracował system, który opiera się na podobnym projekcie wykorzystującym słuchawki bezprzewodowe i poprzednie modele kamer. Okulary eliminują potrzebę patrzenia w kamerę lub wkładania czegoś do ucha, dzięki czemu są wygodniejsze. Okulary sonarowe wymagają zaledwie kilku minut treningu, aby nauczyć się wzorców mowy użytkownika, a gdy są gotowe, wykorzystują algorytmy głębokiego uczenia się do analizy profili echa w czasie rzeczywistym w celu wykrycia ruchów ust z około 95% dokładnością.
Okulary przesyłają przetwarzanie danych bezprzewodowo do smartfona użytkownika, dzięki czemu akcesorium jest małe i dyskretne. Zapewniają około 10 godzin pracy na baterii w trybie wykrywania akustycznego i żadne dane nie opuszczają telefonu, co eliminuje obawy dotyczące prywatności. Aspekt prywatności sprawia, że technologia ta nadaje się do sterowania odtwarzaniem muzyki w cichej bibliotece, dyktowania wiadomości na głośnym koncercie, a nawet cichego przesyłania dialogów do syntezatora mowy dla osób z pewnymi zaburzeniami mowy.
Technologia może wkrótce zostać udostępniona publicznie. Ponadto zespół bada również wykorzystanie inteligentnych okularów do śledzenia ruchów twarzy, oczu i górnej części ciała.
źródło: engadget