Alexa rozpoznaje język migowy, choć nie robi tego oficjalnie. Jeszcze.
Głównym plusem obecności w naszych życiach wirtualnych asystentów jest to, że po naszej stronie pozostaje tylko wydawanie poleceń głosowych. Nie musimy robić praktycznie nic więcej, a rzeczy zaczynają dziać się same. Co jednak z osobami niepełnosprawnymi? Okazuje się, ze Alexa rozpoznaje język migowy, choć potrzebowała do tego specjalnego modu. A ten powstał z pasji jednego człowieka.
Już dziś bez większych problemów, niektóre czynności załatwimy za pomocą wirtualnego asystenta. Wprawdzie dalej są to sprawy relatywnie niewielkie, ale pamiętajmy o tym, że Google testuje właśnie możliwości zdalnego wykonywania przez AI połączeń i umawiania nas np. do fryzjera. I to dopiero początek tego, co może się w przyszłości jeszcze przydarzyć. Wprawdzie gigant (i nie tylko on) pracuje także nad programami, które mają pomagać w codziennym życiu niepełnosprawnym osobom, to asystent głosowy raczej się do tego nie zalicza. Nie wtedy, kiedy ktoś jest niemy. Zapewne w przyszłości takie ułatwienia się pojawią, ale na dziś dzień trudno je znaleźć. I dlatego pewien programista zrobił to sam.
Alexa rozpoznaje język migowy
Abhishek Singh słyszy i mówi, ale jego projekt powstał z chęci zmierzenia się z czymś trudnym. Programista zafascynowany jest możliwościami, które oferują wirtualni asystenci, ale jak słusznie zauważył, tam najbardziej liczy się głos. To zresztą widać na każdej niemal prezentacji i nieważne czy możliwości pokazuje Google czy Amazon. To właśnie z tym drugim asystentem Abhishek Singh postanowił poeksperymentować i wyszło lepiej, niż ktokolwiek mógłby się spodziewać.
W wideo udostępnionym przez Abhisheka widać jak laptop został podłączony do głośnika Amazon Echo. Dodatkowo programista musi korzystać z oprogramowania deep learning, które pomaga w odczytywaniu ruchów Singha. Alexa rozpoznaje język migowy, choć tylko określone polecenia, które w modzie programista sam wprowadził. Jednak to i tak dużo, bo daje nadzieję na to, że w przyszłości takie rozwiązania będą jak najbardziej możliwe. Singh korzystał z oprogramowania Google TensorFlow, które pozwala na implementacje poleceń i łatwiejsze ich odczytywanie później w aplikacjach internetowych. Abhishek opracował zestaw najprostszych gestów, które uznał za bazowe i zaczął eksperymentować.
Nowe możliwości
Abhishek dopiero rozwija projekt, ale ma on być otwarty dla każdego, kto będzie chciał go rozbudowywać. Pozwoli to na szybsze wprowadzenie moda w życie oraz dodawanie coraz to nowszych znaków z języka migowego. To, że Alexa rozpoznaje język migowy i potrafi na zadane jej pytania odpowiadać, stanowi duży krok naprzód. Pokazuje też, że korzystanie z wirtualnego asystenta niekoniecznie musi odbywać się za pomocą poleceń głosowy. Zresztą sama Alexa odpowiada pisząc na ekranie tak, by niesłyszący użytkownik miał szansę wszystko zrozumieć.
Amazon już podjął pierwsze kroki w tym, by ułatwić życie osobom niedosłyszącym lub niemym. Zaczęła się bowiem pojawiać aktualizacja do Echo Show, czyli specjalnego tabletu producenta, która możliwość obsługiwania asystenta za pomocą dotykania wyświetlacza. Wprawdzie opcja pozwala na zadawanie podstawowych pytań takich jak o pogodę czy warunki panujące na drodze. Da się jednak samemu ustalać opcje takie jak kontrola podłączonych do urządzenia gadżetów. Aktualizacja dostępna jest w Stanach Zjednoczonych, ale ma się pojawić także w Japonii czy Kanadzie. Nie jest to tym samym, co pokazał Abhishek, ale kto wie, co czeka na nas w przyszłości. Ważne jest to, że nie jest ona już ograniczona tylko dla tych, którzy są w pełni sprawni.
Nowe urządzenia, na których zainstalujecie wirtualnego asystenta, znajdziecie w naszym sklepie internetowym.
Źródło: The Verge / Amazon / YouTube