Skinput
Skinput to technologia wprowadzania , która wykorzystuje czujniki bioakustyczne do lokalizowania stuknięć palcami w skórę. W połączeniu z pikoprojektorem urządzenie może zapewniać bezpośrednią manipulację graficznym interfejsem użytkownika na ciele. Technologia została opracowana przez |Chrisa Harrisona], [[Desne Tanl ]] i Dana Morrisa z Microsoft Research Computational User Experiences Group. Skinput stanowi jeden ze sposobów oddzielenia danych wejściowych od urządzeń elektronicznych w celu umożliwienia zmniejszania urządzeń bez jednoczesnego zmniejszania powierzchni, na której można wprowadzać dane. Podczas gdy inne systemy, takie jak SixthSense , próbowały tego dokonać za pomocą wizji komputerowej, Skinput wykorzystuje akustykę, która wykorzystuje naturalne właściwości przewodzenia dźwięku ludzkiego ciała (np. przewodnictwo kostne ). Pozwala to na załączenie ciała jako powierzchni wejściowej bez potrzeby stosowania skóry być inwazyjnie oprzyrządowane za pomocą czujników, znaczników śledzących lub innych elementów.
Microsoft nie skomentował przyszłości projektów, poza tym, że są one w trakcie aktywnego rozwoju. W 2010 roku ogłoszono, że nie pojawi się to w urządzeniach komercyjnych przez co najmniej 2 lata.
Operacja
Skinput został publicznie zademonstrowany jako opaska, która leży na bicepsie . Ten prototyp zawiera dziesięć małych wspornikowych elementów piezo skonfigurowanych tak, aby były wysoce rezonansowe, czułe na częstotliwości od 25 do 78 Hz. Ta konfiguracja działa jak mechaniczna szybka transformata Fouriera i zapewnia ekstremalne tłumienie szumów poza pasmem, umożliwiając działanie systemu nawet wtedy, gdy użytkownik jest w ruchu. Od ramienia czujniki mogą lokalizować dotknięcia palcem w dowolnej części ramienia, aż do końcówek palców, z dokładnością przekraczającą 90% (nawet 96% dla pięciu miejsc wprowadzania). Klasyfikacja jest prowadzona przez a wspierając maszynę wektorową za pomocą szeregu niezależnych od czasu funkcji akustycznych, które działają jak odcisk palca. Podobnie jak rozpoznawania mowy , silnik rozpoznawania Skinput musi zostać przeszkolony w zakresie „dźwięku” każdej lokalizacji wejściowej przed użyciem. Po treningu lokalizacje można powiązać z funkcjami interaktywnymi, takimi jak wstrzymywanie/odtwarzanie utworu, zwiększanie/zmniejszanie głośności muzyki, szybkie wybieranie i nawigacja po menu.
Dzięki dodaniu pikoprojektora do opaski, Skinput umożliwia użytkownikom interakcję z graficznym interfejsem użytkownika wyświetlanym bezpośrednio na skórze. Umożliwia to kilka sposobów interakcji, w tym nawigację hierarchiczną opartą na przyciskach, nawigację przesuwaną opartą na listach (podobnie jak w przypadku iPoda/smartfona/MID), wprowadzanie tekstu/liczby (np. klawiatura numeryczna telefonu) i gry (np. Tetris , Frogger )
Demonstracje
Pomimo tego, że jest to wewnętrzny projekt Microsoft Research, Skinput był kilkakrotnie demonstrowany publicznie. Pierwszy publiczny występ miał miejsce na Microsoft's TechFest 2010, gdzie model rozpoznawania był szkolony na żywo na scenie, podczas prezentacji, po czym nastąpił interaktywny przewodnik po prostej aplikacji mobilnej z czterema trybami: odtwarzacz muzyki, skrzynka odbiorcza e-mail, Tetris i poczta głosowa . Podobne demo na żywo zostało wyemitowane na konferencji ACM CHI 2010 , gdzie praca naukowa otrzymała nagrodę „Best Paper”. Chętni mogli wypróbować system. Liczne media opisywały tę technologię, a kilka zawierało prezentacje na żywo.