Styring av iPhone via visuelle gester
Mange personer med taleutfordringer har ikke tilgang til talestyring på mobiltelefoner, noe som skaper et teknologisk gap og begrenser mulighetene for samhandling. Dette gjelder særlig for hørselshemmede og andre med funksjonsnedsettelser som gjør både talestyring og bruk av tastatur utfordrende.
Prosjektet tar sikte på å løse dette ved å utvikle en app som tolker gester og konverterer dem til tekst eller kommandoer. iPhone er valgt som plattform fordi mange døve og tunghørte allerede bruker den, blant annet på grunn av FaceTime.
Når appen er ferdigutviklet, vil den være tilgjengelig i App Store, og instruksjonsvideoer og skriftlig veiledning vil bidra til økt bevissthet. Gestgjenkjenningsmodellen vil også være fritt tilgjengelig for videre utvikling og implementering i andre løsninger.