Microsoft-Smartphoneapp helpt ALS-patiënten sneller te communiceren

← ga terug naar Recente technologische ontwikkelingen

24-02-2017

Door Carolina Henriques

Mensen met amyotrofische laterale sclerose (ALS) weten hoe moeilijk communiceren kan zijn, maar de nieuwe app GazeSpeak, die werd ontwikkeld door Microsoft-researchers, zou van spreken met de ogen een feit kunnen maken.

GazeSpeak wordt in mei voorgesteld tijdens de Conferentie over Menselijke Factoren in Computersystemen in Colorado en is een mobiele artificiële-intelligentie- (AI) app die oogbewegingen omzet in spraak.

De app draait op de smartphone van diegene die luistert. Hij of zij richt zijn telefoon op de ALS-patiënt, die de ogen richt op een sticker op de achterzijde van de telefoon. Op die sticker staat een raster dat aan de spreker aangeeft waar hij of zij moet kijken, afhankelijk van de plaats waar woorden zijn gegroepeerd. Daarop traceert de telefoon de oogbewegingen van de spreker en registreert ze als letters.

"Om bijvoorbeeld het woord 'taak' uit te spreken, kijkt de spreker eerst naar beneden om de groep te selecteren die de letter t bevat, dan naar boven naar de groep met de letter a, enzovoort", vertelde Xiaoyi Zhang, die GazeSpeak ontwikkelde toen hij assistent was bij Microsoft, aan Timothy Revell van het magazine New Scientist.

Terwijl de smartphone tekst produceert, selecteert de app de letters van de verschillende groepen en voorspelt vier mogelijke woorden die de spreker zou kunnen formuleren, waarna het eerste woord weerklinkt. Het systeem houdt ook rekening met gepersonaliseerde woorden, zoals namen van personen of plaatsen die een patiënt frequent gebruikt.

Om aan te geven dat hij of zij een woord heeft beëindigd, kan de spreker knipperogen of gedurende twee seconden strak voor zich uitkijken.

"We gebruiken computerzicht om de oogbewegingen te herkennen en AI om het woord te voorspellen", zegt Meredith Morris van Microsoft Research.

Tot nog toe gebruikten de meeste mensen met ALS een lowtechversie van een gelijkaardig systeem, met een bord waarop letters staan die gegroepeerd zijn in een raster. Daarop traceert een interpretator de oogbewegingen van de spreker terwijl hij of zij de letters selecteert.

Bij een test met 20 mensen zonder ALS die beide methodes uitprobeerden, bleek GazeSpeak sneller te werken dan de traditionele borden. Om een zin te vormen, hadden ze met GazeSpeak gemiddeld 78 seconden nodig, tegen 123 seconden met de borden.

Sommige ALS-patiënten en hun interpretatoren testten de app eveneens en één persoon die het systeem uitprobeerde, typte een zin in slechts 62 seconden. De patiënt zei dat zijn interpretator de zin nog sneller zou hebben gevormd in het echte leven, omdat hij gemakkelijk zou kunnen hebben voorspeld wat hij wilde zeggen.

Andere oogtraceringssoftwareopties die tegenwoordig beschikbaar zijn gebruiken meestal infraroodcamera's, maar ze zijn vaak duur en log en werken vaak slecht in het zonlicht. GazeSpeak is draagbaar en relatief goedkoop omdat je er alleen een smartphone voor nodig hebt.

GazeSpeak zal binnenkort beschikbaar zijn in de appwinkel van Apple. Bovendien zullen de ontwikkelaars de broncode gratis beschikbaar stellen, zodat andere softwareontwikkelaars het systeem kunnen helpen te verbeteren.

 

Vertaling: Bart De Becker

Bron: ALS News Today

Share