Smartphone Microsoft aide les patients SLA à communiquer plus rapidement

← retourner à Développements technologique récents

Nouvelle application pour smartphone Microsoft aide les patients SLA à communiquer plus rapidement

24-02-2017

Par Carolina Henriques

Les personnes souffrant de sclérose latérale amyotrophique (SLA) savent combien il est difficile de communiquer. Grâce à GazeSpeak, une nouvelle application développée par des chercheurs Microsoft, parler avec les yeux devient à présent une réalité.

Le système GazeSpeak, qui sera rendu public en mai lors de la Conférence sur les facteurs humains dans les systèmes informatiques au Colorado, est une application mobile d’intelligence artificielle (IA) qui convertit les mouvements oculaires en paroles.

La nouvelle application est exécutée sur le smartphone de la personne qui écoute et qui le pointe vers la personne souffrant de SLA. L’intéressé regarde un autocollant à l’arrière du gsm contenant une grille indiquant à la personne qui parle où regarder, selon l’endroit où les mots sont groupés. Le gsm suit alors les mouvements oculaires de la personne qui parle et les enregistre comme des lettres.

“Par exemple, pour prononcer le mot ‘tâche’ ils regardent vers le bas pour sélectionner le groupe contenant le ‘t’ et lèvent ensuite les yeux pour sélectionner le groupe contenant ‘a’ etc.,” a déclaré Xiaoyi Zhang, qui a développé GazeSpeak alors qu’il était stagiaire à Microsoft, à Timothy Revell du magazine  New Scientist.

Ensuite, comme pour envoyer un sms sur le smartphone, l’application sélectionne les lettres des différents groupes et prédit quatre mots que la personne pourrait dire, listant le mot en tête à haute voix. Le système tient également compte des mots personnalisés tels que les noms de personnes ou de lieux qu’un utilisateur pourrait dire plus fréquemment.

Pour indiquer qu’elle est sur le point de finir un mot, la personne qui parle peut cligner des yeux ou regarder droit devant elle pendant deux secondes.

“Nous utilisons la vision informatique pour reconnaître les mouvements oculaires et l’IA pour la prédiction des mots,” a déclaré Meredith Morris de Microsoft Research.

Jusqu’à aujourd’hui la plupart des personnes souffrant de SLA ont utilisé la version basique d’un système similaire avec un tableau affichant des lettres groupées dans une grille. Un interprète détecte ensuite les mouvements oculaires de la personne qui parle lorsqu’elle sélectionne des lettres.

Lors des essais, GazeSpeak s’est révélé plus rapide que les tableaux traditionnels parmi 20 personnes sans SLA qui ont testé les deux méthodes. Il a fallu en moyenne 78 secondes pour compléter une phrase utilisant GazeSpeak, par rapport à 123 secondes en utilisant les tableaux.

Plusieurs patients SLA et leurs interprètes ont également testé l’application et une personne qui a essayé le système a réussi a dactylographier une phrase en juste 62 secondes. Le patient a déclaré que son interprète l’aurait réussi encore plus vite en vrai étant donné qu’il aurait pu aisément prédire ce qu’il allait dire.

D’autres options de logiciels de suivi oculaires actuellement disponibles font généralement usage de caméras infrarouges, mais ceux-ci sont souvent coûteux et encombrants; les résultats sont en outre décevants en plein soleil. GazeSpeak est un dispositif portable et en comparaison moins onéreux puisqu’il ne requiert qu’un smartphone.

GazeSpeak sera bientôt disponible sur l’app store Apple. De plus, ses développeurs mettront le code source librement à disposition pour que d’autres développeurs de logiciels puissent aider à l’améliorer.

 

Traduction : Brigitte Vanden Cruyce

Source : ALS News Today

Share