Au cours de l’année scolaire 2012/13, nous avons élaboré un logiciel qui, associé à une tablette et à une caméra de profondeur, permet à une personne aveugle de se déplacer en sécurité et librement dans des environnements familiers comme non familiers.

Ce logiciel utilise un retour auditif pour donner à l’utilisateur une idée précise de ce qui se trouve devant lui; le retour tactile est toujours en cours d’élaboration. Un ordinateur analyse une image de l’environnement de l’utilisateur et alerte l’utilisateur d’éléments ou risques spécifiques grâce à un retour auditif. Nous avons présenté ce projet à la Foire internationale des sciences et de l’ingénierie organisée par Intel à Phoenix, en Arizona, et sommes arrivés troisièmes dans le domaine de l’informatique.

Notre idée a commencé avec cette question : comment pouvons-nous rendre les connaissances en informatique plus accessibles ? Nous en avons conclu que le domaine de l’interaction homme-ordinateur avait le potentiel d’être davantage exploré – en particulier pour aider les personnes handicapées.

Presque immédiatement, notre recherche nous a menés vers différents projets qui cherchaient à utiliser la friction électrostatique pour simuler différentes textures sur un écran tactile. À un moment de la recherche, un membre de l’équipe a posé cette question : cela ne pourrait-il pas être utile pour les non-voyants ? L’un des objectifs de base de notre projet était d’utiliser ces écrans électrostatiques associés à une caméra de profondeur (que l’utilisateur porterait autour du cou) pour relayer les informations sur l’environnement d’une personne malvoyante. En passant son doigt sur l’écran, l’utilisateur pourrait avoir une idée générale de l’environnement qui l’entoure; les objets les plus proches provoqueraient une friction plus forte que les objets éloignés. Nous voulions permettre la localisation d’objets comme les portes, les escaliers et les marches, les dangers courants qui ne peuvent être facilement détectés via les méthodes traditionnelles.

Malheureusement, le matériel électrostatique correspondant à notre idée d’origine était encore en développement, et tout appareil doté de la sensibilité et des fonctions nécessaires à nos objectifs aurait eu la taille d’une grosse imprimante de bureau – pas le genre d’objet qu’un malvoyant pourrait emmener avec lui. Néanmoins, le logiciel était la pièce du puzzle que nous inventions, et nous avons décidé que le concept de base resterait le même. Notre objectif final restait essentiellement le même, à cela près que nous utiliserions une tablette standard qui jouerait des sons plus ou moins forts en fonction de l’endroit de l’image que l’utilisateur toucherait. La tablette dirait également les mots « escaliers » ou « attention » lorsqu’elle détecterait des dangers dans l’environnement. En plus du projet initial, nous avons aussi expérimenté de nombreux autres fonctions et systèmes, comme le retour via des moteurs vibrants sur le bout des doigts de l’utilisateur à la place du son, ou la lecture des panneaux et des affiches dans la rue à voix haute par l’ordinateur.

Après avoir fini le code, nous l’avons testé sur nous-mêmes et d’autres personnes à l’école en bandant les yeux des sujets et en les faisant marcher dans une pièce avec des meubles et des murs non familiers. Ces tests qualitatifs se sont avérés très prometteurs. Notre logiciel n’est pas encore disponible au téléchargement public, car nous pensons que trop de cas pourraient être dangereux si des personnes vraiment non-voyantes se laissaient guider par le logiciel. Nous cherchons actuellement à recueillir des commentaires de personnes non-voyantes pour nous aider à améliorer le système, et nous cherchons également à concevoir un dispositif pour accompagner le logiciel.

Le principal avantage de notre système par rapport aux autres solutions qui existent est que toute la « magie » opère au niveau du logiciel. Les algorithmes que nous avons créés doivent pouvoir fonctionner avec tout appareil à écran tactile et toute caméra de profondeur. Il était aussi extrêmement important pour nous que le logiciel ait une efficacité maximale afin de pouvoir fonctionner avec des machines de faible puissance. Au final, nous avons réussi à optimiser le système pour lui permettre de traiter les informations sur l’environnement et de fournir un retour en temps réel. Cela signifie qu’il devrait être extrêmement facile à diffuser à ceux qui en ont besoin.

Au final, il s’agit d’aider les gens; tous les aspects techniques du projet ne sont que des moyens d’atteindre cet objectif. Et qui sait, peut-être que bientôt les « chiens guides d’aveugles » seront remplacés par les « tablettes guides d’aveugles ».