Un logiciel d'analyse de mouvement dans un avion sans pilote peut interpréter les mouvements des mains et des bras de l'équipe au sol.
Un logiciel d'analyse de mouvement dans un avion sans pilote peut interpréter les mouvements des mains et des bras de l'équipe au sol.
L'équipe au sol d'un aéroport dispose d'un ensemble de gestes standardisés qu'elle utilise pour communiquer avec les pilotes d'un avion. Des chercheurs du MIT travaillent actuellement sur un système pour guider les avions sans pilote de la même manière.
Le logiciel enregistre les mouvements de l'agent au sol, les interprète et formule ensuite une réponse. La méthode peut être comparée à Kinect, un appareil avec lequel les ordinateurs de jeu peuvent être contrôlés au moyen de gestes. Mais l'interprétation est maintenant beaucoup plus difficile. Non seulement les mouvements doivent être reconnus, mais aussi le positionnement exact des mains et des bras. Par exemple, le pouce est-il vers le haut ou vers le bas ? Les coudes sont-ils tournés vers l'intérieur ou vers l'extérieur ?
De plus, l'équipe au sol ne signale pas une seule commande, mais une série de commandes continues, sans s'arrêter entre les deux. Le logiciel d'interprétation ne peut pas attendre que le mouvement entier soit terminé, mais doit interpréter immédiatement et correctement chaque geste individuel.
Lors d'un premier test, le système a pu interpréter correctement 76 % des mouvements. C'est bien sûr insuffisant pour déjà s'appliquer à des avions sans pilote très coûteux, mais les scientifiques sont convaincus qu'ils savent comment rendre le logiciel plus précis. (ks)