Ball retriever: Robot autonome capable de détecter un objet et de s'y ...Plate-forme FPGA autonome de vision/tracking d'objet et commande vocale : PFE « Ball Retriever » Objectifs: Mettre à profit des cours avancés de VHDL pour implémenter une grande variété de modules dans l'espace mémoire réduit d'un FPGA de moyenne gamme, un Spartan 3 (Xilinx). La finalité du projet est de réaliser une plate-forme « faite maison » représentant un « chien robotique », capable de mimer une activité canine, comme aller chercher une balle de couleur. Méthodologie: Chaque module (vision, tracking, asservissement vidéo, acquisition sonore, traitement du signal...) a fait l'objet d'un développement séparé, décomposable en phases successives : état de l'art, sélection des technologies, test unitaire, implémentation pratique. Une fois chaque module validé, une phase globale d'intégration permet de certifier l'utilisation de plusieurs modules simultanément. Résultats: La détection d'objet fut le premier module à fonctionner, bien que l'algorithme de conversion YUV-RGB ait posé quelques problèmes. Si l'échantillonnage du son, son traitement et son stockage sont parfaitement fonctionnels, le module de reconnaissance vocale, lui est encore à perfectionner, en se comportement notamment plus comme un détecteur de personnes que de mots. Conclusion: La principale source d'ennuis pour l'implémentation des modules du projet fut sans conteste le manque de documentation pertinente (ou pire, leur caractère erroné !). Ces contretemps mis à part, nous avons pu prouver que les FPGA pouvaient servir à une grande gamme de tâches considérées comme très exigeantes en ressources, comme le traitement vidéo en temps-réel. English FPGA-Based autonomous platform for vision/objects tracking and Voice-Control: PFE « Ball Retriever » Objectives: Use previously acquired advanced VHDL courses in order to implement a wide range of modules in the narrow memory-space of a medium-end FPGA, a Spartan 3 (Xilinx). The goal of the project is to design and build ourselves « robotic dog », able of reproducing typically canine behaviour, such as fetching a distant ball. Design: Each module (vision, tracking, video-based motor control, sound sampling, signal processing...) had been developed separately, in a process made of several phases: state-of-art, relevant technology selection, unitary test and actual implementation. As soon as modules are validated, a global phase of integration leads to the certification of the use of several modules simultaneously. Results: Objects detection was the first module to work, even if the YUV-RGB conversion algorithm turned out to be a bit challenging. While sound sampling, processing and storage were developed seamlessly, the voice recognition module happened to behave more like an identity detector rather than a word recognizer... Conclusion: The main source of mishap for the implementation of modules of the project definitely was the lack of relevant documentation (or worse, its erroneous nature!). Anywhere else we think we succeeded in trying to prove that FPGA can successfully complete a wide range of tasks considered as high-end, like real-time video processing. Membres de l'équipe : Nicolas Gonot Maxime Leiser Sébastien Neveu Vianney Pouget Etudiants Ingénieurs de l'ECE Paris, école d'ingénieurs code pour embarquer la vidéo : >>> http://www.youtube.com/embed/O2zkc1D5HqE <<< |