Un prototype de système vidéo informatisé peut générer une description sous forme de texte, en temps réel de ce qui est filmé.
Ce système (I2T) mise au point par Song-Chun Zhu de l’université de Californie, pas encore commercialisé, permet de mettre des mots sur ce que film, en l’occurrence, les caméras de surveillance, facilitant ainsi des recherches spécifiques sur telle objet filmé ou action réalisé.
Un aperçu de : comment le logiciel décortique l’image pour ensuite construire une base de donnée contenant les algorithmes et indications sur les différents objets statiques où en mouvement filmé : Exemples du mode de traitement
Une partie de la base de donnée contenant une partie des deux millions d’objets déjà traiter, est à disposition ici : http://www.imageparsing.com/FreeDataOutline.html
Bonjour,
Je vous prie de m’excuser. Je n’ai malheureusement pas trouvé comment vous contacter autrement que par commentaire.
Je souhaitais vous faire découvrir le service Paperblog, http://www.paperblog.fr dont la mission consiste à identifier et valoriser les meilleurs articles issus des blogs. Vos articles sembleraient pertinents pour certaines rubriques de Paperblog.
En espérant que le concept de Paperblog vous titille, n’hésitez pas à me contacter pour toutes questions ou renseignements…
Audrey
Responsable communication
audrey@paperblog.com