Microsoft Photosynth : transformez la 2D en 3D
La semaine dernière, Microsoft a sorti en version Live Photosynth, un outil qui permet de recréer un environnement 3D complet à partir de photos en 2D, ou plutôt à partir d’une collection de photos.
En regroupant un ensemble de photos présentant une scène vue à partir d’angles différents, Photosynth est capable de reconstituer un environnement en 3D « fil de fer ».
Le résultat final est un univers 3D dans lequel les photos sont imbriquées, et les éléments manquant définis avec des points de couleurs : il est possible de se « déplacer » dans cet univers avec le clavier, ou la souris.
Une des options permet également d’afficher l’emplacement des caméras/appareils photos : le passage de la souris sur l’un ou l’autre permet de voir l’angle de prise de vue sous forme de cône.
Cependant, au niveau des pré-requis, c’est la même blague que pour Virtual Earth 3D :
- Operating System : Only Windows XP SP2 and Windows Vista RC1 or later are supported at this time,
- Browser : IE6 or IE7,
- Memory : 256 MB of memory is a bare minimum; 1 GB is recommended.
En dehors de ces limitations, je trouve cette démonstration de force assez bluffante, un peu dans le style de Riya.
Travaillant dans l’informatique, j’essaye de m’imaginer ce que ça représente en terme de puissance de calcul, comment le système a été conçu et développé.
Malheureusement, seules quatres démonstrations techniques sont disponibles pour le moment, l’application n’est pas encore ouverte aux utilisateurs.
Vous trouverez plus d’infos sur le blog officiel.
Commentaire by Julien — 16 novembre 2006 @ 22:22
J’avais lu un article sur le sujet y’a quelques semaines et c’est vrai que l’idée est alléchante !
J’ai vraiment hâte de l’essayer, mais j’ai trop la flemme d’utiliser IE et d’installer un ActiveX pour l’occasion…
Donc j’attendrai qu’ils sortent une version Beta du produit
Commentaire by Alex — 19 novembre 2006 @ 0:45
Oué enfin comme par hasard ca fonctionne que sur les 4 jeux de photos qu’ils fournissent avec… Je pense que l’idée est interressante, mais que les résultats, comme souvent, sont à prendre avec des pincettes tant qu’on aura pas vu le vrai soft/algo sortir pour test et donc surtout testé avec plein d’autres images.
Parce que y a déjà un truc marrant, ca extrait que les batiments. Le sol, les motifs sur le sol, les gens, sont absolument pas modélisés en 3D, ce qui est très bien, mais comment fait leur algo pour différentier les batiments des autres éléments???
(j’avoue médire rapidement, et ne pas avoir lu les articles publiés si il y en a)
Commentaire by Julien — 19 novembre 2006 @ 1:10
Je pense qu’il réagit de la sorte : le logiciel "n’imagine" pas le bâtiment en 3D mais le déduit grâce aux autres photos. Le point commun entre ces quelques photos sont les bâtiments. Les personnages sont différents sur chacune des photos (ou en tout cas, ils ne sont pas au même endroit).
Commentaire by Romain — 20 novembre 2006 @ 19:34
Oui, Julien a raison.
Et puis, un batiment, ça reste quand même relativement simple à "reconstruire" en image, alors qu’une personne, ça reste très hypothétique.
Quant aux "motifs" sur le sol, c’est de la 2D à la base, donc le système ne va pas les imaginer en 3D.
Commentaire by Julien — 20 novembre 2006 @ 19:41
Nan mais je vois ce que veut dire Alex : comment fait-il pour différencier les motifs d’un sol et les ombres qui permettent de déterminer les structures d’un immeuble.