, mens vi har set Kinect-baserede virtuelle omklædningsrum før, tager holdet på Arbuzz en noget anderledes tilgang (oversættelse) til Digital Gown-spillet. I stedet for at udnytte flade billeder af tøj, der overlejret på fagets krop, bruger deres løsning fulde 3D-modeller af beklædningsgenstande til at opnå den ønskede virkning. Denne teknik gør det muligt for dem at producere en mere sand til livsoplevelse, hvor beklædningsgenstanden overholder emnet rundt, der flyder naturligt med brugerens bevægelser.
Ligesom mange andre Kinect Hacks bruger de OpenNI såvel som nite for at erhverve skeletale data fra sensoren. Selve ansøgningen blev skrevet i C # med Microsofts XNA-spiludviklingsværktøjer, samt bruger en speciel fysikmotor til at gøre den simulerede klud på en fornuftig måde
[Lukasz] siger, at systemet stadig er i sin barndom, såvel som vil have brug for masser af arbejde, før de er helt tilfredse med resultaterne. Fra hvor vi sidder, er Demo Video indlejret nedenfor ret pæn, selvom det er lidt ru rundt om kanterne. Vi var især glade for at se Xbox’s indfødte Kinect-grænseflade, der blev sat på arbejde i et DIY-projekt, såvel som vi er ret interesserede i at se præcis, hvordan tingene ser ud, når de sætter de sidste hånd på det.
[Vimeo http://vimeo.com/25933286 W = 470]