Spela klänning upp med Kinect

medan vi har sett Kinect-baserade virtuella omklädningsrum innan, tar laget på Arbuzz en något annorlunda tillvägagångssätt (översättning) till Digital Gown Up-spelet. I stället för att använda platta bilder av kläder som är överlagda på ämnets kropp, använder sin lösning fullständiga 3D-modeller av kläderna för att åstadkomma den önskade effekten. Denna teknik gör det möjligt för dem att producera en mer sann till livserfarenhet, där kläderna överensstämmer med ämnet runt, som flyter naturligt med användarens rörelser.

Liksom många andra Kinect-hack, använder de OpenNi såväl som nite för att förvärva skelettdata från sensorn. Ansökan själv skrevs i C # med Microsofts XNA-spelutvecklingsverktyg, liksom använder en speciell fysikmotor för att göra den simulerade trasan på ett förnuftigt sätt

[Lukasz] säger att systemet fortfarande är i sin spädbarn, såväl som behöver gott om arbete innan de är helt nöjda med resultaten. Varifrån vi sitter, är demo video inbäddad nedan ganska snygg, även om det är lite grovt runt kanterna. Vi var särskilt nöjda med att se Xboxs inbyggda Kinect-gränssnitt som satsades i ett DIY-projekt, liksom vi är ganska intresserade av att se exakt hur saker ser ut när de sätter de sista handen på den.

[Vimeo http://vimeo.com/25933286 W = 470]

Leave a Reply

Your email address will not be published. Required fields are marked *