Cattura di azioni e riconoscimento

Location: 
Laboratorio ALCOR

Nella demo mostreremo il funzionamento della tecnologia del Motion Capture (MoCap), largamente utilizzata oggigiorno in vari ambiti tra cui la fisioterapia, sorveglianza, computer grafica e soprattutto nel cinema. In particolare, faremo indossare ad uno dei nostri collaboratori l’innovativo device XSens, composto da una tuta con sensori inerziali applicati su punti particolari del corpo umano.  Il sistema è in grado di catturare il movimento e digitalizzarlo, mostrando in output un modello 3D dello scheletro umano che riproduce i movimenti eseguiti dalla persona. Mapperemo il movimento su modelli 3D di personaggi virtuali ed infine verrà illustrato un metodo innovativo per riconoscere le azioni svolte da un singolo umano.

L’approccio prende in input una azione umana, in 3D, catturata tramite MoCap (come ad esempio la XSens) e dà in output il maximum a posteriori (MAP), associando alla sequenza in esame il nome della azione avente il valore più alto di probabilità rispetto a tutte le classi di azioni considerate. Ciascuna sequenza MoCap è associata ad uno scheletro composto da giunti aventi come informazione la rotazione e la traslazione rispetto ad un sistema di riferimento globale.

L'approccio è suddiviso in due parti. Durante la prima fase, lo scheletro MoCap (e i suoi rispettivi giunti) viene suddiviso in gruppi (testa, braccio destro, braccio sinistro, torso, gamba destra e gamba sinistra).  Per ciascun gruppo e per ciascun frame della sequenza MoCap viene calcolata la direzione principale (tramite la principal geodesic analysis) e vengono  estratte delle features che descrivono la rotazione, traslazione e la velocità in norma che ciascun gruppo di giunti manifesta lungo tutta la durata dell’azione. Tali features sono successivamente utilizzate durante la fase dell’apprendimento tramite un approccio non parametrico Bayesiano, così da stimare, per ciascun gruppo di giunti, dei comportamenti standard all’interno di ciascuna classe di azioni. L’approccio verrà testato online durante la demo, facendo eseguire un'azione alla persona che indossa la tuta XSens e visualizzando in output il nome della azione riconosciuta.

Alla fine, faremo vedere le tecniche dello stato dell'arte sul riconoscimento automatico delle azioni e sull'estrazione di primitive del movimento umano.