Dimostrazioni 2016

I gruppi di ricerca attivi presso il DIAG hanno organizzato un fitto programma di dimostrazioni e presentazioni con l'obiettivo di mostrare al pubblico una parte delle tante attività che giornalmente coinvolgono gli studenti del nostro dipartimento.
Scarica il programma

I big data generati dalle piattaforme digitali che ne permettono  la condivisione, tra cui il Web e i social media, costituiscono un valore aggiunto nello studio di fenomeni complessi, permettendo di estrarre pattern utilizzabili nel processo decisionale da parte di organizzazioni, utenti e consumatori. La presentazione è volta ad introdurre le principali tematiche di investigazione nel campo dei Big Data e della Data Science, e in particolare il data mining, un campo di ricerca che si occupa di rappresentare, analizzare ed estrarre pattern di dati per studiare principalmente relazioni sociali, abitudini di consumo, diffusione dell’informazione, fenomeni di influenza e omofilia, identificazione ed evoluzione delle comunità, sistemi di raccomandazione.

Nella demo mostreremo il funzionamento della tecnologia del Motion Capture (MoCap), largamente utilizzata oggigiorno in vari ambiti tra cui la fisioterapia, sorveglianza, computer grafica e soprattutto nel cinema. In particolare, faremo indossare ad uno dei nostri collaboratori l’innovativo device XSens, composto da una tuta con sensori inerziali applicati su punti particolari del corpo umano.

Esperimenti di collaborazione fisica tra il robot KUKA LWR 4 e un utente. L'utilizzo del sensore di visione Kinect e di algoritmi di collision avoidance garantiscono una coesistenza sicura tra i due.

Le interfacce cervello-computer (Brain Computer Interface - BCI) permettono di comunicare ed interagire con il mondo esterno mediante l’elaborazione e la classificazione di specifiche onde cerebrali. Non essendo necessario alcun movimento, questi sistemi possono quindi rappresentare un canale di comunicazione alternativo per persone con gravi disabilità motorie. In questa demo verrà mostrato un ausilio per la comunicazione ed il controllo ambientale sviluppato su tablet che, oltre a poter essere utilizzato mediante diversi dispositivi di input in grado di adattarsi alle capacità motorie residue dell’utente (touch-screen, joystick, head tracker), può essere comandato direttamente dal cervello.

Questo esperimento mostra in azione un controllore automatico per la regolazione della quota di volo di un quadrotor. In particolare è possibile apprezzare la robustezza del controllore rispetto ad azioni che agiscono come disturbi sulla quota desiderata.

Camminata autonoma del NAO (cioè senza la supervisione di un utente umano) all'interno di un labirinto. L'esperimento mette in luce il funzionamento di un algoritmo di navigazione che fa camminare il robot il più possibile al centro dei corridoi. Si mostra, in particolare, come i dati provenienti dalla videocamera del NAO vengano usati per ricostruire le informazioni sull'ambiente, necessarie alla navigazione.

Durante il trasporto le opere d’arte posssono essere soggette a sollecitazione che possono provocare danni gravi. In questa dimostrazione verrà mostrato l’utilizzo di una piccola scatola nera (il data logger) che, alloggiata durante il trasporto insieme all’opera, permette di raccogliere dati su tutti gli eventi che potrebbero essere stati causa di danni.

Ripercorrendo la storia delle architetture di calcolo andremo a scoprire come sia stato possibile raggiungere risultati incredibili come l’atterraggio dell’uomo sulla Luna, capiremo quali sono i limiti fisici dei moderni elaboratori e qual è il modo migliore per sfruttarli efficacemente.

La demo mostra agli studenti l'applicazione della ricerca operativa all'interno dei metodi di machine learning. Nel corso della dimostrazione sarà lasciato dello spazio agli studenti per poter interagire con il problema in questione, così da poter rendere più facile la comprensione delle difficoltà incontrate nell'ottimizzazione.

MARRtino è il robot low cost sviluppato nell’ambito del corso di laurea magistrale in Artificial Intelligence and Robotics. I suoi principali componenti verranno illustrati e sarà possibile pilotare un MARRtino con un joystick wireless.

In questa dimostrazione sarà possibile assistere ad una breve partita di calcio tra robot NAO. I robot NAO potranno eseguire una breve partita o un insieme di azioni predefinite (es: calci di rigore).

Esperimenti di interazione fisica tra il robot KUKA KR5 e un utente. I movimenti del robot, ed in particolare il posizionamento dell'organo terminale, sono comandati tramite interfaccia gesturale e vocale.

Il pathfinding è una tecnica base in molti videogame in cui un personaggio si muove da un posto all'altro in modo plausibile, ad esempio, evitando ostacoli e usando il percorso più veloce. Questo rappresenta un punto nevralgico del gameplay e dello sviluppo. Tuttavia, se prendete un gioco di 20 anni fa e uno moderno l'approccio e le funzionalità offerte dal pathfinding sono le stesse, con mere differenze in termini di performance (ad esempio, algoritmi più veloci che supportano più personaggi in real-time, ecc). Come è possibile? Quali sono le problematiche che ne frenano l'evoluzione? Quali sono i tentativi di evolvevere una tecnica così fondamentale per i giochi? Questa presentazione cerca di rispondere a queste domande mostrando una panoramica di uno dei problemi di intelligenza artificiale nei videogiochi più diffuso in assoluto.

Oggigiorno i videogiochi si fanno sempre più ricchi e complessi: coinvolgenti ed immersive trame hollywoodiane, ambienti vasti e dettagliati da esplorare popolati da centinaia di personaggi ed oggetti con cui interagire. Nei giochi open-world il giocatore è libero di muoversi ovunque, di interagire con chiunque e di fare scelte che guideranno storia...ma è veramente libero? È veramente lui a controllare le sorti del suo alter ego virtuale? Oppure tutta questa libertà è solo un'illusione? Alessio, uno studente Magistrale del DIAG, vi introdurrà alla narrativa dei videogiochi e risponderà alla domanda: Quanto sono realmente interattive le storie nei giochi? Quanta libertà di decisione è concessa ai giocatori riguardo la trama? E ai designer? Qual'è l'attuale limite e come l'intelligenza artificiale può aiutarci a superarlo?

In questa sessione, metteremo in evidenza come poter sviluppare un approccio sistemico alla risoluzione dei problemi basato sulla comprensione delle dinamiche dei sistemi complessi (un sistema biologico, un sistema di produzione, un sistema informatico, un sistema sociale, un sistema economico, un sistema politico, ecc.). Attraverso dei semplici esercizi, mostreremo come gli strumenti della cassetta degli attrezzi del filosofo della scienza debbano essere acquisiti effettuando un salto “paradigmatico” nella modalità con cui ci si avvicina all’analisi dei problemi da risolvere ed inizieremo a trasferire i metodi necessari al pensatore sistemico per la comprensione profonda dei comportamenti, spesso contro-intuitivi, della realtà che ci circonda ogni giorno. Il tutto sarà arricchito dalla comprensione di come metodi formali, quali la modellazione e la simulazione al computer attraverso la System Dynamics, possano guidare il Pensatore Sistemico verso la risoluzione efficace dei problemi che spesso richiedono un approccio multi-disciplinare.

La logica è la disciplina che studia gli strumenti per ragionare, ovvero per trarre conclusioni validi, o accettabili, da un insieme di premesse. La logica ha più di 2.400 anni, ed ha svolto un ruolo fondamentale sia nello sviluppo del pensiero scientifico sia nell'ambito del pensiero filosofico. Lo scopo del seminario è fornire una breve introduzione a questa disciplina, e motivare il perchè, sebbene talvolta non sembri patrimonio acquisito della cultura contemporanea, è alla base di diversi campi del sapere, tra i quali l'informatica e l'intelligenza artificiale. Attraverso aneddoti e giochi si tenterà di dimostrare che la logica è anche divertente.

Il Problema dello zaino, meglio noto come Knapsack problem, è un problema di ottimizzazione che cattura le caratteristiche di molti problemi del mondo reale. In questa dimostrazione gli studenti vedranno il problema dello zaino applicato all’ottimizzazione degli investimenti finanziari.

In questo video verrà mostrata la capacità del robot Absolem di navigare autonomamemente in ambienti sconosciuti e potenzialmente ostili (es: edifici pericolanti a seguito di calamità naturali). Tali capacità trovano applicazione nella realizzazione di sistemi autonomi per il soccorso e salvataggio.

L’identificazione automatica dei profili comportamentali e delle preferenze degli utenti che richiedono un viaggio multimodale door-to-door è un tema di ricerca molto attuale. Presenteremo una demo (interfaccia grafica) che permette l’identificazione automatica di alcune classi di comportamento (profili utenti) basata su tecniche di reinforcement learning e clustering avanzato.

La sicurezza informatica rappresenta oggi una disciplina di studio centrale per l’accademia e l’industria. Il continuo flusso di attacchi informatici di diverso genere oggi in atto, dalla semplice azione dimostrativa alle interruzioni di servizio (attacchi DoS), al furto di dati sensibili (numeri di carta di credito, cartelle mediche, etc..) fino ad attacchi con conseguenze sul piano fisico (distruzione o incapacitamento di servizi primary e/o infrastrutture critiche) ha portato alla necessità di creare sistemi ed algoritmi di prevenzione e reazione sempre più evoluti.
In questa dimostrazione vedremo le soluzioni di ricerca proposte dal CIS (Research Center for Cyber-Intelligence and Information Security) e dal gruppo A.W.A.RE (Advanced Visualization & Visual Analytics REsearch) per  la creazione di un sistema di prevenzione e reazione a questi attacchi: le soluzioni proposte sono basate su Visual Analytics,  una disciplina che unisce il potere computazionale dei moderni elaboratori alle capacità visive ed intellettive dell’essere umano, al fine di massimizzare la capacità di un’operatore di sicurezza di prevenire, identificare e procedere alla neutralizzazione di una minaccia informatica.

Il Network Control Laboratory è da tempo impegnato nella definizione e implementazione di soluzioni a supporto della diffusione dei veicoli elettrici. In questo senso, per attenuare le limitazioni dovute all’attuale scarsità di charging stations e per mitigare l’impatto delle ricariche sulla rete elettrica, nella demo verrà proposto un sistema di prenotazione delle charging stations, di smart charging e di navigazione per i veicoli elettrici.

In questa presentazione sarà illustrato un nuovo approccio per ottenere la ricostruzione 3D di oggetti articolati, per esempio animali, da poche immagini prese dal web. La dimostrazione mostra i risultati ottenuti applicando il metodo a fotografie di diversi animali liberamente tratte dal web.

ROVINA è un progetto per l’esplorazione e la digitalizzazione dei siti archeologici sotterranei. In questa dimostrazione  i partecipanti potranno costruire un modello tridimensionale della scena osservata tramite sensori di profondità, guidare il robot ROVINA, esplorare, con strumenti di realtà virtuale, le catacombe di Roma.

SapienzBot è un robot sociale dotato di una piattaforma mobile e di una interfaccia uomo-macchina vocale. SapienzBot si sposterà all'interno dei corridoi del DIAG, costruendo una mappa semantica dell’ambiente ed eseguendo operazioni impartite in linguaggio naturale.

Un business game è un gioco a squadre in cui viene simulato un modello economico-gestionale che riproduce la gestione di una realtà aziendale nella sua totalità, o in una sua parte. Allo stesso tempo, viene riprodotto il mercato in cui essa compete fornendo un’approssimazione, il più possibile accurata, delle dinamiche di mercato e delle problematiche aziendali.  Gli studenti competeranno tra di loro, a squadre, gestendo la loro azienda e simulandone un periodo di vita di due anni.

La Gaze Machine è un dispositivo che permette di stimare ad ogni momento dove la persona che la usa sta guardando nello spazio tridimensionale. Durante la dimostrazione interattiva i membri del laboratorio ALCOR dimostreranno la Gaze Machine, prima calibrando il dispositivo e dopo presentando dove la persona che la usa sta guardando, in un modo interattivo con i partecipanti.

Il workshop in collaborazione con Google si svolge da due anni presso il DIAG ed è aperto a tutti gli studenti della laurea del primo livello di Ingegneria Informatica e di Informatica delle tre Università di Roma. Gli studenti che partecipano al workshop sviluppano nell'arco di tre mesi, con l'ausilio di tutor industriali e accademici, un'applicazione Cloud, Web o Mobile, dall'idea iniziale di prodotto fino alla distribuzione su cloud e al test con gli utenti. Lo sviluppo adotta  principalmente ma non esclusivamente tecnologie Google. I migliori progetti realizzati dagli studenti sono in seguito promossi presso i principali incubatori di startup della capitale e vengono presentati presso Google Tel-Aviv.  Alcuni di questi progetti saranno presentati dagli studenti durante Open DIAG.