Utilizzo di un'interfaccia aptica in applicazioni di robotica medica per il manipolatore Kuka LWR

Location: 
Laboratorio Robotics

I contesti in cui l’interazione uomo-robot può realizzarsi, sono molteplici. In questo caso, si è sviluppata un’interazione fisica sicura tra un utente e il robot industriale KUKA KR5. I movimenti del robot manipolatore, ed in particolare il posizionamento dell’organo terminale, sono comandati mediante comandi gesturali e vocali del tutto naturali.

Il robot non è in grado di vedere autonomamente, quindi non può accorgersi della presenza di un utente all’interno del suo spazio di lavoro. Per questo motivo, viene usato un sensore di visione esterno (Microsoft Kinect) in grado di catturare immagini 3D dello spazio. Tramite un algoritmo di visione, le immagini vengono processate in maniera tale da ricavare la posizione esatta dell’utente rispetto al robot stesso.

Il passo successivo è quello di captare la voce dell’utente mediante un microfono, quindi elaborare il segnale tramite algoritmi di riconoscimento vocale (speech recognition) ed infine estrapolare il comando da dettare al robot.

Naturalmente, il robot non sarà in grado di rispondere a qualsiasi comando ma solamente a quelli che faranno parte di un cosiddetto “vocabolario dei comandi”. Il vocabolario è una lista, di lunghezza variabile a piacere, in cui l’utente memorizza una serie di comandi e li associa a determinati movimenti e/o compiti che il robot deve eseguire.

La demo è strutturata in modo da emulare un contesto di tipo industriale. Si supporrà, quindi, di avere il KUKA KR5 impegnato ad eseguire un compito ciclico come potrebbe essere, ad esempio, l’assemblaggio di parti meccaniche in una catena di montaggio. Per poter interagire, deve essere attivata la fase di collaborazione. L’utente detta il comando “Kuka listen to me” a seguito del quale il robot si ferma e si porta in una posizione di ascolto. Da questo momento in poi, il robot eseguirà solamente i comandi dettati dall’utente. Nel vocabolario sono presenti comandi come “follow left hand”, tramite il quale l’organo terminale del robot cercherà di seguire la mano sinistra dell’utente, oppure “follow nearest hand”, in cui la mano dell’utente più vicina al robot verrà seguita dall’organo terminale, e così via.

La fase di collaborazione viene terminata attraverso il comando vocale “Kuka stop collaboration”, dopo il quale il robot torna ad eseguire il suo compito iniziale.

L’interazione deve avvenire in totale sicurezza, quindi i comandi inviati al robot, generati a partire da conoscenze geometriche e meccaniche dello stesso, devono rispettare vincoli su velocità e accelerazioni. In questo modo, il robot eseguirà movimenti lenti e del tutto sicuri per l’utente che andrà ad interagire.