Indice
Fisica
(physical Human-Robot Interaction, pHRI): laddove avviene scambio diretto di energia tra operatori umani e agenti robotici, ad esempio nella manipolazione congiunta e nel contatto (intenzionale o accidentale). Esempi di tale modalità comprendono:
la programmazione intuitiva (lead-through programming) in cui un manipolatore viene addestrato accompagnando il movimento, fisicamente guidando il manipolatore lungo traiettorie, da ripetere in autonomia successivamente;
la manipolazione concorrente di stesse parti (material handling) per grossi carichi o posizionamenti particolari;
la possibilità di limitare/fermare il moto o l’esecuzione di task automatici ostacolando direttamente il manipolatore per motivi intenzionali o per interventi di emergenza;
Funzionale
laddove l’organizzazione dello spazio produttivo preveda una concorrenza di attività tra operatore umano e robotico. La collaborazione può assumere modalità seriali (passi di workflow produttivo alternati tra robot/operatore) o parallele (operazioni indipendenti congiunte a determinati passi). Nel caso di compiti condivisi, questi devono essere necessariamente svolti in collaborazione al solo scopo di raggiungere la massima efficacia ovvero nei casi in cui la semplice sostituzione dell’operatore non dia valore aggiunto o il processo non sia conseguibile altrimenti. Esempi includono casi specifici di assemblaggio, in cui il robot co-manipola parti di dimensioni ampie o predispone guide/ausili al montaggio. Nel caso di processi paralleli, l’organizzazione dello spazio di lavoro condiviso (workspace sharing) si avvale invece di tecnologie di ripianificazione del moto (collision avoidance, riduzione velocità, riallocazione target) e del task (rischeduling adattativo) in modo da garantire la presenza sicura dell’operatore nello spazio condiviso;
Cognitiva
complementare alle precedenti, laddove l’organizzazione dei processi condivisi prevede un certo grado di interpretazione del contesto (context awareness). La trasparenza di interazione tra uomo e robot è tanto maggiore
quanto più è estesa l’entità del trasferimento di attività, comandi, informazioni espliciti dall’operatore al robot. Ovvero, quanto più l’agente robotico si fa carico di interpretare e gestire localmente informazioni (es. task specifici in relazione ad uno specifico passo di lavorazione, parti di programma in relazione ad una specifica configurazione di cella, configurazioni specifiche in relazione a particolari contesti di rischio), tanto minore è il sovraccarico di trasferimento esplicito ridondante) di nozioni dall’operatore alla macchina con conseguente riduzione di tempi di esecuzione, miglioramento dell’esperienza d’uso, maggiore flessibilità e velocità di riorganizzazione dei task. Questa componente agisce non solo a livello di dispositivi (robot) attraverso una serie di tecnologie di behavior e gesture recognition (tipicamente includendo sensori di visione tridimensionale, ricostruzione degli ambienti e della controparte umana, model-based matching, machine learning, deep learning etc); ma anche a livello di sistema dal momento che le singole informazioni generate localmente sono distribuite e condivise con altri agenti coinvolti (pianificazione di processo, supervisione di sistema, allocazione risorse, etc). Per rendere possibile tale sistematizzazione delle informazioni sono necessarie tecnologie di livello architetturale comprendenti sia le infrastrutture (control system architectures, knowledge-base control) sia le componenti modellistiche (environment modeling, behavior modeling, sensor data modeling, object modeling).
I vari livelli di cooperazione concorreranno a costruire un sistema di capacità sensoriali, motorie e congnitivo-funzionali tali da creare, nel contesto della Fabbrica 4.0, una collettività di agenti misti (umani e robotici) la cui flessibilità di allocazione di attività, comportamenti e compiti sarà molto elevata.