Esplora contenuti correlati

torna all'inizio del contenuto

Università di Catania


ITA | ENG

Progetto
Egocentric Vision and Wearable Computing for Learning through Imitation” mira alla realizzazione di nuovi sistemi intelligenti capaci di apprendere competenze da esseri umani mediante l’uso di segnali acquisiti da sensori indossabili e trasferirle ad altri soggetti e/o agenti robotici. Il progetto si propone di sviluppare soluzioni ICT avanzate per la realizzazione di prodotti e servizi che, considerando i paradigmi delle tecnologie di “Home & Building Automation”, “Ambient Assisted Living” e “Ambient Intelligence”, permettano di ridisegnare gli ambienti di lavoro e di vita in modo da garantire la sicurezza negli ambienti in cui gli utenti si muovono, l'inclusione, l’assistenza e la salute per una migliore qualità della vita.
Le attività di ricerca prevedono il design e lo sviluppo di algoritmi avanzati di Intelligenza Artificiale basati su tecniche di Imitation, Reinforcement e Self Learning, in grado di elaborare segnali multimodali acquisiti mediante diversi dispositivi indossabili (wearable cameras, body sensors, ecc.) sfruttando il paradigma dei sistemi “first-person”.

Risorse finanziarie
Il progetto è stato finanziato dal PON Ricerca e Innovazione 2014-2020 nell’ambito dell’azione Dottorati Innovativi con caratterizzazione industriale, XXXIV ciclo - Anno Accademico 2018-2019. Per la realizzazione di questa iniziativa l’Università degli studi di Catania, beneficiaria di un finanziamento di 89.040,87 euro, ha attivato una borsa di dottorato triennale in Informatica nell’ambito del Dipartimento di Matematica e Informatica.

Impatto sul territorio
Il progetto si inserisce nell’area di specializzazione Fabbrica Intelligente e ha un elevato grado di innovazione con ricadute sul mercato delle applicazioni di Intelligenza Artificiale, Computer Vision e Machine Learning che nell’ultimo decennio ha visto il diffondersi di dispositivi indossabili dotati di capacità computazionali, sensori inerziali, gps, telecamere, visori per la realtà aumentata e armband. Tali dispositivi, già in commercio, permettono di pensare a nuovi sistemi intelligenti capaci di supportare l’utente che li indossa nello svolgimento di compiti specifici e possono essere utilizzati per acquisire informazioni in prima persona che possono essere trattate mediante algoritmi di machine learning e computer vision al fine di comprendere in automatico le azioni effettuate dagli individui, il contesto in cui gli individui si muovono, e il comportamento dell’utente.
Lo scopo del progetto è quello di avanzare lo stato dell’arte nel contesto dell’analisi dei segnali in prima persona al fine di creare algoritmi che siano in grado di creare modelli di imitation and self-learning così da trasferire le competenze di soggetti umani a piattaforme robotiche e/o sistemi di assistenza in specifici contesti applicativi industriali oppure di vita quotidiana (es. comprendere ed indicare all’utente come eseguire un’azione complessa composta da diversi passi). I risultati ottenuti saranno oggetto di pubblicazioni in atti di convegno e riviste di carattere internazionale e si valuterà la possibilità di brevettare le soluzioni prodotte insieme agli altri partner del progetto. Il dimostratore sviluppato sarà presentato ad associazioni ed imprese del contesto applicativo di riferimento al fine di poter raccogliere feedback e rendere le soluzioni proposte industrializzabili e capitalizzabili.
Il progetto prevede un periodo di 9 mesi presso la OrangeDev srl, azienda siciliana di sviluppatori, con esperienza nell’elaborazione di grosse moli di dati mediante algoritmi di machine learning e sulla localizzazione di piattaforme robotiche che navigano negli ambienti, e un periodo di 9 mesi presso il Department of Computer Science and Electronic Engineering, University of Essex, nel Regno Unito.


05/11/2021
torna all'inizio del contenuto