Descrizione e scopo
Nonostante gli impressionanti progressi nella tecnologia dei veicoli senza conducente, esistono ancora diverse limitazioni. La maggior parte di esse è legata alla capacità dei sistemi autonomi di percepire efficacemente gli oggetti e gli eventi nell'ambiente e di elaborare comandi di navigazione e reazione tempestivi. Il fulcro di questo progetto è lo studio di soluzioni multimodali di percezione-azione per affrontare tali questioni e sviluppare strutture in grado di vedere e interpretare anche oggetti ed eventi al di fuori del campo visivo.
Sito Web: https://isar.unipg.it/project/lisa-listen-see-and-act/
Finalità
Questo progetto mira a dotare i veicoli autonomi di nuove capacità di percezione-azione che si basano su fonti di dati multiple ed eterogenee. In particolare, sfruttiamo la combinazione di informazioni visive e audio per ottenere una rappresentazione più robusta, efficiente e descrittiva dell'ambiente circostante il veicolo. Il suono, infatti, è in grado di fornire una percezione omnidirezionale, superando i limiti imposti dalle occlusioni e migliorando così la consapevolezza del veicolo della scena.
Risultati attesi
Abbiamo lavorato per:
· Sviluppare metodi e modelli per rilevare e localizzare eventi acustici in scenari urbani;
· Generare una rappresentazione congiunta di eventi audio/video per consentire lo sviluppo di sistemi multimodali che modellino le relazioni spazio-temporali degli input audio/video.
· Sviluppare metodologie di percezione-azione per mappare i segnali audiovisivi ai comandi di controllo del veicolo e migliorare le capacità di navigazione autonoma.
Risultati raggiunti
Il progetto sta procedendo come previsto, raggiungendo gli obiettivi e le tappe fondamentali secondo il calendario previsto. Nello specifico, i nostri sforzi hanno portato allo sviluppo di una pipeline di percezione audio-video per il rilevamento e la localizzazione di eventi in scenari urbani. Inoltre, abbiamo creato un simulatore audiovisivo, completamente personalizzabile, per la raccolta dei dati e il collaudo dei nostri moduli di percezione-azione. Attualmente stiamo lavorando alla valutazione finale dei nostri sistemi nel mondo reale.