Dare alle auto autonome anche il senso dell’udito, oltre a quello della vista, così da poter riconoscere oggetti e pericoli anche se fuori dal campo visivo, come ambulanze o persone in angoli ciechi: è l’obiettivo di Lisa, il progetto coordinato dalle università di Parma e di Perugia i cui ultimi progressi sono stati presentati ad Automatica.it 2025, il convegno annuale organizzato dalla Società Italiana Docenti e Ricercatori in Automatica in svolgimento a Perugia.
“Il nostro obiettivo è estendere il campo di percezione delle attuali auto a guida autonoma, in altre parole vogliamo dar loro il senso dell’udito oltre a quello della vista”, ha detto all’ANSA Gabriele Costante, dell’Università di Perugia e uno dei responsabili del progetto Lisa (Listen, See and Act), finanziato con i fondi del Pnrr nell’ambito dei Progetti di ricerca di interesse nazionale (Prin).
“Una delle grandi difficoltà – ha aggiunto – è stata nella ricerca dei dati per addestrare l’auto, ad esempio i suoni reali di quel che un’auto può incontrare”.
I ricercatori hanno realizzati un innovativo simulatore su cui addestrare l’automobile, una sorta di mondo virtuale in cui l’auto ha sperimentato il mondo ‘reale’ fatto non solo di immagini ma anche di suoni e così anche imparare ad associare i suoni e le immagini alle sue fonti. Proprio il simulatore è al centro di una prossima pubblicazione scientifica del gruppo di Lisa e presto verrà rilasciato pubblicamente in modalità open source così da permetterne l’uso anche ad altri ricercatori.
“Ad oggi – ha concluso Costante – stiamo facendo prove sperimentali su una piattaforma reale, ossia un robot su ruote in ambiente controllato, e stiamo implementando le varie strategie che gli consentiranno di percepire l’ambiente circostante e pianificare azioni di conseguenza. Intanto l’obiettivo è quello di poter coinvolgere anche altri partner, tra cui aziende automobilistiche interessate a questa nuova possibile soluzione”.
Riproduzione riservata © Copyright ANSA