Dopo tante promesse, le auto che guidano da sole non sono ancora pronte. Non per colpa dei sensori o della potenza di calcolo, in entrambi i casi da anni più che sufficienti: lo scoglio è l’intelligenza artificiale che deve guidare. Indicata anche come AI (dall’inglese Artificial Intelligence), è la capacità che ha un software di interpretare la realtà, risolvere problemi e prendere decisioni. Per svilupparla si ricorre al machine learning, a sua volta basato sul deep learning. Il primo è una forma di autoapprendimento che parte da dati grezzi: per esempio, il software impara come comportarsi a uno stop “guardando” migliaia di ore di video al riguardo. Il secondo è un modo di procedere che imita quello del cervello umano, dove ogni neurone virtuale di una rete neurale si occupa di un solo aspetto anziché dell’intera operazione; per esempio, per interpretare un cartello stradale, uno riconosce la forma, un altro i colori, un altro ancora le lettere e così via.
“Addestrare” in questo modo il software richiede tempo e un’enorme mole di dati. Solo per l’Autopilot della Tesla (che è lontano dalla “vera” guida autonoma) servono 48 reti neurali, addestrate in 70.000 ore per produrre 1000 previsioni per ogni intervallo di tempo. Ma la AI non si limiterà a rivoluzionare soltanto la guida…
La sfida più grande è quella della guida autonoma, che si ha quando il software si sostituisce all’essere umano al volante. Poiché non si può prevedere ogni scenario possibile, l’intelligenza artificiale deve imparare a riconoscere chi c’è sulla strada e anche a prendere decisioni che rientrino nella sfera della sicurezza. Oltre che nelle auto-laboratorio, la guida autonoma è usata per i robot delle consegne a domicilio. Come per le vetture, le difficoltà maggiori riguardano la gestione degli imprevisti; per esempio, quando c’è da attraversare una strada priva di strisce pedonali o con segnaletica carente.
Una forma embrionale di intelligenza artificiale è già usata negli aiuti alla guida (gli Adas): analizzando i dati che arrivano dai vari sensori, l’auto può “vedere” che cosa c’è attorno, identificando pedoni, motocicli, vetture e camion. Alcune, come le Tesla o la Volvo EX90, li mostrano anche nello schermo, per infondere fiducia sulle capacità d’interpretazione dell’ambiente. Allo stesso modo, analizzando le immagini di una telecamera interna, l’auto “capisce” se chi è al volante sia stanco. Una forma semplificata viene impiegata per apprendere gusti e abitudini dell’automobilista: il sistema multimediale può suggerire una destinazione o un tipo di musica.
Nell'immagine qui sopra, al posto del radar, la Subaru usa due telecamere (come gli occhi umani) per aiuti come la frenata automatica: il software riconosce che cosa “vede” e la distanza.
Nell'immagine qui sopra, il guidatore virtuale è “addestrato” in appositi programmi informatici che riproducono scenari realistici di traffico, ricreati anche usando i dati acquisiti dalle auto in strada.
Negli stabilimenti si diffondono i “cobot”: robot che lavorano a fianco degli operai e non separati. Per questo, devono “capire”, grazie all’intelligenza artificiale, quando fermarsi per non ferirli. Ma già si lavora su robot generici, attivi in qualunque ambiente; come il Bot della Tesla, presentato pochi mesi fa. Ma l’intelligenza artificiale ha anche altre applicazioni: si va dalla manutenzione predittiva (il computer, analizzando i dati di vari sensori, “intuisce” quando un pezzo sia da sostituire prima che si rompa) alle previsioni sul traffico e sul rischio di incidenti o di danneggiamenti del fondo in un certo tratto di strada. E, analizzando lo stile di guida, può perfino stabilire la “giusta” tariffa della Rca.
Nell'immagine qui sopra, case come Jaguar e Nissan utilizzano i “tunnel” della DeGould: sensori al loro interno analizzano le vetture (anche usate) alla ricerca di difetti.
Nella fabbrica Audi di Ingolstadt (nell'immagine qui sopra), i pezzi stampati vengono ripresi da telecamere: le immagini sono analizzate dal software, che scova quelli difettosi.