Automotive & Geomatica

Category: GNSS, IoT, Neogeografia, Positioning, Senza categoria, smart geography, UAV 76 0

GNSS, SLAM e V2X le chiavi del futuro delle macchine autonome

La convergenza tra le tecnologie è da sempre un naturale percorso di crescita legato al cambio dei paradigmi generali della società, in maniera più o meno accentuata, ma inevitabile e imprescindibile. Questo è uno di quei periodi in cui i paradigmi stanno velocemente cambiando, e la convergenza delle tecnologie lo dimostra ancora una volta.

Land Rover’s fully autonomous LR3 created by Team MIT for the DARPA Urban Challenge (2007).

Stiamo parlando della mobilità automatica, della macchina del futuro, del tempo liberato che ognuno di noi avrà a disposizione non dovendo guidare il mezzo di trasporto personale.
L’automobile sarà guidata da un sistema hardware/software gestito da un processo AI.

E in tutto questo Il mondo dell’automotive è tra i più attivi e inclini a stimolare l’uso delle nuove tecnologie geospatial & sensing, ovvero le tecnologie impiegate in campo geospaziale.
Impiegate dapprima per rilevare gli scenari di mapping come la cartografia 3D che alimenterà i 3D City Models, e successivamente per mappare gli ostacoli o il contesto geo-volumetrico sulla direzione di marcia dei veicoli autonomi del futuro.

Di fatto questo processo anche se a piccola scala, è in parte iniziato con l’apposizione sulle macchine dei sensori di parcheggio, che distribuiti sui paraurti fino alle estremità, ne disegnano la mappa della volumetria che  permette di effettuare l’operazione di parcheggio controllata e anche automatica.

La storia della guida autonoma nelle attività di DELPHI, una delle aziende leader di settore.

Ma stiamo parlando di sensori singoli e già in uso da qualche anno, mentre la prospettiva di crescita delle tecnologie a bordo dei veicoli sta subendo una forte accelerazione, soprattutto in funzione della prospettiva di convergenza tra le tecnologie LIDAR e di navigazione assistita e controllata dei veicoli a guida autonoma, su cui i colossi delle tecnologie si stanno cimentando in vista della diffusione delle macchine autonome nell’arco dei prossimi 20 anni.

Su queste pagine sono già apparse news relative ai sistemi LIDAR, ma mai ancora erano apparse informazioni sulla convergenza tra tecnologie così diverse come quelle di cui vi parliamo nel prosieguo di questa nota informativa.

I nomi che abbiamo dato ai paragrafi che seguono, o alle tecnologie che vi andiamo ad illustrare, non sempre rientrano nel pensiero topologico corrente, e spesso sono un semplice retaggio di chi scrive, ma per noi non è un problema, l’importante è che voi lettori riuscite a capire di cosa stiamo parlando.

Una porzione di circuito stradale rilevato via LIDAR.

Lidar– di fatto le tecniche LIDAR sono conosciute da oltre un trentennio, e come ogni cosa sono nate nel cuore pulsante dei laboratori di supporto alle tecnologie di guerra. Lidar non vuol dire altro che LASER dosato sapientemente, e finalizzato a conoscere la distanza tra un sensore e il suo target. Filologicamente è l’acronimo o sigla di Light Detection and Ranging. E’ una tecnologia che ha avuto grande diffusione dagli anni 80 in poi, sia come sistema a bordo di velivoli aerei, sia come tecnologia terrestre che ha visto la suo forte crescita dapprima in campo industriale, e poi in campo civile e in applicazioni architettoniche e territoriali. Stiamo parlando del cosiddetto Laser Scanner, che è considerato a tutti gli effetti un mappatore 3D tra i migliori. Un sistema che come dico io spesso ai miei discenti, crea il calco digitale della realtà come poche soluzioni al mondo. Lavora anche in assenza di luce, e l’unico difetto che ha è che lavora nella sua perfetta ignoranza e non fa fotografie a colori. Per quelle servono condizioni e luce adeguata.
Ma il lidar è stato ed è pur sempre un bell’attore, anche se oggi deve la sua grande notorietà e soprattutto la sua più grande utilità grazie alle macchine autonome, con il compito indiretto di salvare vite umane ed anche animali.
Chi non lo usa è infatti già è incappato in un incidente di percorso, andando a cozzare contro un trattore che attraversava la strada, e che guarda caso “era di colore chiaro e…. si confondeva con il cielo“.
Joshua Brown di 40 anni dell’Ohio che era alla guida come tester di una TESLA S è ovviamente deceduto, e Tesla ha dovuto ammettere le sue colpe, modificando il programma per la visione artificiale di cui una automobile-robot deve per forza di cose essere dotata.
Se l’autonomous car fosse stata dotata di sistema LIDAR, con molta probabilità l’incidente non sarebbe accaduto.
Considerate inoltre che la tecnologia LIDAR è stata la prima ad essere impiegata da chi ha partecipato ai famosi DARPA Grande Challenge sui sistemi autonomi di guida (https://en.wikipedia.org/wiki/DARPA_Grand_Challenge), la cui prima esperienza risale al 2004.

Bene, fin qui le anticipazioni, e da qui in poi è tutto più semplice, perchè il mercato moloc delle automobili robot ha già ridotto la tecnologia LIDAR allo stato di commodity, riducendone le dimensioni e portando il lidar a diventare una tecnologia allo stato solido, che comunemente significa fondere insieme i sensori e una buona parte delle intelligenze che servono a gestirli. In questo caso il solido non è altro che una sorta di parallelepipedo di pochi centimentri di spessore, comunemente in plastica fusa, che si ingloba nell’accessorio più comune di un’ automobile; ovvero i fari. Bene, se andate alla news del 13 gennaio 2017 ( http://www.geo4fun.com/la-tecnologia-lidar-diventa-per-tutti-con-quanergy/)  sul blog di Geo4Fun, ne abbiamo già parlato, e se vi sintonizzate su google alerts con la parola chiave LIDAR, non riceverete che notizie di alleanze tra aziende specializzate in sistemi LIDAR allo stato solido e aziende del settore automotive. Il LIDAR  diventa quindi un accessorio embedded nelle automobili del futuro.

Ecco finito il ciclo di vita di questa tecnologia, così come sta avvenendo per molte altre del settore del ”sensing”, ovvero di quel processo in cui, come si è sempre detto nel volgo lavorativo, “si prendono le misure”, ci si orienta, si intraprende un processo di “sensing” o di messa insieme di “saperi + dimensioni” basandosi su più tecnologie.

Il cielo è affollato di sistemi satellitari per il positioning.

GNSS– le applicazioni GNSS da sempre sono a supporto della navigazione, del positioning necessario al controllo remoto di flotte di mezzi di qualsiasi natura. É noto a tutti che una delle rivoluzioni del secolo scorso si chiama infatti GPS, o come meglio era cjiamato agli albori NAVSTAR GPS. Con l’avvento di altri sistemi come GLONASS, GALILEO, etc., la tecnica e la configurazione muta da GPS a GNSS per la sua globalità di sistemi satellitari impiegati insieme. Un raro esempio di trasversalità economica e tecnologica che supera le frontiere della politica dei blocchi economici mondiali contrapposti. Ma il GNSS da solo non può supportare l’evoluzione possibile dei sistemi, ed è così che il concetto si allarga al PnT, di cui si parla di seguito.

Augumented PnT– rappresenta il nuovo trend delle applicazioni multi-satellite. Il mondo dell’augumentation rappresenta l’ultima frontiera dei sistemi di posizionamento e/o di localizzazione mista terra-satellite.

D’altronde il termine “augumented” serve proprio a specificare che senza il latino “augumentāre” è difficile “validare” qualsiasi dato di posizione o di tempo. La necessità storica è oggi di fatto, quella di poter avere certezza e sicurezza del dato. Sicurezza e certezza sempre più legate all’uso dei dati di “positioning” in applicazioni critiche che possono mettere a repentaglio la vita umana o le operazioni critiche di “droni”, velivoli e una moltitudine di sistemi a navigazione autonoma che nei prossimi decenni invaderanno un po tutti i campi.
Il mondo del PnT diventerà quindi l’aspetto critico della sicurezza, ed è proprio su questa scia che si muoveranno gli operatori del settore nei prossimi anni, visto che il maturo mondo dei veicoli autonomi sarà tra noi a breve. Con tutte le criticità e l’esigenza di impiegare soluzioni a prova di hacking in tutte le direzioni.
Questo è il senso che possiamo dare alle apparenti fughe in avanti dei padri del GNSS come Gerard Lachapelle, che all’ultimo IGAW 2017 ha presentato una relazione convergente proprio sul problema della mobilità autonoma. Relazione che vi invitiamo a leggere, per comprendere fino in fondo la complessità della materia “positioning”, e introdurci così al concetto di “V2X” (Vehicle 2 Everything) alla base della tecnologie delle macchine autonome.
Tutto il resto è rappresentato invece dalle tecnologie di prossimità e di sensing, nel dominio allargato della tecnologia LIDAR e dell’IMAGING, che assumono invece il ruolo primario dei sistemi autonomi nel campo della robotica e dei sistemi cosiddetti “autonomi”.

La convergenza tra IoT e GNSS passa per Ublox, una delle prime aziende a realizzare la convergenza tra GNSS e IoT

SDR & IoT – il mondo delle radiofrenquenze, radio, sistemi di comunicazione, ed altro ancora, da oltre dieci anni è passato al digitale di basso livello. Ovvero digitalizzando alla fonte i segnali radio in entrata e in uscita da un’antenna, per gestirli come meglio si vuole. Criptazione e molte altre applicazioni lato end user, ma anche gestione in sicurezza di comunicazioni radio negli scenari militari o di sicurezza in generale.

Con l’SDR tutte le comunicazioni e i segnali diventano digitali, ivi compreso il mondo del wi-fi, dei satelliti di posizionamento come GPS,GLONASS, etc., e alla stessa maniera delle reti specializzate per l’IoT come SigFox e altre.

L’IoT e l’SDR possono svolgere una sinergia veramente unica nel mondo digitale del futuro, un mondo dove il “cosa e dove” diventeranno vitali a molteplici livelli. Non più applicazioni specifiche GIS o Positioning Based o specializzate come abbiamo visto fino ad ora, ma applicazioni generaliste che gestiranno le informazioni geografiche e di posizionamento, in maniera nativa dentro applicazioni che controllano device, processi e funzioni operative vere e proprio.

Non ci vuole molto a capire che la robotizzazione della società, o l’automazione sempre più spinta, hanno bisogno di un salto di qualità nelle tecnologie del positioning che necessitano di superare la frontiera indoor/outdoor, ma anche quella dell’autonomous guide del nuovo mondo dei VPS (Visual Positioning System), che sta già dando i suo frutti a bordo dei droni consumer come DJI ed altri. L’IoT diventa così la componente che interfaccia gli oggetti o i sistemi, mentre l’SDR permette di gestire via sw qualsiasi problema di comunicazione, scalando le priorità di sicurezza secondo algoritmi che posso chiamare in causa anche sistemi token based o altre modalità di validazione come le blockchain.

SLAM  & LIDAR
– la prima è di fatto un metodo e un algoritmo che permette di usare i dati LIDAR in maniera più veloce e in tempo quasi reale. Mentre la seconda è la vera tecnologia di cui abbiamo già parlato. Ma quale è la vera sinergia tra un approccio SLAM e i sensori LIDAR ? Difatti la sinergia è corroborata dai dati degli accelerometri e da una tecnica di analisi geometrica dei dati laser, quale il lidar di fatto è. Nell’ambito dell’automotive il processore di dati SLAM ha un grande carico di lavoro, e probabilmente insieme a motori di AI potrà permettere l’uso veramente intelligente dei dati LIDAR, che rimangono a tutti gli effetti una inerte semina di punti che in qualche maniera descrivono lo spazio e i volumi dell’ambiente esterno al vettore in movimento, ma che hanno bisogno di essere interpretati. Il problema principale è quindi il riconoscimento degli ambienti per cosi dire non mobili (mapping features), e anche di quelli dinamicamente significativi, ovvero in movimento come pedoni, altri velivoli, etc. Tutto lavoro per il mondo dell’AI e del machine learning.

Full 3D & 3DCity Models– il mondo del 3D è nella maturità tecnologica di questo periodo storico, e in maniera naturale fa ormai parte delle informazioni indispensabili per l’uso di molti sistemi o tecnologie di visualizzazione. E’ quindi naturale che i sistemi di localizzazione visiva o di mapping, passeranno dallo stato standard a “Sistemi di Localizzazione e Mapping 3D“. Per fare ciò i database cartografici si arricchiranno delle informazioni mancanti o meno utilizzate, e di conseguenza la cartografia delle aree urbane pian piano passerà dallo stato di 2.5 D a quello di “Full 3D”, ovvero di 3D nativo.

Le informazioni, le tecniche e l’uso di quanto affermato poc’anzi, passa necessariamente per il concetto dei 3D City Models, che pur nella loro lenta implementazione, diventeranno via via indispensabili per le macchine autonome e per la robotica in generale. Due ambiti che hanno una impellente necessità di muoversi in un “Ambiente Cartografico Full 3D”, così come è già d’uso con gli UAV, che negli scenari operativi hanno già necessità di modelli digitali del terreno o di veri e propri modelli 3D necessari ad esempio per effettuare il mapping specialistico in ambiti urbani.

Una economia convergente

Decine di scenari sui sistemi di guida ADAS

Il mondo dell’automotive è chiaramente un mondo a parte dove i budget sono stratosferici così come nel mercato delle applicazioni militare, e tutto questo ci conferma ancora una volta che l’investimento in ricerca paga sempre, anche se a distanza di decenni. E se non volete crederci così d’emblée, basta forse tenere presente alcune news degli ultimi 12 mesi dal mercato delle soluzioni orientate all’automotive. Infatti l’israeliana Mobileye è stata acquisita da Intel per 15 Mld di $, ovvero 118 volte il margine industriale attuale che vuol dire almeno il 34% in più della quotazione di borsa. Cosi l’olandese Nxp che va a Qualcomm per 47 Mld, mentre la giapponese SoftBank ingloba la britannica Arm Holding per 32 Mld, e infine il leader delle schede grafiche Nvidia si cimenta con l’AI e la guida autonoma fornendo a Tesla e Daimler i “supercomputer” che supportano le “self-driving capability”. Non più soltanto schede grafiche per i videogiochi e le applicazioni professionali, ma calcolo parallelo al servizio dell’automotive. D’altronde uno dei sistemi più diffusi di “sensing and avoid” è prodotto da Intel, ed è la dotazione standard di diversi droni della DJI.

dsgeo57@gmail.com

Approfondimenti tematici

Lidar

GNSS
Un solo riferimento può essere utile per capire l’affollamento in cielo dei sistemi di posizionamento – https://upload.wikimedia.org/wikipedia/commons/b/b4/Comparison_satellite_navigation_orbits.svg

Augumented PnT

La relazione di C.Lachapelle all’ultimo IGAW – http://www.sogei.it/flex/cm/pages/ServeAttachment.php/L/IT/D/3%252F5%252Fa%252FD.6438446e47b06829894a/P/BLOB%3AID%3D1497/E/pdf

SDR & IoT
Il sito giusto da cui partire è il progetto GNSS – SDR, sponsorizzato dal Centro per le Tecnologie di Telecomunicazioni della Catalogna.
https://gnss-sdr.org

SLAM & LIDARLa voce di wikipedia in inglese è il migliore degli approfondimenti possibili –https://en.wikipedia.org/wiki/Simultaneous_localization_and_mapping

PnT La relazione di Gerard Lachapelle all’ultimo IGAW 2017
http://www.sogei.it/flex/cm/pages/ServeAttachment.php/L/IT/D/3%252F5%252Fa%252FD.6438446e47b06829894a/P/BLOB%3AID%3D1497/E/pdf

Full 3D & 3DCity modelsBasta esplorare il 3DCityDB per toccare con mano il mondo della futura cartografia di ausilio ai sistemi autonomi in volo e a terra – https://www.3dcitydb.org/3dcitydb/3dcitydbhomepage/

Automotive

 

Related Articles

Add Comment

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fonire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o clicchi su "Accetta" permetti al loro utilizzo.

Chiudi