Sono Vincenzo Lipari, e ho sempre lavorato presso il dipartimento di elettronica, informazione e bioingegneria del Politecnico di Milano dove attualmente sono un tecnologo responsabile delle attività di geofisica del laboratorio ISPL del dipartimento di elettronica, informazione e bioingengeria del Politecnico di Milano. Mi sono laureato in Ingegneria delle Telecomunicazioni nel 2002 e fin dalla tesi di laurea mi sono occupato di processing dei dati sismici, in particolare la mia tesi si occupava di migrazione di Kirchhoff. Ho continuato le ricerche durante il mio dottorato sempre nel gruppo di ricerca del professor Drufuca occupandomi di migrazione di Kirchhoff nel dominio degli angoli in profondità. Sono quindi rimasto nel gruppo del professor Drufuca assumendo sempre più compiti di coordinamento, seguendo tesisti e dottorandi e collaborando con Eni. In quest’arco di tempo mi sono occupato di diversi problemi, dalla predizione delle multiple, all’imaging delle diffrazioni, dall’anisotropia alla regolarizzazione della tomografia a riflessione e ultimamente,i di Reverse Time Migration e soprattutto di Full Waveform inversion. Negli ultimi anni con la fusione del vecchio gruppo del professor Drufuca all’interno di ISPL ho iniziato a interessarmi sempre di più anche degli aspetti relativi al machine learning e del deep learning ed alla loro possibile applicazione alla geofisica.
Vincenzo Lipari

Research Technologist, Politecnico di Milano

Sono Paolo Bestagini, e sono un ricercatore dell’“Image and Sound Processing Group” (ISPL) al Dipartimento di Elettronica, Informazione e Bioingegneria (DEIB) del Politecnico di Milano. Lavorativamente parlando sono nato e cresciuto al Politecnico. Mi sono laureato in Ingegneria delle Telecomunicazioni nel 2010, e ho ottenuto il dottorato di ricerca in Information Technology nel 2014 al Politecnico di Milano. Dopo il dottorato di ricerca ho sempre lavorato al DEIB, prima come PostDoc, e ora come ricercatore. Ho iniziato la mia carriera di dottorando occupandomi di metodi per la localizzazione di sorgenti acustiche tramite schiere di microfoni. Data la multidisciplinarietà del gruppo ISPL e i nuovi progetti di ricerca entranti mi sono presto avvicinato al mondo dell’analisi forense di audio, immagini, e video, che oggi è il mio principale tema di ricerca. Per quanto riguarda gli strumenti utilizzati nella mia ricerca, all’inizio sicuramente sfruttavo molto conoscenze nell’ambito dell’elaborazione dei segnali. Mi sono man mano avvicinato al mondo del machine learning. Grazie all’ingresso di Vincenzo nel gruppo mi sono avvicinato anche al mondo dell’analisi di dati di natura geofisica, cercando di applicare strumenti di machine learning.
Paolo Bestagini

Assistant Professor, Politecnico di Milano

Sono Francesco Picetti, dottorando nel gruppo ISPL. Mi sono laureato con una tesi di analisi di campi acustici con schiere di microfoni, per localizzazione di sorgenti e manipolazione di scene sonore. Dopo la laurea, ho iniziato a lavorare con Paolo ed Enzo sull’elaborazione di immagini geofisiche con tecniche di deep learning, dai ground penetrating radar alle acquisizioni sismiche e Reverse Time Migration.
L’anno scorso sono stato in visita allo Stanford Exploration Project, gruppo guidato dai professori Biondo Biondi e Jon Claerbout. Attualmente collaboro con i loro studenti ad una libreria di ottimizzazione numerica per cluster HPC.
Francesco Picetti

PhD Student @ ISPL, Politecnico di Milano

 

Voi fate parte del Dipartimento di Ingegneria delle Telecomunicazioni di PoliMI…per quali scopi era stato fondato il gruppo ISPL? Come è evoluto nel tempo?  

 PB: Il DEIB è sicuramente una grande realtà all’interno del Politecnico di Milano. Conta su oltre 1000 professionisti, tra cui circa 200 professori, 50 ricercatori, 200 assegnisti di ricerca e oltre 350 dottorandi. L’attività di ricerca è sicuramente molto prolifica in ambiti che spaziano dall’informatica, all’elettronica, alle telecomunicazioni, all’automazione e anche alla bioingegneria. Ogni anno vengono erogati al DEIB oltre 500 insegnamenti divisi in diversi percorsi di laurea triennale, specialistica e dottorato, cosa che attrae indubbiamente molti studenti anche dall’estero. L’ISPL è uno dei molti gruppi di ricerca del DEIB. Nasce nel 1993 con l’obbiettivo di sviluppare tecniche di elaborazione di segnali multimediali (audio, immagini e video). Una delle caratteristiche del gruppo è la stretta collaborazione tra persone che si occupano di analisi di segnali di natura anche molto diversa tra loro. Troviamo chi si occupa di space-time processing per segnali audio (localizzazione di sorgente, ricostruzione di ambienti audio, etc.), chi si occupa di elaborazione di immagini e video (analisi forensi, ricostruzioni 3D, monitoraggio di processi industriali, etc.), chi è specializzato nell’ambito del music information retrieval (generazione di playlist musicali, analisi e classificazione di brani, etc.). Da qualche anno, soprattutto grazie a Vincenzo, ci si occupa anche dell’analisi di dati geofisici. Ci tengo però a sottolineare che non siamo assolutamente l’unico gruppo a toccare questi temi all’interno del DEIB, e ci sono altri gruppi con grande esperienza che si occupano con successo di svariati problemi geofisici (sismica, radar, etc.) da diversi anni.

VL: Per quanto riguarda la storia passata direi che al DEIB c’è una lunghissima storia di ricerca in geofisica portata avanti dal Prof. Rocca e dal Prof. Drufuca, Come  ho detto prima io ho collaborato a lungo con Drufuca con compiti sempre più di coordinamento e che a valle della sua prematura scomparsa ci siamo posti il problema di come portare avanti la geofisica al Dipartimento e ci siamo uniti al gruppo ISPL. Questa è stata una scelta strategicamente efficace perché ciò ha permesso di usare in modo sinergico le competenze di image processing, machine learning, elaborazione numerica dei segnali e geofisica per affrontare problemi di elaborazione analisi, classificazione di dati geofisici.

 

Le reti neurali utilizzate vengono oggi utilizzate per l’interpretazione, il processing e la migrazione dei dati sismici: quali sono gli ambiti di innovazione ed applicazione?

VL: Quando il gruppo di geofisica si è unito a ISPL abbiamo da subito iniziato a pensare alle possibili sinergie e, dato che nell’ambito del multimedia il machine learning ed il deep learning erano già diffusi ci è stato chiaro sin dall’inizio, e direi che siamo stati fra i primi, come queste tecniche potessero essere utili nella geofisica ed abbiamo iniziato subito a cercare potenziali applicazioni. Ad un certo punto abbiamo notato un articolo su The Leading Edge sulla predizione di facies litologiche da dati di pozzo e abbiamo visto che era associato ad una challenge promossa dal SEG. Direi che è stato il punto di svolta che ha dato visibilità sia a noi, che un impulso al machine learning nella comunità geofisica. Noi siamo arrivati terzi nella classifica finale della challenge ma abbiamo introdotto alcune soluzioni, grazie alle nostre competenze specifiche di machine learning, direi di Paolo soprattutto, che si sono rivelate importanti e sono state adottate da tutti i teams che si sono classificati nelle prime posizioni. Questo ci ha fatto capire ancora di più come il lavoro sinergico di esperti di machine learning e di esperti nel dominio specifico di applicazione fosse la chiave per il successo di questi metodi. Apro una parentesi, proprio in questi giorni abbiamo partecipato ad un’altra challenge sullo stesso tema anche questa volta con un ottimo risultato. Da allora abbiamo cercato attivamente di trasferire le competenze di machine learning e deep learning e abbiamo trovato ambiti di applicazione sia nel pre-processing di dati sismici, che nell’ imaging e nei problemi inversi, che infine nell’interpretazione.

 

FP: I principali e più recenti studi di cui vorremmo parlarvi sono:

  1. PoliMine: sminamento umanitario con Ground Penetrating Radar e CNN. Una volta acquisito il volume di dati, una CNN allenata come anomaly detector predice la presenza o meno di oggetti sepolti.
  2. Wavefield compression: una unet impara a “continuare” la propagazione FD nello spazio latente. Ciò permette di salvare il campo in una rappresentazione più compatta. I metodi allo stato aggiunto vogliono il campo salvato.
  3. GAN per regolarizzare Tomografia Crosswell
  4. GAN per post-processing di immagini migrate
  5. GAN per deconvoluzione dell’operatore Hessiano
  6. DIP Interpolation: risolvere il problema di interpolazione nello spazio delle feature di una CNN invece dello spazio del modello.
  7. Challenge pozzi 2017 e 2020

 

Spesso sentiamo dire che Artificial Intelligence e le reti neurali sono diventate in qualche maniera una nuova moda, anche quando si potrebbero usare approcci physically consistent. Qual è il vostro punto di vista a riguardo? 

 VL: Che Artificial Intelligence e Reti neurali siano una moda è indubbio. E come tutte le mode c’è il rischio di una bolla ed è probabile che alla moda potrebbe seguire una disillusione. Però per evitare di buttare via il bambino con l’acqua sporca bisogna a mio avviso fare un po’ di ordine sulle motivazioni e sull’origine di questo sviluppo. Il tutto nasce a mio avviso dalla crescita senza precedenti di compagnie come Google e Facebook il cui imperativo è estrarre sempre più informazione dai dati, questo ha portato a grandissimi impulsi alla raccolta di dati con qualsiasi mezzo, specialmente tramite i dispositivi mobili, e alla creazione dei cosiddetti Big Data. La stessa cosa ha incentivato lo sviluppo e la diffusione, da un lato di risorse di calcolo sempre più potenti e a buon mercato e dall’altro lo sviluppo di framework di elaborazione di dati e di reti neurali molto semplici da utilizzare. Queste cose, unite ai successi ottenuti nell’ambito della computer vision, da un lato hanno convinto aziende in tutti i settori a effettuare grandissimi investimenti in machine learning, deep learning e data science, forse con l’idea obiettivo che una macchina possa fare ciò che dovrebbe fare un esperto, dall’altro lato la facilità di utilizzo ha spinto molti ricercatori a buttarsi in questo ambito utilizzando soluzioni preconfezionate prese ad esempio dalla computer vision senza una vera comprensione di cosa si sta facendo. Il mio parere è che forse c’è troppo entusiasmo per cui si pensa che la cosiddetta Intelligenza Artificiale sia lo strumento per tutto e, si vede già in alcuni settori, fra un po’ si potrebbe passare all’accesso opposto di scetticismo, mentre io credo che bisognerebbe prendere queste cose per quello che sono, degli strumenti molto potenti e molto utili di cui ancora non c’è piena comprensione, e che necessitano di esperti sia di machine learning e deep learning che dello specifico ambito di applicazione che devono lavorare sinergicamente.

 Tornando alla domanda iniziale e calandola nella nostra esperienza:

    Certamente ho visto utilizzi di Reti Neurali Convolutive complicatissime proposte per task semplicissimi in cui un approccio model based funziona bene e molto più rapidamente. 

Si vedono anche tante cose che sono interessanti proof-of-concept ma ancora lontanissimi da una applicazione pratica.

      Bisogna tener conto che la geofisica è in un certo senso più complessa dell’elaborazione delle immagini per tutta una serie di motivi. L’enorme varietà di situazioni e la conseguente difficoltà di generalizzare, l’assenza in molti casi di un ground truth, la dinamica dei dati in gioco, l’importanza di un approccio quantitativo…

      Quindi la sfida è far convivere e lavorare sinergicamente l’approccio “physics based” con il machine learning in entrambe la direzioni. Da un lato utilizzando l’informazione estratta dai dati come un aiuto agli approcci tradizionali, penso ad esempio alla possibilità di estrarre dai dati dei regolarizzatori per i problemi inversi che non possono essere facilmente formulati in forma chiusa, nell’altra direzione cercando di inserire dei vincoli fisici nell’apprendimento.

Un altro ambito in cui il deep learning potrà essere sicuramente utile è nell’aiutare in tutta una serie di compiti routinari. Penso ad esempio all’interpretazione o al QC dei dati, il deep learning potrebbe essere utile in tutte per un primo screening liberando gli esperti dai compiti ripetitivi per dedicarsi ai casi più difficili.

PB: Concordo con quanto dice Vincenzo. Sicuramente oggi il deep learning va di moda, e questo influisce sul fatto che sia applicato anche in situazioni poco giustificabili in cui metodi più classici funzionano comunque molto bene e a basso costo. D’altra parte, avere a disposizione uno strumento molto efficace e non usarlo è comunque un errore. Io sono convinto che oggi sia importante capire per quali applicazioni gli strumenti di learning possano essere interessanti. Magari oggi produciamo poco più di una proof-of-concept, ma un domani l’idea potrebbe essere portata in produzione. Un altro punto su cui mi trovo molto in accordo con Vincenzo è che non per forza deep learning voglia dire automatizzare completamente dei processi. Credo sia utile pensare alla possibilità di automatizzare una parte di un task, in modo che gli operatori esperti possano sfruttare meglio il loro tempo focalizzandosi sui casi più difficili.

Parte 1
Parte 2