Digital twin
Ascolta l'articolo
Oggi vi voglio parlare di Digital Twin, un altro dei pilastri, a mio avviso, di una moderna strategia digitale, in particolare per aziende manifatturiere, che ovviamente hanno a che fare con sistemi fisici.
È questo uno dei casi in cui mi pare che non si possa proprio fare a meno di utilizzare la forma inglese: penso che ben pochi capirebbero di cosa si sta parlando se dicessi “gemelli digitali” (forse un nuovo gruppo musicale?); invece l’espressione inglese, anche se ancora non proprio conosciuta da da tutti, è molto presente in tutti gli ambienti in cui i studia come sfruttare al massimo le più moderne tecniche ICT per ottenere il massimo dalla propria azienda, trasformandola in una “learning organization”.
Definizione di Digital Twin
Ma un momento: cos’è un Digital Twin? Esiste una definizione di per sé molto ampia (probabilmente anche troppo): una replica virtuale di un prodotto fisico, sistema o processo. Noi, però, pensiamo in particolare ad un Digital Twin in presenza di un Cyber-Physical System (CPS), cioè di un sistema in cui si realizza un’importante convergenza tra un sistema fisico ed un sistema informatico. Giusto per non perdersi dentro i paroloni, un paio di esempi su cui noi abbiamo lavorato, in campo agricolo questa volta, sono la gestione di una serra e l’ottimizzazione dell’irrigazione di un campo coltivato.
Il Ruolo dei Sistemi Digitali nella Gestione dei Sistemi Fisici
I campi coltivati e le serre sono sistemi fisici che vengono utilizzati da migliaia di anni, ma quello che è successo negli ultimi anni, così come per tantissimi altri sistemi, è che la loro gestione è stata completamente ridisegnata, e resa molto più complessa, con l’utilizzo di strumenti elettronici (sensori, attuatori, …) e digitali (PLC, microcalcolatori, sistemi di trasmissione dei dati, sistemi di analisi remota, … per arrivare fino ai cruscotti ovviamente), che ne automatizzano le funzionalità generando ed analizzando una notevolissima quantità di dati.
Simulazione Fisica e utilizzo di strumenti Open Source
Per gestire e ottimizzare (a proposito, lo ricordate? I sistemi di ottimizzazione sono un altro dei “miei” pilastri ) sistemi di questa complessità, è utile averne una (o anche tante) repliche virtuali, i Digital Twin, appunto, grazie ai quali possiamo capire cosa è successo, cosa sta succedendo e soprattutto cosa succederà al sistema fisico.
In questo scenario, l’aspetto tecnico più tipico, anche se non l’unico, dei Digital Twin è la “simulazione fisica”, cioè quell’insieme di tecniche matematico-ingegneristiche che hanno a che vedere con le equazioni differenziali, nella maggior parte dei casi quelle “alle derivate parziali”. In una serra, ad esempio, anche senza considerare variabili distribuite, ci sono come minimo alcune decine di grandezze fisiche che variano nel tempo (temperature, pressione, umidità, CO2, irraggiamento, ventilazione, massa, …) tutte legate tra loro da equazioni differenziali.
È qui che ci vengono in soccorso le molte librerie Open Source (personalmente, ho una quasi venerazione per la Apache Foundation, che mette a disposizione di tutti strumenti veramente eccezionali) che permettono di trattare queste cose, ma è assolutamente importante anche saperle utilizzare non solo dal punto di vista informatico, ma anche matematico e ingegneristico (si potrebbe parlare a lungo di come le diverse mentalità informatiche, matematiche ed ingegneristiche si devono intrecciare nel mondo dei Digital Twin … chissà … magari prima di Natale riesco a scrivere qualcosa anche su questo).
Un Futuro Complesso e Sfidante
Ovviamente, lo scenario è molto sfidante, oltre a tutto quanto già detto, qui si ha a che fare con tutto il mondo dei Big Data, dell’IoT e, immancabile, il “cloud” … e potete immaginare che non c’entri anche il Machine Learning? Questo ve lo prometto per la prossima volta.
Il cruscotto
Ascolta l'articolo
Nel mio ultimo articolo dicevo tra l’altro come la possibilità di poter tenere sotto controllo con un solo sguardo un sistema complesso è qualcosa che potrebbe permettere alle nostre aziende di fare grandi passi avanti, tanto che lo considero uno dei “pilastri” di una strategia informatica moderna all’interno di un’azienda che voglia migliorare continuamente e quindi diventare una “learning organization”.
Per ottenere questo risultato un cruscotto è lo strumento ideale.
Ovviamente, un buon “cruscotto” (o “dashboard”, se preferite il termine inglese) non è la panacea di tutti i mali e nemmeno garantisce che l’organizzazione si stia orientando nella giusta direzione, ma sicuramente è uno strumento strategico, soprattutto se viene progettato con la mentalità giusta.
Esperienza in una centrale geotermica: lezioni apprese
Qualche tempo fa, mi è capitato di visitare una centrale di produzione di energia elettrica da fonte geotermica. Nella stazione di controllo facevano bella mostra di sé almeno una decina di grandi monitor che riportavano numerosi grafici prodotti in “tempo reale” e valori istantanei e medi di svariate variabili di processo … non ho potuto fare a meno di pormi delle domande.
Se uno di questi grafici o numeri mettesse in evidenza un’anomalia, chi se ne accorgerebbe e, soprattutto, in quanto tempo? L’altra domanda, strettamente correlata, come spiegherò tra poco, è stata: “tutti questi dati dove vanno a finire”?
Interdisciplinarità e competenza
Durante la mia immersione nel mondo geotermico, sono rimasto sinceramente colpito dall’altissimo grado di competenza ed anche di passione messo in campo dalle persone che ho incontrato. Le mie osservazioni si riferiscono ad alcuni aspetti puramente informatici, le cui conoscenze sono giustamente solo in parte corredo di chi deve progettare una centrale elettrica (e lo stesso vale per moltissimi altri tipi di azienda, in particolare le manifatturiere). Ciò su cui vorrei focalizzarmi è evidenziare che se oggi vogliamo mettere in piedi un’organizzazione, in grado di far fronte a tutte le necessità nel modo migliore, è opportuno che questa sia fortemente interdisciplinare ed includa le competenze informatiche.
La gestione delle emergenze: importanza delle avvisaglie
Una situazione di emergenza nasce e si sviluppa progressivamente: inizia con piccole avvisaglie che, se colte per tempo, non creano problemi (qui si potrebbe aprire il capitolo della manutenzione predittiva … ma sarà per un’altra volta). Queste avvisaglie possono essere “falsi positivi”, cioè in realtà non comportare alcun problema, ma è importante non trascurarle. Meglio spendere pochi minuti o qualche ora per accertarsi che tutto vada bene, piuttosto che accorgersi del problema solo quando è già serio.
Limiti dell’umano e vantaggi delle macchine
Avere una (o anche tante) persone che controllano una miriade di dati non è in generale la strategia più efficace. Le persone si stancano, si distraggono, possono avere criteri di giudizio non del tutto omogenei e stabili nel tempo, non possono tenere sotto controllo l’andamento di molte variabili contemporaneamente e la loro correlazione … Tutte queste cose, sono invece proprio le capacità in cui eccellono le macchine.
Caratteristiche di un cruscotto efficace
Un buon cruscotto deve contenere un numero limitato di variabili, quelle in grado di dare il massimo di informazione interessante, ed un insieme di “alert” che compaiono ed attraggono l’attenzione dell’operatore solo nel momento in cui c’è effettivamente bisogno che li noti. Deve poi permettere agli operatori di andare a ricercare, visionare ed approfondire i dati che ritiene più rilevanti in quella situazione specifica, anche nella loro evoluzione temporale precedente l’allarme.
Gestione dei Falsi Positivi: un equilibrio delicato
D’altra parte, bisogna anche cercare di fare in modo che i falsi positivi non siano troppi, perché questo inevitabilmente genera un abbassamento del livello di attenzione: se un certo segnale di allerta viene emesso molto spesso e nella maggior parte dei casi non indica l’insorgere di un problema, inevitabilmente verrà ignorato anche in quelle rare occasioni in cui sarebbe invece importante indagare (quando non venga addirittura disattivato).
L’Importanza dell’analisi dei dati post emergenza
Dunque diventa importante capire anche che fine fanno i dati quando scompaiono dal monitor.
In primo luogo, questi devono poter essere recuperati ed analizzati per capire cosa stia succedendo ora, ma altrettanto, se non più importante è che possano essere analizzati ad esempio per capire in quali situazioni sono stati emessi degli allarmi sbagliati ed in quali altre invece non sono stati emessi, quando sarebbe stato utile.
Machine Learning e miglioramento continuo del cruscotto
Ovviamente qui svolge un compito importante anche il machine learning, argomento su cui ritornerò, ma bisogna intanto considerare che se non abbiamo a disposizione un cruscotto di questo tipo, anche l’efficacia del machine learning rimane da questo punto di vista limitata, con tanti saluti al miglioramento continuo …
Conclusione: il cruscotto come organismo vivo
Non solo: il cruscotto stesso deve essere oggetto di miglioramento continuo, come tutto il resto dell’impianto. È ovvio che bisogna partire avendo studiato bene come possa essere il più efficace possibile, ma la caratteristica più importante è la sua flessibilità ed adattabilità, cioè la capacità di evolvere per diventare sempre più efficace, anche tenendo conto che un impianto di produzione moderno è un organismo non solo complesso, ma anche “vivo”, cioè in continua evoluzione.
L | M | M | G | V | S | D |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |