Data Fabric è la soluzione alle sfide del data management contemporaneo. Tendenza emergente nell’universo enterprise, Data Fabric (letteralmente tessuto di dati) non è una piattaforma né una soluzione, bensì un concept innovativo per un’architettura dati basata sui principi della decentralizzazione, modularità, scalabilità e copertura dell’intera infrastruttura IT aziendale, dall’edge al cloud. La sua architettura peculiare la rende indipendente dalla industry in cui opera l’azienda, pur trovando applicazioni molto promettenti soprattutto in ambito manifatturiero, laddove infatti la crescita dei dati continua a essere esponenziale.
In altri termini, Data Fabric è un nuovo paradigma che copre e standardizza le pipeline di acquisizione, catalogazione, controllo (governance) e delivery dei dati aziendali. Va al di là del tradizionale concetto di repository centralizzata e, facendo uso di automazione e tecnologie innovative (AI/ML – Artificial Intelligence/Machine Learning), collega tutti i tipi di dati, ne garantisce la qualità e li mette a disposizione dei consumer (professionisti, ma anche applicazioni) in modo sicuro e indipendente dalla loro tipologia e da dove risiedano.
Data Fabric per superare le sfide di gestione del dato
La spinta per una data architecture innovativa dipende dalla crescente complessità dell’ecosistema dati aziendale:
- l’aumento esponenziale delle informazioni a livello di volume e varietà,
- il ricorso sempre maggiore ai dati in streaming (IoT – Internet of Things),
- la dispersione all’interno di complessi modelli hybrid e multicloud contrastano con la rigidità dei data warehouse e rischiano di rendere i data lake, nati proprio per vincere la sfida dei big data, a loro volta dei silos.
Data Fabric è la soluzione a questo straordinario livello di complessità, che rischia di impedire alle aziende la piena e rapida valorizzazione dei dati e ne abbatte le capacità di controllo, con potenziali conseguenze negative in termini di sicurezza e governance del dato. Attraverso la virtualizzazione, uno dei capisaldi dei Data Fabric, le aziende possono gestire tutto il proprio patrimonio in forma centralizzata indipendentemente dall’ubicazione effettiva del dato, ottenendo così una visione olistica (una “big picture”) che semplifica la realizzazione di use case di Advanced Analytics, Data Science, Compliance, automazione di processi aziendali e altro.
La complessità del Data Fabric e il suo business value
Creare un Data Fabric non è immediato né semplice. Nel definire l’architettura del nuovo modello, Gartner mette in guardia le imprese, sottolineando la necessità di implementare e coordinare soluzioni di Data Catalog, Active Metadata Management e algoritmi di Machine Learning, nonché di sfruttare tutta la potenza dei Knowledge Graph. raph.
Di fatto, Data Fabric è un vero e proprio percorso. Sul mercato è possibile trovare soluzioni innovative di data management che coprono un 60%/70% delle capacità richieste dal modello di Gartner, che vanno però completate con lo sviluppo di soluzioni e di integrazioni ad hoc. Come riportato in apertura, la complessità – ma anche il fascino – del Data Fabric consiste nel fatto di non essere una soluzione né un prodotto, ma un’architettura, un paradigma che copre la gestione e il delivery dei dati.
Il business value del Data Fabric è peraltro evidente, considerando che il modello ambisce a creare un one-stop shop per qualsiasi esigenza di accesso e valorizzazione dei dati, rispetto ai quali il nuovo paradigma garantisce qualità e sicurezza, oltre a favorirne la democratizzazione e quindi tutte le iniziative di Self-BI.
L’approccio e i benefici del Data Fabric
Nel percorso che conduce al Data Fabric il consiglio è quello dell’approccio graduale, limitato a specifici sistemi e all’identificazione di use case ben precisi. In caso contrario, i tempi rischiano di abbattere l’efficacia dei progetti.
Data Fabric è un’iniziativa governata dall’IT ma con forti impatti sul business, oltre a essere parte del percorso di trasformazione a tutto tondo: per questo il coinvolgimento di CEO e COO, su input del comparto informativo aziendale, è un requisito irrinunciabile. Seguono passi tecnici come la virtualizzazione dei dati, che per quelli in streaming deve essere senz’altro automatizzata, e l’identificazione di tutti i possibili impieghi dell’AI, dalla gestione dei metadati allo sviluppo di modelli di predictive analytics che il personale non tecnico andrà poi a usare ripetutamente nelle proprie analisi “self”.
Infine, quali potrebbero essere i benefici concreti di un Data Fabric nel contesto di un settore come il manufacturing?
Innanzitutto, la sua flessibilità è ideale per la gestione efficace delle supply chain più complesse, laddove le sorgenti da integrare (interne ed esterne) sono svariate, la latenza informativa rallenta il business e, soprattutto, impedisce alle aziende di rispondere rapidamente ai cambiamenti del mercato.
In era di pandemia e di indefinito “new normal”, la citata latenza informativa pesa molto sulla continuità del business di molte aziende. In tale scenario, Data Fabric è in grado di creare una rete dinamica di informazioni real-time su cui effettuare analisi avanzate e abilitare decisioni data-driven, fino alla realizzazione di un vero e proprio digital supply chain twin.
Il nuovo paradigma di data management è poi uno degli abilitatori della manutenzione predittiva e, grazie alla sua versatilità, è in grado di rendere più efficaci i processi di demand forecasting. In tutti questi modi, un settore critico come la produzione industriale può contare non solo su livelli maggiori di agilità e di produttività, ma anche su una forte resilienza nei confronti di eventi avversi, presenti o futuri che siano.