Molte aziende si trovano a fare i conti con un eccesso di tecnologia, di silos, di basse velocità di sviluppo, di nessuna condivisione di metadati e in alcuni casi di soluzioni sbagliate per i carichi di lavoro sbagliati. Occorre un nuovo approccio agile per avere dati business ready
Negli ultimi anni, le pratiche di sviluppo software sono cambiate radicalmente. Sono finiti i vecchi sistemi stile batch per creare prodotti software monolitici con tutte le funzionalità integrate in un’unica enorme applicazione con una nuova versione ogni anno e mezzo. Oggi, abbiamo un nuovo approccio di sviluppo agile con software composto da componenti (i microservizi) in esecuzione in contenitori gestiti da tecnologie open-source come Kubernetes, e distribuiti in ambienti informatici serverless come il cloud. Solo guardando al mercato dei dati e degli analytics negli ultimi cinque anni, si è assistito a un’esplosione di nuovi software, compresi nuovi tipi di database, nuovi strumenti di gestione dei dati e degli strumenti di analisi. C’è stato un vero e proprio diluvio tecnologico. E molte aziende che acquistano software riescono a malapena a tenere il passo.
Architettura dati, sviluppo e delivery - Ci sono lezioni da imparare da ciò che è successo nel mondo del software, specialmente quando si applicano a un’aspirazione che spesso si sente dai manager: quella di voler diventare data driven, cioè essere guidati dai dati. Vogliono che il business sia guidato dagli insights derivanti dall’analisi dei dati. Il problema non è che vogliano essere data driven, ma che vogliano esserlo subito e in modo facile. Soprattutto ignorando che il volume dei dati sia in rapido aumento e che bisogna tenere conto di fonti e dati eterogenei distribuiti sia in locale sia su più cloud. Tanto che i manager approvano con urgenza gli investimenti nelle tecnologie cloud, gestione dati e machine learning. La questione è che con le business unit sottoposte a controlli della spesa, molte aziende hanno finito per acquistare più tecnologie sovrapposte, nella fretta di fornire valore senza necessariamente sapere quali carichi di lavoro fossero più adatti a quali tecnologie, e - soprattutto - prima di creare qualsiasi tipo di architettura dati in grado di fornire il valore di business desiderato. Il risultato è un eccesso di tecnologia, di silos, di basse velocità di sviluppo, di nessuna condivisione di metadati e in alcuni casi di tecnologie sbagliate per i carichi di lavoro sbagliati. L’uso di database di documenti NoSQL come data warehouse, per esempio, è solo una scelta sbagliata. Sarebbe molto meglio se le aziende progettassero prima l’architettura dati per diventare data driven e fornire il valore di business di cui hanno bisogno, e successivamente scegliere le tecnologie che possono operare insieme ed essere integrate, per dare vita a un’architettura dati end-to-end. Inoltre, se si osserva cosa è successo nel mercato del software, la domanda è: si potrebbe fare lo stesso con dati e analytics? In altre parole, potrebbe essere possibile creare un’architettura dati comune e uno sviluppo di dati e analytics basato su componenti, combinato con metodi di sviluppo e delivery continui, agili, a basso costo e più rapidi, in grado di portare a nuovi dati, nuovi analytics, nuovi insights e nuovo valore di business a ritmi rapidi? Potrebbe essere questo il modo di divenire data driven? La risposta secondo me è sì. Bisogna creare prodotti dati e risorse analitiche (per esempio modelli predittivi, modelli prescrittivi, report di BI, dashboard, storie, e altro) per i componenti che vanno assemblati per fornire valore. Bisognerebbe che il data driven diventi un processo continuo di sviluppo e delivery. Per fare questo, serve che le persone costruiscano dati e componenti analitici, mentre altri li consumano, li assemblano e li utilizzano per guidare il valore.
Ecco che cosa fare - Per essere data driven, le aziende devono stabilire un vocabolario di business condiviso di nomi e definizioni di dati per entità di dati logici. Questo è fondamentale non solo per essere in grado di costruire, fidarsi, condividere prodotti di dati riutilizzabili, ma anche per aiutare le persone a capire cosa significano i dati. Prima di tutto occorre utilizzare un software Common Data Fabric al posto di una modalità in cui chiunque utilizza strumenti diversi nei silos per preparare e analizzare i dati. Un approccio più solido è anche quello di razionalizzare e utilizzare un software Common Data Fabric in grado non solo di connettersi ad archivi di dati sia locali sia basati su cloud, ma anche di creare pipeline per preparare e analizzare i dati. Il secondo passo è una supply chain di dati multiuso, dove il fattore critico di successo dipende da come le aziende devono organizzarsi per diventare data driven. Ciò significa istituire una supply chain di dati a livello di intera azienda attraverso la quale realizzare prodotti dati “business ready” che possono essere pubblicati in un marketplace dei dati da cui gli utilizzatori possono cercare i dati. Una supply chain di dati a livello di intera azienda è simile a un processo di sviluppo continuo simile a quello della produzione manifatturiera. Il punto qui è realizzare prodotti dati affidabili, comunemente compresi e pronti per il business, che possano essere riutilizzati in più posti. Il vantaggio è che si possono risparmiare ai consumatori di informazioni considerevoli quantità di tempo perché non devono preparare da zero tutti i dati di cui potrebbero aver bisogno. Si creano invece prodotti o risorse dati già pronti, immediatamente adatti al consumo. Un esempio potrebbe essere rappresentato dai dati dei clienti, dei prodotti, dei dati degli ordini, e altro. Avere i dati pronti all’uso dovrebbe quindi abbreviare il time to value e ridurre i costi. È importante riconoscere il ruolo del data lake nella supply chain dei dati. Un data lake è troppo prezioso per essere limitato alla sola data science: deve essere multiuso e quindi può essere utilizzato per produrre risorse dati che aiutano a costruire dati master nei sistemi di master data management (MDM), data warehouse e dati necessari nella data science.
La necessità di pipeline dati e analytics nella supply chain dei dati - Lo sviluppo basato su componenti di pipeline dati è necessario per accelerare la delivery di dati business ready in una supply chain dati a livello di intera azienda. Inoltre, dovrebbe essere possibile aggiungere analisi e visualizzazioni a una pipeline anche se sviluppata in altri strumenti. Ciò significa che deve essere possibile aggiungere prodotti dati, analisi e visualizzazioni a un marketplace (o catalogo) per massimizzare la capacità di riutilizzo. In questo caso, il time to value si ridurrà a ogni nuovo progetto man mano che saranno disponibili più dati pronti per il business, analisi e altre realizzazioni.
Pubblicare dati attendibili e risorse analitiche come servizi - Un marketplace di dati aziendali è un catalogo all’interno dell’azienda in cui le persone possono andare a cercare dati business ready e risorse analitiche. Ciò significa che è possibile introdurre operazioni basate sulla pubblicazione e sulla sottoscrizione in una supply chain dati per accelerare ulteriormente la delivery. Questo perché i dati riutilizzabili e i componenti analitici danno a ogni progetto un balzo in avanti nella supply chain dati. Concentrandosi sul valore, una supply chain dati può essere utilizzata per creare dati business ready, analisi predittive e servizi decisionali precostruiti per automatizzare le azioni nell’impresa digitale. I consumatori di informazioni possono cercare e trovare dati e analisi pronti utilizzando il marketplace dei dati per aiutarli a fornire valore. È questa disponibilità di dati business ready riutilizzabili, analisi predittive e servizi decisionali precostruiti che consente il contributo di massa agli obiettivi di business comuni all’intera azienda. In altre parole, solo in questo modo si contribuisce alla costruzione di un modello di organizzazione veramente “business data driven” in grado di alimentarsi da solo. L’architettura dati è fondamentale per diventare un’azienda data driven: si parlerà di questo e di tutti gli altri argomenti correlati all’International Big Data Conference che si terrà a Roma il prossimo dicembre.
Mike Ferguson sarà il chairman della conferenza di Technology Transfer “Big Data International Conference” il 2-3 dicembre 2019 a Roma. Presenterà inoltre i seminari “Progettare, costruire e gestire un Data Lake” il 4-5 dicembre 2019 e “Machine Learning e Advanced Analytics” il 12-13 dicembre 2019.
L’evoluzione dell’IT tra sfide e promesse
Frank Greco
Verso la new digital economy. Quale architettura per la trasformazione digitale?
Mike Rosen
Ecco come capire il cliente. I diversi punti di vista della Business Analysis
James Robertson
Ecco come capire il cliente I diversi punti di vista della Business Analysis
Suzanne Robertson
E se il Design Sprint fosse il nuovo asso nella manica? Come risolvere grandi problemi e testare nuove idee
James Hobart
Come essere veramente data driven. L’importanza dell’architettura dati
Mike Ferguson
Il Machine Learning in azienda. Come migliorare performance e previsioni
Frank Greco
Portfolio management avanzato: Come trasformare gli investimenti in cambiamento
Chris Potts
L’imbuto e le biglie. Ovvero la metafora della produttività dei team
Sander Hoogendoorn
Dal Data Warehouse al digital business. Un’architettura di trent’anni ancora valida
Barry Devlin
Dai silos a un ecosistema analitico integrato. Un approccio per avere dati da usare su più sistemi
Mike Ferguson
Come accelerare l’innovazione in azienda. La nuova generazione dell’IT enterprise
Frank Greco
Tassonomie e ricerche. Ecco come ottenere migliori risultati
Heather Hedden
Viaggio verso il data warehouse logico
Il grande dilemma della business intelligence
Rick van der Lans
Enterprise information catalog. I requisiti per fare la scelta giusta
Mike Ferguson
La nuova era dell’analisi predittiva - Le aziende alla prova del Machine Learning
Frank Greco
Uno sguardo Agile - Per capire il passato e progettare il futuro
Arie van Bennekum
Trasformazione Agile
Se il product owner diventa un collo di bottiglia
Sander Hoogendoorn
Una Fiat o una Ferrari?
Qual è la più adatta per il business digitale?
Barry Devlin
Vincere la complessità dei dati. È l’ora dello smart data management
Mike Ferguson
Big Data e Analytics - Se il machine learning accelera anche la data science
Mike Ferguson
I dati al centro del business
Christopher Bradley
I Big Data forniscono il contesto e la ricchezza predittiva attorno alle transazioni di business Avere dati coerenti e di qualità resta fondamentale per il processo decisionale
Barry Devlin
Cosa c’è dietro l’angolo? Cinque mosse per diventare un digital leader
Jeroen Derynck
Managing information technology Gestire l’IT come un business nel business
Mitchell Weisberg
Data integration self-service Miglioramento della produttività o caos totale?
Mike Ferguson
Project manager vecchi miti e nuove realtà
Aaron Shenhar
La catena alimentare dei requisiti
Suzanne Robertson
Come diventare un’azienda data-centric
Lindy Ryan
Enterprise analytical ecosystem - Come comprendere il comportamento online dei clienti e capitalizzare il valore dei dati nell’era Big Data
Mike Ferguson
Agilità? Basta Volere
Suzanne Robertson
Ma la vostra architettura è efficace?
Mike Rosen
Se il NoSQL diventa SQL
Rick van der Lans
La data quality e l’impatto sul business
Danette McGilvray
Business analysis e regole di business By Ronald G. Ross con Gladys S.W. Lam
Ronald Ross
Usare Scrum su larga scala: cosa cambia?
Craig Larman
Le architetture per ridurre il debito tecnico
Mike Rosen
Conversando con un marziano
Suzanne Robertson
Cosa c’è di nuovo nel project management?
Aaron Shenhar
Reinventare la Business Intelligence
Barry Devlin
Il nuovo volto della business intelligence
Shaku Atre
Alla ricerca del valore tra i pomodori nell'orto
John Favaro
I big data cambiano il mercato dei Database Server
Rick van der Lans
Un “superstorm” di informazioni
Barry Devlin
I dieci step per la qualità dei dati
Danette McGilvray
Perché è meglio evitare il private cloud?
Jason Bloomberg
Leonardo da Vinci aveva ragione!
Chris Date
Mobile user experience: Come adottare una strategia sostenibile
James Hobart
Cosa significa occuparsi di architettura?
Mike Rosen
Virtualizzazione dei dati e sistemi di Business Intelligence Agili
Rick van der Lans
Modelli e linguaggi naturali, quale il modo migliore per definire i requisiti?
James Robertson
Extreme Scoping: un approccio Agile all'Edw e alla BI
Larissa Moss
BI², la Business Intelligence al quadrato
Barry Devlin
I test di regressione in ambienti legacy
Randy Rice
Le conseguenze della consumerizzazione e del Cloud
Chris Potts
Come vanno gli affari? Chiedetelo al vostro cruscotto
Shaku Atre
Organizzare team di progetto efficienti in ambienti DW/BI
Larissa Moss
Big Data, come e perché
Colin White
Business Capabilities e l'allineamento del business all'IT
Mike Rosen
Il valore della tassonomia nella ricerca delle informazioni
Zach Wahl
BI, ma il Data Warehouse è ancora necessario?
Colin White
Reinventare la Business Intelligence
Barry Devlin
Il cruscotto delle prestazioni: il nuovo volto della Business Intelligence
Shaku Atre
Modelli e processi di User acceptance testing
Randy Rice
I limiti nel gestire l'IT come un Business
Chris Potts
Le componenti fondamentali del Cloud
George Reese
Metadati e DW 2.0
Derek Strauss
BI Open Source: basso costo e alto valore?
Jos van Dongen
Semplicità e requisiti
Suzanne Robertson
Business intelligence e analisi testuale
Bill Inmon
Extreme Scoping™: approcci agili al DW e alla BI
Larissa Moss
Dalla BI a un'architettura IT di livello Enterprise
Barry Devlin
Ambiente efficiente di ricerca di informazioni
James Hobart
Il Business deve trainare la Strategia IT
Chris Potts
Web database: la questione MapReduce (seconda parte)
Colin White
Web database: la questione MapReduce
Colin White
Misura delle prestazioni. I sette comandamenti
Harry Chapman
Le dieci cose che un architetto deve fare per creare valore
Mike Rosen
Sviluppare applicazioni a prova di sicurezza
Ken van Wyk
The ECM Landscape in 2008
Alan Pelz-Sharpe
Ma chi sono gli operatori dell’informazione?
Colin White
Qualità dell’informazione e trasformazione del management
Larry English
Classificazione sistematica delle informazioni
Zach Wahl
L’uso intensivo del Web nelle applicazioni di Bi
Colin White
Enterprise Search
Theresa Regli
La forza dell'astrazione
Steve Hoberman
La strada verso una BI pervasiva
Cindi Howson
Soa, una strategia di test
Randy Rice
Verso una BI più semplice e a minor costo
Colin White
I contenuti “Killer” del Web
Gerry McGovern
Sviluppo iterativo del software per i Dw
Larissa Moss
Qualità delle Informazioni e Datawarehousing
Larry English
Lo scenario Ecm 2008
Alan Pelz-Sharpe
La nascita del Web 3.0
John Kneiling
Documentazione: il dossier del crimine
Suzanne Robertson
L’impatto del Web 2.0 sui portali delle imprese
Colin White
Le tecniche vincenti di IT Management
Ken Rau
Web di successo se si conosce il cliente
Gerry McGovern
Un approccio alla BI incentrato sui processi
Colin White
Integrare Master Data Management e BI (Parte Seconda)
Mike Ferguson
Integrare Master Data Management e BI (Parte Prima)
Mike Ferguson
Il Project Manager è una Tata
Suzanne Robertson
Web di successo se si conosce il cliente
Gerry McGovern
L'informazione personalizzata
Colin White
La Tassonomia dell'Impresa
Zach Wahl
Managed Meta Data Environment (II parte)
David Marco
Managed Meta Data Environment
David Marco
Migliorare le applicazioni dell'impresa con Web 2.0
James Hobart
La Balanced Scorecard migliora la Performance dell'IT
Harry Chapman
La fusione dei processi dell'impresa grazie a Soa (II parte)
Max Dolgicer
La fusione dei processi dell'impresa grazie a SOA (I parte)
Max Dolgicer
Volere è Potere, in Ogni Senso
Suzanne Robertson
Dimostrate con i numeri il valore dei contenuti del web
Gerry McGovern
Il Back-end della pianificazione strategica dell'It
Ken Rau
L'audit delle prescrizioni di progetto (II parte)
Suzanne Robertson
L'audit delle prescrizioni di progetto (I parte)
Suzanne Robertson
Il Processo di gestione delle informazioni
Ted Lewis
I requisiti come strumento di gestione dei progetti
Suzanne Robertson
Il futuro è nel contenuto killer del web
Gerry McGovern
Alla ricerca del valore tra i pomodori nell'orto
John Favaro
Rilevare i costi sulla base delle attività
Ken Rau
Un percorso verso l'impresa intelligente (II parte)
Mike Ferguson
Un percorso verso l'impresa intelligente (I parte)
Mike Ferguson
Il Data Store Operativo: un lavoro di martello
Claudia Imhoff
Il data warehouse orientato all'impresa
Michael Schmitz
Dieci punti chiave per realizzare balanced scorecard di successo
Harry Chapman
Content management: i contenuti al primo posto
Gerry McGovern
Applicazioni Web ad alta disponibilità
John Kneiling
Il 2004, sarà l'anno in cui abbandoneremo html?
James Hobart
La tecnologia EII ripropone il data warehousing virtuale?
Colin White
Volere è Potere, in Ogni Senso
Suzanne Robertson
Realizzare il CPM e l'integrazione della BI
Mike Ferguson
Tutti i punti della FPA
Koni Thompson
Requiem per il Portale?
Colin White
Business Intelligence: dalla teoria alla realtà (II parte)
Shaku Atre
Business Intelligence: dalla teoria alla realtà (I parte)
Shaku Atre
I portali Corporate e di E-business: la nuova generazione del posto di lavoro
Mike Ferguson
I 10 errori da evitare nella realizzazione di un Meta Data Repository (II Parte)
David Marco
I 10 errori da evitare nella realizzazione di un Meta Data Repository (I parte)
David Marco
Usare i modelli per acquisire l'esperienza di progettazione
James Hobart
Realizzare l'Impresa Intelligente
Colin White
.NET or J2EE - Choosing the Right Web Services Framework
John Kneiling
Progettare Applicazioni Mobili di Successo
James Hobart
La Sociologia del Progetto: Identificare e Coinvolgere tutti i Partecipanti
Suzanne Robertson
Integrare la Business Intelligence nell'Impresa (II parte)
Mike Ferguson
Integrare la Business Intelligence nell'Impresa (I parte)
Mike Ferguson
L'Evoluzione del Portale di e-Business (II parte)
Colin White
L'Evoluzione del Portale di e-Business (I parte)
Colin White
Il Consulente WebEAI: Servizi Web, XML e l'Impresa
John Kneiling
Data Mining: Come Gestire le Relazioni con i Clienti Secondo i Principi del CRM
Weaver James