by Colin White
Tali sistemi non sono più isolati e separati dalla realtà di tutti i giorni, per cui vengono sempre più integrati all'interno del processo operativo globale dell'organizzazione.
Questa integrazione consente di utilizzare le applicazioni di Business Intelligence non solo per la pianificazione tattica e strategica, ma anche per attività di supporto e guida alle operazioni e alle decisioni da adottare quotidianamente ad ogni livello.
Il sistema di Business Intelligence, per supportare le decisioni operative, deve essere semplice da utilizzare, consentendo una modalità di accesso self service da parte degli utenti, in modo da realizzare una interattività in tempo reale.
Deve anche comprendere una metodologia (formale, oppure informale) che aiuti ad assegnare le responsabilità a ogni utente specifico, in base a un modello comportamentale che consenta di gestire le informazioni di Business Intelligence, oltre a definire le azioni da intraprendere quando queste consentono di identificare problemi che richiedano un'attenzione urgente.
Un sistema di questo tipo può essere inteso a supporto di una Business Intelligence integrata, oltre che utilizzabile, in modo da consentire alle organizzazioni di trasformarsi in impresa intelligente, invece di restare un'impresa semplicemente dotata di un sistema di Business Intelligence e di un data warehouse.
Il software e l'hardware mirati a fornire informazioni accurate ai manager di vario livello dell'impresa, a supporto delle decisioni aziendali, si sono evoluti dai primi sistemi di reporting batch centralizzati, fino al Data Warehousing e ai processi operativi intelligenti, oltre che, più recentemente, alle applicazioni d'impresa analitiche. Gli utenti dei sistemi batch avevano a che fare con strumenti complessi, scarsa qualità dei dati, nessuna integrazione delle informazioni, dati non sempre utili e informazioni storiche limitate.
Il Data Warehousing fu introdotto per migliorare la qualità, l'integrazione e la rispondenza dei dati alle necessità dell'impresa, oltre che per consentire la gestione di serie storiche maggiormente significative.
Nell'implementazione dei primi sistemi di Data Warehousing, spesso il gruppo di sviluppo era convinto che, una volta costruito il warehouse, il lavoro fosse terminato, tanto da rimanere sorpresi se poi non forniva il ritorno atteso sull'investimento (ROI).
In questo caso, il problema era che gli utenti dell'impresa non disponevano degli strumenti adatti per sfruttare completamente il valore dei dati contenuti al suo interno.
In un secondo tempo, i venditori hanno introdotto strumenti di Business Intelligence, estendendo l'uso del Data Warehousing, dal semplice reporting fino alle elaborazioni analitiche avanzate e al data mining.
Anche se l'introduzione di strumenti di Business Intelligence ha consentito alle organizzazioni di migliorare la qualità e l'approfondimento dei report e delle analisi derivanti dai sistemi di Data Warehousing, rimanevano ancora diversi problemi da risolvere.
Questi sistemi erano ancora passivi, ovvero incapaci di fornire quel valore aggiunto che può essere ottenuto solamente con la Business Intelligence.
Quest'ultima viene prodotta solamente se gli utenti dell'impresa operano un monitoraggio continuo delle informazioni di ritorno, in modo da identificare i problemi e adottare le opportune azioni correttive. Anche se gli utenti si rendevano conto di un problema, spesso non sapevano né come analizzarlo con un ulteriore dettaglio, né il tipo di azione risolutiva da applicare.
Molti dei nuovi strumenti di Business Intelligence, anche se molto potenti, erano complessi e il loro uso richiedeva troppo tempo. Per questo agli utenti non restava che rivolgersi al management dell'impresa e agli specialisti del gruppo IT, per aiutarli a sviluppare nuovi tipi di report e di analisi.
Inoltre, la complessità impediva a molti utilizzatori dei livelli inferiori di avere accesso alle informazioni aziendali di cui avevano bisogno per rendere più efficace il proprio lavoro.
Ad esempio gli addetti ai call center, quando venivano investiti di un problema, non avevano accesso alle informazioni esistenti sul cliente con cui stavano parlando, oppure dovevano usare sistemi differenti per reperirle.
Una nuova generazione di soluzioni analitiche dell'impresa
Per risolvere i problemi di complessità relativi agli strumenti di accesso alle informazioni, i venditori hanno introdotto nuove soluzioni e prodotti software che, come minimo, hanno iniziato a migliorare l'usabilità, e quindi il ROI, degli investimenti in Business Intelligence e Data Warehousing.
Queste soluzioni si possono suddividere in tre gruppi.
Il primo mira a consentire uno sviluppo più facile e veloce dell'applicazione, mediante l'uso di strumenti di sviluppo delle analisi e di soluzioni analitiche a pacchetto.
Queste applicazioni possono supportare cruscotti aziendali e scorecard per il management di livello più elevato.
Tali applicazioni consentono il controllo delle performance aziendali, ovvero utilizzano tecniche di BPM (Business Performance Management) che, per inciso, non sono sempre adottate come metodologia aziendale, oltre ad analisi di settore specifiche per l'impresa.
Il secondo gruppo di soluzioni fornisce l'accesso personalizzato alle informazioni aziendali, tramite l'uso di portali interni o di e-Business.
Il terzo gruppo di soluzioni è indirizzato a supportare il processo decisorio in real-time, mediante l'uso di Data Warehousing gestiti in quasi real-time e server per analisi a richiesta, oltre che tramite l'impiego di un motore per la ricerca delle regole.
E' importante notare che ogni nuova generazione di prodotti costruisce qualcosa di aggiuntivo, invece di sostituire il vecchio, rispetto alle soluzioni realizzate in precedenza.
Questo significa che se utilizzate prodotti di reporting batch, strumenti di Data Warehousing e di Business Intelligence, oltre che soluzioni di applicazioni analitiche per l'impresa, dovete inserire tutti questi elementi in un framework complessivo, come indicato nella Fig. 1.
In caso contrario, vi troverete con un insieme di applicazioni eterogenee e non integrate.
Quasi real-time e processo decisorio automatizzato
Il trend verso l'uso della BI per guidare le operazioni dell'impresa ne indica una sempre maggiore integrazione all'interno del processo operativo.
Tale integrazione può essere ottenuta in parecchi modi. Un approccio è costruire un sistema decisorio a circolo chiuso, nel quale le analisi sulle azioni possibili, prodotte dalle applicazioni di BI, vengono utilizzate per generare azioni raccomandate (cambiamenti di prezzo dei prodotti, modifiche delle campagne di marketing, identificazione di transazioni non autorizzate, e così via), con lo scopo di risolvere problemi specifici.
Nell'ambiente di e-business, molte società si stanno orientando verso l'estensione di questo processo a circolo chiuso alla regolazione automatica delle operazioni dell'impresa, basata sulle decisioni generate dal sistema di BI. Infatti, alcune società vorrebbero estendere al proprio interno l'uso di questo tipo di elaborazioni automatiche, in quasi real-time.
Spesso, il responsabile IT impallidisce alla semplice menzione del termine "real-time". Questo avviene perché molti dei venditori e degli analisti che si impegnano in applicazioni real-time di questo tipo non comprendono fino in fondo le specifiche dell'impresa utente, lasciando spesso il responsabile IT con l'impressione che il real-time riguardi le prestazioni, piuttosto che l'accelerazione del processo decisorio interno.
Le applicazioni di BI in real-time consentono agli utenti di reagire rapidamente ai cambiamenti delle condizioni interne ed esterne, riducendo il tempo necessario all'impresa per attivarsi in conseguenza di un evento. Idealmente, questo ritardo dovrebbe essere zero, ovvero l'impresa dovrebbe essere in grado di reagire in tempo reale al cambiamento delle situazioni e delle specifiche operative.
Da un punto di vista tecnologico, un sistema di Business Intelligence, in grado di suggerire decisioni in real-time e attivare azioni automatiche, consiste di tre componenti. (vedi Figura 2): un server per l'integrazione dei dati, un server per le analisi a richiesta e un motore delle regole.
Questi componenti possono essere usati insieme, oppure indipendentemente l'uno dall'altro. Tuttavia, non è verosimile che ogni applicazione richieda l'intervento di tutti e tre i componenti.
Un server per l'integrazione dei dati cattura e trasforma i dati operativi, caricandoli in quasi real-time all'interno di un magazzino dati, cioè in un data warehouse, il cui aggiornamento è vicino a quello dei sistemi utente.
Questa tecnologia può essere usata, ad esempio, per realizzare un magazzino dei dati operativi (ODS, ovvero Operational Data Store), che integri i dati relativi ai clienti, raccolti da tutti i punti di contatto all'interno dell'organizzazione. Il ritardo di aggiornamento dei dati negli ODS varia da pochi secondi a molte ore, in funzione delle necessità dell'impresa.
L'ODS può essere usato in applicazioni di front-office, come i call center, per fornire informazioni sullo status corrente dei clienti, oltre che a supporto delle decisioni operative da prendere giorno per giorno. Un esempio è costituito dell'identificazione dei clienti ad alta profittabilità, ai quali fornire la priorità nel servizio, oppure sconti più elevati.
Un server per l'analisi a richiesta reagisce alle sollecitazioni provenienti dalle applicazioni e dagli utenti, per supportare la pianificazione e gli interventi tattici e strategici. Le analisi prodotte dal server possono anche essere usate come input per il motore delle regole.
Un server analitico può essere implementato usando applicazioni analitiche a pacchetto fornite dai venditori, oppure mediante un'applicazione realizzata internamente usando strumenti OLAP e di data mining o, ancora, mediante uno strumento di sviluppo basato sulla BI.
Le analisi richieste più comunemente sono normalmente precostituite dall'applicazione stessa, mentre quelle a richiesta possono essere calcolate dinamicamente, al momento opportuno. L'obiettivo principale di un server analitico è di convertire i dati analitici grezzi, memorizzati all'interno di un data warehouse, in analisi utilizzabili immediatamente dall'impresa.
Ad esempio i dati analitici grezzi:
Vendite alla data = 20.000 dollari
potrebbero trasformarsi nell'analisi comparativa:
le vendite alla data sono risultate inferiori del 30% rispetto alle previsioni
Per suggerire le decisioni operative, viene usato un motore delle regole. Il motore utilizza analisi operative e regole di Business per creare e proporre allarmi personalizzati, associando informazioni di Business Intelligence per gli utenti dell'impresa, oppure per generare e fornire messaggi relativi alle azioni che debbono essere eseguite dalle applicazioni operative.
Gli allarmi e i messaggi possono contenere notifiche, preavvisi e raccomandazioni, oppure suggerire azioni per gestire una particolare situazione di business. Se, ad esempio, il valore delle vendite diminuisce del 30 per cento, l'utente interessato può esserne informato direttamente, oppure il motore delle regole può generare un messaggio operativo per abbassare il prezzo del prodotto del dieci per cento.
Il Data Warehousing in quasi real-time
I data warehouse sono aggiornati normalmente da job di tipo batch che, periodicamente, estraggono la situazione istantanea dei dati operativi e li normalizzano, trasformano e caricano in un database del warehouse.
Per supportare l'integrazione dei dati in real-time, l'approccio di estrazione delle informazioni a intervalli, tipico delle elaborazioni batch, deve essere sostituito da processi che effettuano il monitoraggio continuo dei sistemi fonte, catturando e trasformando opportunamente gli aggiornamenti. Infine, il risultato di tali elaborazioni deve essere caricato in un data warehouse, il tutto in un arco di tempo vicino al real-time, per quanto possibile.
Ad esempio,Target Stores usa questa tecnologia in un'iniziativa CRM che coinvolge data warehouse multiterabyte e real time, che contengono i dettagli delle interazioni con i clienti rilevati su 900 punti vendita, sui siti Web, nei call center e dagli acquisti su catalogo.
Un server per l'integrazione dei dati può acquisire gli aggiornamenti ai dati dalle applicazioni operative, monitorando sia gli eventi relativi ai dati che quelli delle applicazioni stesse, nel sistema fonte. Il monitoraggio degli eventi sui dati comprende tecnologie di database familiari per gli utenti, come la duplicazione e l'uso di elementi di attivazione automatica, oltre che la recovery del database tramite l'elaborazione del log degli avvenimenti.
Per supportare il monitoraggio degli eventi relativi alle applicazioni, i venditori di data warehouse hanno iniziato a realizzare interfacce verso gli strumenti di integrazione e il middleware applicativo, aggiungendo anche il supporto per i servizi web.
Esempi di prodotti di questo tipo sono Ascential Software DataStage XE (IBM WebSphere MQ), Acta ActaWorks (Java JMS), Informatica PowerCenterRT (IBM WebSphere MQ, TIBCO Rendezvous), IBM DB2 Warehouse Manager (IBM WebSphere MQ) e il PeopleSoft Integration Broker (Informatica per l'input e IBM WebSphere, JMS e Web Services per i messaggi verso l'esterno).
Questi venditori non menzionano più le rispettive piattaforme ETL ma, invece, propongono sul mercato le loro piattaforme d'integrazione dei dati. I fattori principali di differenziazione nella scelta dei prodotti sono l'integrazione dei metadati, l'elaborazione parallela, le funzioni di workflow, l'elaborazione bidirezionale (messaggi in ingresso e in uscita), il supporto degli standard di settore, la scalabilità, la possibilità di modificare i dati acquisiti e la fornitura di un kit per sviluppare le interfacce.
Annunci recenti da parte di venditori di data warehouse indicano l'esistenza di un interesse significativo per l'integrazione dei dati in real-time. Questa tecnologia promette benefici significativi per le imprese, ma gli utenti potenziali debbono considerare il fatto che è ancora in uno stadio iniziale e che pone alcune sfide interessanti, ad esempio in aree come la qualità dei dati.
L'importanza delle regole
Un motore delle regole viene invocato normalmente sulla base di analisi attuative prodotte da un server analitico, ma può essere anche interrogato dinamicamente in real-time da un utente o da un'applicazione, come aiuto nell'assumere decisioni, sia che si tratti, ad esempio, di garantire a un cliente un prestito o di accettare una carta di credito, oppure di valutare i rischi di una specifica transazione commerciale.
Le regole dell'impresa inserite nel motore delle regole possono essere immesse e mantenute dagli utenti e dagli analisti dell'organizzazione, oppure possono essere generate da uno strumento del tipo di un prodotto di Data Mining. I motori delle regole sono integrati in numerosi prodotti software, compresi i server di applicazioni web e gli strumenti di Business Intelligence (nei quali sono denominati, a volte, agenti intelligenti).
Esistono anche molti venditori che sviluppano e vendono motori delle regole autonomi e sofisticati. Gli esempi comprendono Computer Associates (CleverPath Aion BRE), HNC (Blaze Advisor) e Pegasystems (PegaRULES).
Per sfruttare completamente la potenza di un sistema decisorio, le analisi, raccomandazioni e azioni debbono essere correlate e integrate con il processo operativo complessivo dell'impresa. Un modo per raggiungere questa integrazione è tramite l'automazione del processo operativo (BPA, Business Process Automation). Per spiegare l'uso della BPA, in un ambiente di Business Intelligence, è opportuno ricordare un esempio.
La parte superiore della Figura 3 mostra un workflow operativo semplificato del processo di acquisizione dell'ordine di un cliente. Questo workflow può essere usato per determinare, all'interno di tale processo, i punti in cui l'attività deve essere monitorata da un sistema di BI. Gli eventi relativi a dati e applicazioni possono, quindi, essere rilevati in questi punti e usati per riempire un ODS o un data warehouse.
La rilevazione degli eventi può essere effettuata direttamente all'interno della stessa applicazione, in un broker d'integrazione, oppure tramite un'interfaccia per l'applicazione o per i dati (API per applicazione o data base, interfaccia EJB, interfaccia utente, ecc.).
Se un workflow analitico, nell'ambito di in un motore delle regole all'interno di un sistema di BI, identifica una situazione che richiede un'azione, l'utente interessato all'interno dell'impresa deve essere avvertito. Quest'ultimo deve poter accedere a un workflow di azione che lo aiuti nel diagnosticare il problema e determinare il comportamento da intraprendere.
Se è richiesto un intervento automatico, il workflow attuativo può essere integrato all'interno del motore delle regole che, a sua volta, genererà il messaggio appropriato da inviare all'ambiente operativo. Gartner Research usa l'espressione Business Activity Monitoring (BAM), ovvero monitoraggio dell'attività dell'impresa, per descrivere questo ambiente operativo real-time, integrato e dinamico.
Siamo convinti che aumenterà sempre di più l'uso dei workflow e delle regole dell'impresa che vi sono associate, con lo scopo di supportare la BI inserita nel processo operativo complessivo dell'organizzazione. Questo è uno dei motivi per i quali workflow e motore delle regole vengono aggiunti agli strumenti di integrazione e al middleware.
Come esempi, possiamo considerare la soluzione ZLE di Compaq, il Mercator Integration Broker e Vitria BusinessWare. Queste tecnologie risultano sempre più integrate con gli strumenti di BI. Come esempio, possiamo osservare come i prodotti di SeeRun Corporation risultino integrati con gli strumenti di Data Warehousing e BI di Microsoft e ProClarity.
Da un punto di vista di Business Intelligence e di Data Warehousing, è importante rendersi conto di come la letteratura e le campagne di marketing dei venditori abusino del termine real-time. La crescita dell'interesse verso le elaborazioni di BI in real-time, per supportare l'impresa intelligente, deve essere messo in relazione con le necessità dell'impresa e con i risultati che si possono ottenere con la tecnologia di BI attuale.
In generale, l'espressione "real-time" dovrebbe essere considerata un termine di marketing e, realisticamente, non bisognerebbe porre sul medesimo piano le applicazioni di BI in real-time con i tempi di risposta inferiori al secondo che è possibile ottenere nelle normali transazioni operative.
Che cosa dobbiamo intendere per real-time?
Il real-time può essere considerato sia dal punto di vista dell'impresa che da quello della tecnologia.
Nel primo caso indica la necessità, per i dipendenti e le applicazioni, di essere in grado di rispondere rapidamente al verificarsi di determinate situazioni.
Per soddisfare questa necessità, gli utenti (o le applicazioni) hanno bisogno di accedere con facilità a informazioni ben finalizzate e precise, operando da qualsiasi luogo e in ogni momento.
Il grado di aggiornamento richiesto per le informazioni di questo tipo varia in relazione alle circostanze.
In alcuni casi, può essere necessario il dato più recente possibile (idealmente in una frazione di secondo dal verificarsi dell'evento) mentre, in altre situazioni, il ritardo di pochi minuti, o anche di ore può essere accettabile.
Da un punto di vista della tecnologia e della capacità cognitiva dell'impresa, con riferimento al real-time, esistono tre componenti tecnologiche da considerare: un server per l'integrazione dei dati, un server per le analisi su richiesta dell'utente e un motore delle regole.
Un server per l'integrazione dei dati è usato per costruire un data store quasi real-time, all'interno di un Data Warehousing.
La tecnologia attuale può ridurre il ritardo di aggiornamento di questo data store fino a pochi secondi dal verificarsi dell'evento che ha provocato la modifica del dato, con riferimento alle applicazioni associate.
Le informazioni contenute nel data store possono essere fornite agli utenti e alle applicazioni in tempi altrettanto ristretti. In tale contesto, quasi real-time significa parlare di secondi.
Un server per le analisi a richiesta presenta agli utenti e alle applicazioni dell'impresa analisi che suggeriscono azioni.
Queste analisi possono essere fornite sulla base di un evento avvenuto nel data warehouse (inserimento), oppure sono originate dalla richiesta di un utente o di un'applicazione (estrazione).
Se si tratta di analisi processate in anticipo, possono essere rese disponibili in termini di secondi. Se, invece, debbono essere elaborate dinamicamente, allora il tempo di risposta varia in funzione della durata delle elaborazioni necessarie, oltre che della quantità dei dati.
E' importante precisare che l'analisi non richiede sempre la disponibilità di dati aggiornatissimi.
Un motore delle regole fornisce messaggi, allarmi, raccomandazioni o notizie specifiche alle applicazioni e agli utenti. Analogamente a un server analitico, la fornitura delle informazioni da parte di un server delle regole può avvenire sulla base di un nuovo inserimento di dati o di una richiesta di attivazione.
Per inciso, ricordiamo che, in alcuni casi, il motore delle regole può essere integrato all'interno di un server analitico. L'output di un motore delle regole è generato in base alle regole dell'impresa, elaborando i dati forniti sia dagli utenti che dalle applicazioni, oppure da un server analitico.
In termini generali, l'elaborazione effettuata da un motore delle regole può avvenire rapidamente e, quindi, la risposta può essere ottenuta nell'arco di alcuni secondi.
Se, invece, il motore delle regole deve elaborare o aggiornare dinamicamente un modello complesso, allora la risposta richiederà un tempo superiore.
L’evoluzione dell’IT tra sfide e promesse
Frank Greco
Verso la new digital economy. Quale architettura per la trasformazione digitale?
Mike Rosen
Ecco come capire il cliente. I diversi punti di vista della Business Analysis
James Robertson
Ecco come capire il cliente I diversi punti di vista della Business Analysis
Suzanne Robertson
E se il Design Sprint fosse il nuovo asso nella manica? Come risolvere grandi problemi e testare nuove idee
James Hobart
Come essere veramente data driven. L’importanza dell’architettura dati
Mike Ferguson
Il Machine Learning in azienda. Come migliorare performance e previsioni
Frank Greco
Portfolio management avanzato: Come trasformare gli investimenti in cambiamento
Chris Potts
L’imbuto e le biglie. Ovvero la metafora della produttività dei team
Sander Hoogendoorn
Dal Data Warehouse al digital business. Un’architettura di trent’anni ancora valida
Barry Devlin
Dai silos a un ecosistema analitico integrato. Un approccio per avere dati da usare su più sistemi
Mike Ferguson
Come accelerare l’innovazione in azienda. La nuova generazione dell’IT enterprise
Frank Greco
Tassonomie e ricerche. Ecco come ottenere migliori risultati
Heather Hedden
Viaggio verso il data warehouse logico
Il grande dilemma della business intelligence
Rick van der Lans
Enterprise information catalog. I requisiti per fare la scelta giusta
Mike Ferguson
La nuova era dell’analisi predittiva - Le aziende alla prova del Machine Learning
Frank Greco
Uno sguardo Agile - Per capire il passato e progettare il futuro
Arie van Bennekum
Trasformazione Agile
Se il product owner diventa un collo di bottiglia
Sander Hoogendoorn
Una Fiat o una Ferrari?
Qual è la più adatta per il business digitale?
Barry Devlin
Vincere la complessità dei dati. È l’ora dello smart data management
Mike Ferguson
Big Data e Analytics - Se il machine learning accelera anche la data science
Mike Ferguson
I dati al centro del business
Christopher Bradley
I Big Data forniscono il contesto e la ricchezza predittiva attorno alle transazioni di business Avere dati coerenti e di qualità resta fondamentale per il processo decisionale
Barry Devlin
Cosa c’è dietro l’angolo? Cinque mosse per diventare un digital leader
Jeroen Derynck
Managing information technology Gestire l’IT come un business nel business
Mitchell Weisberg
Data integration self-service Miglioramento della produttività o caos totale?
Mike Ferguson
Project manager vecchi miti e nuove realtà
Aaron Shenhar
La catena alimentare dei requisiti
Suzanne Robertson
Come diventare un’azienda data-centric
Lindy Ryan
Enterprise analytical ecosystem - Come comprendere il comportamento online dei clienti e capitalizzare il valore dei dati nell’era Big Data
Mike Ferguson
Agilità? Basta Volere
Suzanne Robertson
Ma la vostra architettura è efficace?
Mike Rosen
Se il NoSQL diventa SQL
Rick van der Lans
La data quality e l’impatto sul business
Danette McGilvray
Business analysis e regole di business By Ronald G. Ross con Gladys S.W. Lam
Ronald Ross
Usare Scrum su larga scala: cosa cambia?
Craig Larman
Le architetture per ridurre il debito tecnico
Mike Rosen
Conversando con un marziano
Suzanne Robertson
Cosa c’è di nuovo nel project management?
Aaron Shenhar
Reinventare la Business Intelligence
Barry Devlin
Il nuovo volto della business intelligence
Shaku Atre
Alla ricerca del valore tra i pomodori nell'orto
John Favaro
I big data cambiano il mercato dei Database Server
Rick van der Lans
Un “superstorm” di informazioni
Barry Devlin
I dieci step per la qualità dei dati
Danette McGilvray
Perché è meglio evitare il private cloud?
Jason Bloomberg
Leonardo da Vinci aveva ragione!
Chris Date
Mobile user experience: Come adottare una strategia sostenibile
James Hobart
Cosa significa occuparsi di architettura?
Mike Rosen
Virtualizzazione dei dati e sistemi di Business Intelligence Agili
Rick van der Lans
Modelli e linguaggi naturali, quale il modo migliore per definire i requisiti?
James Robertson
Extreme Scoping: un approccio Agile all'Edw e alla BI
Larissa Moss
BI², la Business Intelligence al quadrato
Barry Devlin
I test di regressione in ambienti legacy
Randy Rice
Le conseguenze della consumerizzazione e del Cloud
Chris Potts
Come vanno gli affari? Chiedetelo al vostro cruscotto
Shaku Atre
Organizzare team di progetto efficienti in ambienti DW/BI
Larissa Moss
Big Data, come e perché
Colin White
Business Capabilities e l'allineamento del business all'IT
Mike Rosen
Il valore della tassonomia nella ricerca delle informazioni
Zach Wahl
BI, ma il Data Warehouse è ancora necessario?
Colin White
Reinventare la Business Intelligence
Barry Devlin
Il cruscotto delle prestazioni: il nuovo volto della Business Intelligence
Shaku Atre
Modelli e processi di User acceptance testing
Randy Rice
I limiti nel gestire l'IT come un Business
Chris Potts
Le componenti fondamentali del Cloud
George Reese
Metadati e DW 2.0
Derek Strauss
BI Open Source: basso costo e alto valore?
Jos van Dongen
Semplicità e requisiti
Suzanne Robertson
Business intelligence e analisi testuale
Bill Inmon
Extreme Scoping™: approcci agili al DW e alla BI
Larissa Moss
Dalla BI a un'architettura IT di livello Enterprise
Barry Devlin
Ambiente efficiente di ricerca di informazioni
James Hobart
Il Business deve trainare la Strategia IT
Chris Potts
Web database: la questione MapReduce (seconda parte)
Colin White
Web database: la questione MapReduce
Colin White
Misura delle prestazioni. I sette comandamenti
Harry Chapman
Le dieci cose che un architetto deve fare per creare valore
Mike Rosen
Sviluppare applicazioni a prova di sicurezza
Ken van Wyk
The ECM Landscape in 2008
Alan Pelz-Sharpe
Ma chi sono gli operatori dell’informazione?
Colin White
Qualità dell’informazione e trasformazione del management
Larry English
Classificazione sistematica delle informazioni
Zach Wahl
L’uso intensivo del Web nelle applicazioni di Bi
Colin White
Enterprise Search
Theresa Regli
La forza dell'astrazione
Steve Hoberman
La strada verso una BI pervasiva
Cindi Howson
Soa, una strategia di test
Randy Rice
Verso una BI più semplice e a minor costo
Colin White
I contenuti “Killer” del Web
Gerry McGovern
Sviluppo iterativo del software per i Dw
Larissa Moss
Qualità delle Informazioni e Datawarehousing
Larry English
Lo scenario Ecm 2008
Alan Pelz-Sharpe
La nascita del Web 3.0
John Kneiling
Documentazione: il dossier del crimine
Suzanne Robertson
L’impatto del Web 2.0 sui portali delle imprese
Colin White
Le tecniche vincenti di IT Management
Ken Rau
Web di successo se si conosce il cliente
Gerry McGovern
Un approccio alla BI incentrato sui processi
Colin White
Integrare Master Data Management e BI (Parte Seconda)
Mike Ferguson
Integrare Master Data Management e BI (Parte Prima)
Mike Ferguson
Il Project Manager è una Tata
Suzanne Robertson
Web di successo se si conosce il cliente
Gerry McGovern
L'informazione personalizzata
Colin White
La Tassonomia dell'Impresa
Zach Wahl
Managed Meta Data Environment (II parte)
David Marco
Managed Meta Data Environment
David Marco
Migliorare le applicazioni dell'impresa con Web 2.0
James Hobart
La Balanced Scorecard migliora la Performance dell'IT
Harry Chapman
La fusione dei processi dell'impresa grazie a Soa (II parte)
Max Dolgicer
La fusione dei processi dell'impresa grazie a SOA (I parte)
Max Dolgicer
Volere è Potere, in Ogni Senso
Suzanne Robertson
Dimostrate con i numeri il valore dei contenuti del web
Gerry McGovern
Il Back-end della pianificazione strategica dell'It
Ken Rau
L'audit delle prescrizioni di progetto (II parte)
Suzanne Robertson
L'audit delle prescrizioni di progetto (I parte)
Suzanne Robertson
Il Processo di gestione delle informazioni
Ted Lewis
I requisiti come strumento di gestione dei progetti
Suzanne Robertson
Il futuro è nel contenuto killer del web
Gerry McGovern
Alla ricerca del valore tra i pomodori nell'orto
John Favaro
Rilevare i costi sulla base delle attività
Ken Rau
Un percorso verso l'impresa intelligente (II parte)
Mike Ferguson
Un percorso verso l'impresa intelligente (I parte)
Mike Ferguson
Il Data Store Operativo: un lavoro di martello
Claudia Imhoff
Il data warehouse orientato all'impresa
Michael Schmitz
Dieci punti chiave per realizzare balanced scorecard di successo
Harry Chapman
Content management: i contenuti al primo posto
Gerry McGovern
Applicazioni Web ad alta disponibilità
John Kneiling
Il 2004, sarà l'anno in cui abbandoneremo html?
James Hobart
La tecnologia EII ripropone il data warehousing virtuale?
Colin White
Volere è Potere, in Ogni Senso
Suzanne Robertson
Realizzare il CPM e l'integrazione della BI
Mike Ferguson
Tutti i punti della FPA
Koni Thompson
Requiem per il Portale?
Colin White
Business Intelligence: dalla teoria alla realtà (II parte)
Shaku Atre
Business Intelligence: dalla teoria alla realtà (I parte)
Shaku Atre
I portali Corporate e di E-business: la nuova generazione del posto di lavoro
Mike Ferguson
I 10 errori da evitare nella realizzazione di un Meta Data Repository (II Parte)
David Marco
I 10 errori da evitare nella realizzazione di un Meta Data Repository (I parte)
David Marco
Usare i modelli per acquisire l'esperienza di progettazione
James Hobart
Realizzare l'Impresa Intelligente
Colin White
.NET or J2EE - Choosing the Right Web Services Framework
John Kneiling
Progettare Applicazioni Mobili di Successo
James Hobart
La Sociologia del Progetto: Identificare e Coinvolgere tutti i Partecipanti
Suzanne Robertson
Integrare la Business Intelligence nell'Impresa (II parte)
Mike Ferguson
Integrare la Business Intelligence nell'Impresa (I parte)
Mike Ferguson
L'Evoluzione del Portale di e-Business (II parte)
Colin White
L'Evoluzione del Portale di e-Business (I parte)
Colin White
Il Consulente WebEAI: Servizi Web, XML e l'Impresa
John Kneiling
Data Mining: Come Gestire le Relazioni con i Clienti Secondo i Principi del CRM
Weaver James