Articoli del meseArticoli del mese

Articoli del mese


Stampa articolo

Articolo del Mese - Gennaio 2003

Realizzare l'Impresa Intelligente

Colin White by Colin White

Tali sistemi non sono più isolati e separati dalla realtà di tutti i giorni, per cui vengono sempre più integrati all'interno del processo operativo globale dell'organizzazione.

Questa integrazione consente di utilizzare le applicazioni di Business Intelligence non solo per la pianificazione tattica e strategica, ma anche per attività di supporto e guida alle operazioni e alle decisioni da adottare quotidianamente ad ogni livello.

Il sistema di Business Intelligence, per supportare le decisioni operative, deve essere semplice da utilizzare, consentendo una modalità di accesso self service da parte degli utenti, in modo da realizzare una interattività in tempo reale.

Deve anche comprendere una metodologia (formale, oppure informale) che aiuti ad assegnare le responsabilità a ogni utente specifico, in base a un modello comportamentale che consenta di gestire le informazioni di Business Intelligence, oltre a definire le azioni da intraprendere quando queste consentono di identificare problemi che richiedano un'attenzione urgente.

Un sistema di questo tipo può essere inteso a supporto di una Business Intelligence integrata, oltre che utilizzabile, in modo da consentire alle organizzazioni di trasformarsi in impresa intelligente, invece di restare un'impresa semplicemente dotata di un sistema di Business Intelligence e di un data warehouse.

Una prospettiva storica

Il software e l'hardware mirati a fornire informazioni accurate ai manager di vario livello dell'impresa, a supporto delle decisioni aziendali, si sono evoluti dai primi sistemi di reporting batch centralizzati, fino al Data Warehousing e ai processi operativi intelligenti, oltre che, più recentemente, alle applicazioni d'impresa analitiche. Gli utenti dei sistemi batch avevano a che fare con strumenti complessi, scarsa qualità dei dati, nessuna integrazione delle informazioni, dati non sempre utili e informazioni storiche limitate.

Il Data Warehousing fu introdotto per migliorare la qualità, l'integrazione e la rispondenza dei dati alle necessità dell'impresa, oltre che per consentire la gestione di serie storiche maggiormente significative.

Nell'implementazione dei primi sistemi di Data Warehousing, spesso il gruppo di sviluppo era convinto che, una volta costruito il warehouse, il lavoro fosse terminato, tanto da rimanere sorpresi se poi non forniva il ritorno atteso sull'investimento (ROI).

In questo caso, il problema era che gli utenti dell'impresa non disponevano degli strumenti adatti per sfruttare completamente il valore dei dati contenuti al suo interno.

In un secondo tempo, i venditori hanno introdotto strumenti di Business Intelligence, estendendo l'uso del Data Warehousing, dal semplice reporting fino alle elaborazioni analitiche avanzate e al data mining.

Anche se l'introduzione di strumenti di Business Intelligence ha consentito alle organizzazioni di migliorare la qualità e l'approfondimento dei report e delle analisi derivanti dai sistemi di Data Warehousing, rimanevano ancora diversi problemi da risolvere.

Questi sistemi erano ancora passivi, ovvero incapaci di fornire quel valore aggiunto che può essere ottenuto solamente con la Business Intelligence.

Quest'ultima viene prodotta solamente se gli utenti dell'impresa operano un monitoraggio continuo delle informazioni di ritorno, in modo da identificare i problemi e adottare le opportune azioni correttive. Anche se gli utenti si rendevano conto di un problema, spesso non sapevano né come analizzarlo con un ulteriore dettaglio, né il tipo di azione risolutiva da applicare.

Molti dei nuovi strumenti di Business Intelligence, anche se molto potenti, erano complessi e il loro uso richiedeva troppo tempo. Per questo agli utenti non restava che rivolgersi al management dell'impresa e agli specialisti del gruppo IT, per aiutarli a sviluppare nuovi tipi di report e di analisi.

Inoltre, la complessità impediva a molti utilizzatori dei livelli inferiori di avere accesso alle informazioni aziendali di cui avevano bisogno per rendere più efficace il proprio lavoro.

Ad esempio gli addetti ai call center, quando venivano investiti di un problema, non avevano accesso alle informazioni esistenti sul cliente con cui stavano parlando, oppure dovevano usare sistemi differenti per reperirle.

Una nuova generazione di soluzioni analitiche dell'impresa

Per risolvere i problemi di complessità relativi agli strumenti di accesso alle informazioni, i venditori hanno introdotto nuove soluzioni e prodotti software che, come minimo, hanno iniziato a migliorare l'usabilità, e quindi il ROI, degli investimenti in Business Intelligence e Data Warehousing.

Queste soluzioni si possono suddividere in tre gruppi.

Il primo mira a consentire uno sviluppo più facile e veloce dell'applicazione, mediante l'uso di strumenti di sviluppo delle analisi e di soluzioni analitiche a pacchetto.

Queste applicazioni possono supportare cruscotti aziendali e scorecard per il management di livello più elevato.

Tali applicazioni consentono il controllo delle performance aziendali, ovvero utilizzano tecniche di BPM (Business Performance Management) che, per inciso, non sono sempre adottate come metodologia aziendale, oltre ad analisi di settore specifiche per l'impresa.

Il secondo gruppo di soluzioni fornisce l'accesso personalizzato alle informazioni aziendali, tramite l'uso di portali interni o di e-Business.

Il terzo gruppo di soluzioni è indirizzato a supportare il processo decisorio in real-time, mediante l'uso di Data Warehousing gestiti in quasi real-time e server per analisi a richiesta, oltre che tramite l'impiego di un motore per la ricerca delle regole.

E' importante notare che ogni nuova generazione di prodotti costruisce qualcosa di aggiuntivo, invece di sostituire il vecchio, rispetto alle soluzioni realizzate in precedenza.

Questo significa che se utilizzate prodotti di reporting batch, strumenti di Data Warehousing e di Business Intelligence, oltre che soluzioni di applicazioni analitiche per l'impresa, dovete inserire tutti questi elementi in un framework complessivo, come indicato nella Fig. 1.

In caso contrario, vi troverete con un insieme di applicazioni eterogenee e non integrate.

Quasi real-time e processo decisorio automatizzato

Il trend verso l'uso della BI per guidare le operazioni dell'impresa ne indica una sempre maggiore integrazione all'interno del processo operativo.

Tale integrazione può essere ottenuta in parecchi modi. Un approccio è costruire un sistema decisorio a circolo chiuso, nel quale le analisi sulle azioni possibili, prodotte dalle applicazioni di BI, vengono utilizzate per generare azioni raccomandate (cambiamenti di prezzo dei prodotti, modifiche delle campagne di marketing, identificazione di transazioni non autorizzate, e così via), con lo scopo di risolvere problemi specifici.

Nell'ambiente di e-business, molte società si stanno orientando verso l'estensione di questo processo a circolo chiuso alla regolazione automatica delle operazioni dell'impresa, basata sulle decisioni generate dal sistema di BI. Infatti, alcune società vorrebbero estendere al proprio interno l'uso di questo tipo di elaborazioni automatiche, in quasi real-time.

Spesso, il responsabile IT impallidisce alla semplice menzione del termine "real-time". Questo avviene perché molti dei venditori e degli analisti che si impegnano in applicazioni real-time di questo tipo non comprendono fino in fondo le specifiche dell'impresa utente, lasciando spesso il responsabile IT con l'impressione che il real-time riguardi le prestazioni, piuttosto che l'accelerazione del processo decisorio interno.

Le applicazioni di BI in real-time consentono agli utenti di reagire rapidamente ai cambiamenti delle condizioni interne ed esterne, riducendo il tempo necessario all'impresa per attivarsi in conseguenza di un evento. Idealmente, questo ritardo dovrebbe essere zero, ovvero l'impresa dovrebbe essere in grado di reagire in tempo reale al cambiamento delle situazioni e delle specifiche operative.

Da un punto di vista tecnologico, un sistema di Business Intelligence, in grado di suggerire decisioni in real-time e attivare azioni automatiche, consiste di tre componenti. (vedi Figura 2): un server per l'integrazione dei dati, un server per le analisi a richiesta e un motore delle regole.

Questi componenti possono essere usati insieme, oppure indipendentemente l'uno dall'altro. Tuttavia, non è verosimile che ogni applicazione richieda l'intervento di tutti e tre i componenti.

Un server per l'integrazione dei dati cattura e trasforma i dati operativi, caricandoli in quasi real-time all'interno di un magazzino dati, cioè in un data warehouse, il cui aggiornamento è vicino a quello dei sistemi utente.

Questa tecnologia può essere usata, ad esempio, per realizzare un magazzino dei dati operativi (ODS, ovvero Operational Data Store), che integri i dati relativi ai clienti, raccolti da tutti i punti di contatto all'interno dell'organizzazione. Il ritardo di aggiornamento dei dati negli ODS varia da pochi secondi a molte ore, in funzione delle necessità dell'impresa.

L'ODS può essere usato in applicazioni di front-office, come i call center, per fornire informazioni sullo status corrente dei clienti, oltre che a supporto delle decisioni operative da prendere giorno per giorno. Un esempio è costituito dell'identificazione dei clienti ad alta profittabilità, ai quali fornire la priorità nel servizio, oppure sconti più elevati.

Un server per l'analisi a richiesta reagisce alle sollecitazioni provenienti dalle applicazioni e dagli utenti, per supportare la pianificazione e gli interventi tattici e strategici. Le analisi prodotte dal server possono anche essere usate come input per il motore delle regole.

Un server analitico può essere implementato usando applicazioni analitiche a pacchetto fornite dai venditori, oppure mediante un'applicazione realizzata internamente usando strumenti OLAP e di data mining o, ancora, mediante uno strumento di sviluppo basato sulla BI.

Le analisi richieste più comunemente sono normalmente precostituite dall'applicazione stessa, mentre quelle a richiesta possono essere calcolate dinamicamente, al momento opportuno. L'obiettivo principale di un server analitico è di convertire i dati analitici grezzi, memorizzati all'interno di un data warehouse, in analisi utilizzabili immediatamente dall'impresa.

Ad esempio i dati analitici grezzi:

Vendite alla data = 20.000 dollari

potrebbero trasformarsi nell'analisi comparativa:

le vendite alla data sono risultate inferiori del 30% rispetto alle previsioni

Per suggerire le decisioni operative, viene usato un motore delle regole. Il motore utilizza analisi operative e regole di Business per creare e proporre allarmi personalizzati, associando informazioni di Business Intelligence per gli utenti dell'impresa, oppure per generare e fornire messaggi relativi alle azioni che debbono essere eseguite dalle applicazioni operative.

Gli allarmi e i messaggi possono contenere notifiche, preavvisi e raccomandazioni, oppure suggerire azioni per gestire una particolare situazione di business. Se, ad esempio, il valore delle vendite diminuisce del 30 per cento, l'utente interessato può esserne informato direttamente, oppure il motore delle regole può generare un messaggio operativo per abbassare il prezzo del prodotto del dieci per cento.

Il Data Warehousing in quasi real-time

I data warehouse sono aggiornati normalmente da job di tipo batch che, periodicamente, estraggono la situazione istantanea dei dati operativi e li normalizzano, trasformano e caricano in un database del warehouse.

Per supportare l'integrazione dei dati in real-time, l'approccio di estrazione delle informazioni a intervalli, tipico delle elaborazioni batch, deve essere sostituito da processi che effettuano il monitoraggio continuo dei sistemi fonte, catturando e trasformando opportunamente gli aggiornamenti. Infine, il risultato di tali elaborazioni deve essere caricato in un data warehouse, il tutto in un arco di tempo vicino al real-time, per quanto possibile.

Ad esempio,Target Stores usa questa tecnologia in un'iniziativa CRM che coinvolge data warehouse multiterabyte e real time, che contengono i dettagli delle interazioni con i clienti rilevati su 900 punti vendita, sui siti Web, nei call center e dagli acquisti su catalogo.

Un server per l'integrazione dei dati può acquisire gli aggiornamenti ai dati dalle applicazioni operative, monitorando sia gli eventi relativi ai dati che quelli delle applicazioni stesse, nel sistema fonte. Il monitoraggio degli eventi sui dati comprende tecnologie di database familiari per gli utenti, come la duplicazione e l'uso di elementi di attivazione automatica, oltre che la recovery del database tramite l'elaborazione del log degli avvenimenti.

Per supportare il monitoraggio degli eventi relativi alle applicazioni, i venditori di data warehouse hanno iniziato a realizzare interfacce verso gli strumenti di integrazione e il middleware applicativo, aggiungendo anche il supporto per i servizi web.

Esempi di prodotti di questo tipo sono Ascential Software DataStage XE (IBM WebSphere MQ), Acta ActaWorks (Java JMS), Informatica PowerCenterRT (IBM WebSphere MQ, TIBCO Rendezvous), IBM DB2 Warehouse Manager (IBM WebSphere MQ) e il PeopleSoft Integration Broker (Informatica per l'input e IBM WebSphere, JMS e Web Services per i messaggi verso l'esterno).

Questi venditori non menzionano più le rispettive piattaforme ETL ma, invece, propongono sul mercato le loro piattaforme d'integrazione dei dati. I fattori principali di differenziazione nella scelta dei prodotti sono l'integrazione dei metadati, l'elaborazione parallela, le funzioni di workflow, l'elaborazione bidirezionale (messaggi in ingresso e in uscita), il supporto degli standard di settore, la scalabilità, la possibilità di modificare i dati acquisiti e la fornitura di un kit per sviluppare le interfacce.

Annunci recenti da parte di venditori di data warehouse indicano l'esistenza di un interesse significativo per l'integrazione dei dati in real-time. Questa tecnologia promette benefici significativi per le imprese, ma gli utenti potenziali debbono considerare il fatto che è ancora in uno stadio iniziale e che pone alcune sfide interessanti, ad esempio in aree come la qualità dei dati.

L'importanza delle regole

Un motore delle regole viene invocato normalmente sulla base di analisi attuative prodotte da un server analitico, ma può essere anche interrogato dinamicamente in real-time da un utente o da un'applicazione, come aiuto nell'assumere decisioni, sia che si tratti, ad esempio, di garantire a un cliente un prestito o di accettare una carta di credito, oppure di valutare i rischi di una specifica transazione commerciale.

Le regole dell'impresa inserite nel motore delle regole possono essere immesse e mantenute dagli utenti e dagli analisti dell'organizzazione, oppure possono essere generate da uno strumento del tipo di un prodotto di Data Mining. I motori delle regole sono integrati in numerosi prodotti software, compresi i server di applicazioni web e gli strumenti di Business Intelligence (nei quali sono denominati, a volte, agenti intelligenti).

Esistono anche molti venditori che sviluppano e vendono motori delle regole autonomi e sofisticati. Gli esempi comprendono Computer Associates (CleverPath Aion BRE), HNC (Blaze Advisor) e Pegasystems (PegaRULES).

Per sfruttare completamente la potenza di un sistema decisorio, le analisi, raccomandazioni e azioni debbono essere correlate e integrate con il processo operativo complessivo dell'impresa. Un modo per raggiungere questa integrazione è tramite l'automazione del processo operativo (BPA, Business Process Automation). Per spiegare l'uso della BPA, in un ambiente di Business Intelligence, è opportuno ricordare un esempio.

La parte superiore della Figura 3 mostra un workflow operativo semplificato del processo di acquisizione dell'ordine di un cliente. Questo workflow può essere usato per determinare, all'interno di tale processo, i punti in cui l'attività deve essere monitorata da un sistema di BI. Gli eventi relativi a dati e applicazioni possono, quindi, essere rilevati in questi punti e usati per riempire un ODS o un data warehouse.

La rilevazione degli eventi può essere effettuata direttamente all'interno della stessa applicazione, in un broker d'integrazione, oppure tramite un'interfaccia per l'applicazione o per i dati (API per applicazione o data base, interfaccia EJB, interfaccia utente, ecc.).

Se un workflow analitico, nell'ambito di in un motore delle regole all'interno di un sistema di BI, identifica una situazione che richiede un'azione, l'utente interessato all'interno dell'impresa deve essere avvertito. Quest'ultimo deve poter accedere a un workflow di azione che lo aiuti nel diagnosticare il problema e determinare il comportamento da intraprendere.

Se è richiesto un intervento automatico, il workflow attuativo può essere integrato all'interno del motore delle regole che, a sua volta, genererà il messaggio appropriato da inviare all'ambiente operativo. Gartner Research usa l'espressione Business Activity Monitoring (BAM), ovvero monitoraggio dell'attività dell'impresa, per descrivere questo ambiente operativo real-time, integrato e dinamico.

Siamo convinti che aumenterà sempre di più l'uso dei workflow e delle regole dell'impresa che vi sono associate, con lo scopo di supportare la BI inserita nel processo operativo complessivo dell'organizzazione. Questo è uno dei motivi per i quali workflow e motore delle regole vengono aggiunti agli strumenti di integrazione e al middleware.

Come esempi, possiamo considerare la soluzione ZLE di Compaq, il Mercator Integration Broker e Vitria BusinessWare. Queste tecnologie risultano sempre più integrate con gli strumenti di BI. Come esempio, possiamo osservare come i prodotti di SeeRun Corporation risultino integrati con gli strumenti di Data Warehousing e BI di Microsoft e ProClarity.

Da un punto di vista di Business Intelligence e di Data Warehousing, è importante rendersi conto di come la letteratura e le campagne di marketing dei venditori abusino del termine real-time. La crescita dell'interesse verso le elaborazioni di BI in real-time, per supportare l'impresa intelligente, deve essere messo in relazione con le necessità dell'impresa e con i risultati che si possono ottenere con la tecnologia di BI attuale.

In generale, l'espressione "real-time" dovrebbe essere considerata un termine di marketing e, realisticamente, non bisognerebbe porre sul medesimo piano le applicazioni di BI in real-time con i tempi di risposta inferiori al secondo che è possibile ottenere nelle normali transazioni operative.

Che cosa dobbiamo intendere per real-time?

Il real-time può essere considerato sia dal punto di vista dell'impresa che da quello della tecnologia.

Nel primo caso indica la necessità, per i dipendenti e le applicazioni, di essere in grado di rispondere rapidamente al verificarsi di determinate situazioni.

Per soddisfare questa necessità, gli utenti (o le applicazioni) hanno bisogno di accedere con facilità a informazioni ben finalizzate e precise, operando da qualsiasi luogo e in ogni momento.

Il grado di aggiornamento richiesto per le informazioni di questo tipo varia in relazione alle circostanze.

In alcuni casi, può essere necessario il dato più recente possibile (idealmente in una frazione di secondo dal verificarsi dell'evento) mentre, in altre situazioni, il ritardo di pochi minuti, o anche di ore può essere accettabile.

Da un punto di vista della tecnologia e della capacità cognitiva dell'impresa, con riferimento al real-time, esistono tre componenti tecnologiche da considerare: un server per l'integrazione dei dati, un server per le analisi su richiesta dell'utente e un motore delle regole.

Un server per l'integrazione dei dati è usato per costruire un data store quasi real-time, all'interno di un Data Warehousing.

La tecnologia attuale può ridurre il ritardo di aggiornamento di questo data store fino a pochi secondi dal verificarsi dell'evento che ha provocato la modifica del dato, con riferimento alle applicazioni associate.

Le informazioni contenute nel data store possono essere fornite agli utenti e alle applicazioni in tempi altrettanto ristretti. In tale contesto, quasi real-time significa parlare di secondi.

Un server per le analisi a richiesta presenta agli utenti e alle applicazioni dell'impresa analisi che suggeriscono azioni.

Queste analisi possono essere fornite sulla base di un evento avvenuto nel data warehouse (inserimento), oppure sono originate dalla richiesta di un utente o di un'applicazione (estrazione).

Se si tratta di analisi processate in anticipo, possono essere rese disponibili in termini di secondi. Se, invece, debbono essere elaborate dinamicamente, allora il tempo di risposta varia in funzione della durata delle elaborazioni necessarie, oltre che della quantità dei dati.

E' importante precisare che l'analisi non richiede sempre la disponibilità di dati aggiornatissimi.

Un motore delle regole fornisce messaggi, allarmi, raccomandazioni o notizie specifiche alle applicazioni e agli utenti. Analogamente a un server analitico, la fornitura delle informazioni da parte di un server delle regole può avvenire sulla base di un nuovo inserimento di dati o di una richiesta di attivazione.

Per inciso, ricordiamo che, in alcuni casi, il motore delle regole può essere integrato all'interno di un server analitico. L'output di un motore delle regole è generato in base alle regole dell'impresa, elaborando i dati forniti sia dagli utenti che dalle applicazioni, oppure da un server analitico.

In termini generali, l'elaborazione effettuata da un motore delle regole può avvenire rapidamente e, quindi, la risposta può essere ottenuta nell'arco di alcuni secondi.

Se, invece, il motore delle regole deve elaborare o aggiornare dinamicamente un modello complesso, allora la risposta richiederà un tempo superiore.

Realizzare l'Impresa Intelligente - Technology Transfer

L’evoluzione dell’IT tra sfide e promesse
Frank Greco

Verso la new digital economy. Quale architettura per la trasformazione digitale?
Mike Rosen

Ecco come capire il cliente. I diversi punti di vista della Business Analysis
James Robertson

Ecco come capire il cliente I diversi punti di vista della Business Analysis
Suzanne Robertson

E se il Design Sprint fosse il nuovo asso nella manica? Come risolvere grandi problemi e testare nuove idee
James Hobart

Come essere veramente data driven. L’importanza dell’architettura dati
Mike Ferguson

Il Machine Learning in azienda. Come migliorare performance e previsioni
Frank Greco

Portfolio management avanzato: Come trasformare gli investimenti in cambiamento
Chris Potts

L’imbuto e le biglie. Ovvero la metafora della produttività dei team
Sander Hoogendoorn

Dal Data Warehouse al digital business. Un’architettura di trent’anni ancora valida
Barry Devlin

Dai silos a un ecosistema analitico integrato. Un approccio per avere dati da usare su più sistemi
Mike Ferguson

Come accelerare l’innovazione in azienda. La nuova generazione dell’IT enterprise
Frank Greco

Tassonomie e ricerche. Ecco come ottenere migliori risultati
Heather Hedden

Viaggio verso il data warehouse logico
Il grande dilemma della business intelligence

Rick van der Lans

Enterprise information catalog. I requisiti per fare la scelta giusta
Mike Ferguson

La nuova era dell’analisi predittiva - Le aziende alla prova del Machine Learning
Frank Greco

Uno sguardo Agile - Per capire il passato e progettare il futuro
Arie van Bennekum

Trasformazione Agile
Se il product owner diventa un collo di bottiglia

Sander Hoogendoorn

Una Fiat o una Ferrari?
Qual è la più adatta per il business digitale?

Barry Devlin

Vincere la complessità dei dati. È l’ora dello smart data management
Mike Ferguson

Big Data e Analytics - Se il machine learning accelera anche la data science
Mike Ferguson

I dati al centro del business
Christopher Bradley

I Big Data forniscono il contesto e la ricchezza predittiva attorno alle transazioni di business Avere dati coerenti e di qualità resta fondamentale per il processo decisionale
Barry Devlin

Cosa c’è dietro l’angolo? Cinque mosse per diventare un digital leader
Jeroen Derynck

Managing information technology Gestire l’IT come un business nel business
Mitchell Weisberg

Data integration self-service Miglioramento della produttività o caos totale?
Mike Ferguson

Project manager vecchi miti e nuove realtà
Aaron Shenhar

La catena alimentare dei requisiti
Suzanne Robertson

Come diventare un’azienda data-centric
Lindy Ryan

Enterprise analytical ecosystem - Come comprendere il comportamento online dei clienti e capitalizzare il valore dei dati nell’era Big Data
Mike Ferguson

Agilità? Basta Volere
Suzanne Robertson

Ma la vostra architettura è efficace?
Mike Rosen

Se il NoSQL diventa SQL
Rick van der Lans

La data quality e l’impatto sul business
Danette McGilvray

Business analysis e regole di business By Ronald G. Ross con Gladys S.W. Lam
Ronald Ross

Usare Scrum su larga scala: cosa cambia?
Craig Larman

Le architetture per ridurre il debito tecnico
Mike Rosen

Conversando con un marziano
Suzanne Robertson

Cosa c’è di nuovo nel project management?
Aaron Shenhar

Reinventare la Business Intelligence
Barry Devlin

Il nuovo volto della business intelligence
Shaku Atre

Alla ricerca del valore tra i pomodori nell'orto
John Favaro

I big data cambiano il mercato dei Database Server
Rick van der Lans

Un “superstorm” di informazioni
Barry Devlin

I dieci step per la qualità dei dati
Danette McGilvray

Perché è meglio evitare il private cloud?
Jason Bloomberg

Leonardo da Vinci aveva ragione!
Chris Date

Mobile user experience: Come adottare una strategia sostenibile
James Hobart

Cosa significa occuparsi di architettura?
Mike Rosen

Virtualizzazione dei dati e sistemi di Business Intelligence Agili
Rick van der Lans

Modelli e linguaggi naturali, quale il modo migliore per definire i requisiti?
James Robertson

Extreme Scoping: un approccio Agile all'Edw e alla BI
Larissa Moss

BI², la Business Intelligence al quadrato
Barry Devlin

I test di regressione in ambienti legacy
Randy Rice

Le conseguenze della consumerizzazione e del Cloud
Chris Potts

Come vanno gli affari? Chiedetelo al vostro cruscotto
Shaku Atre

Organizzare team di progetto efficienti in ambienti DW/BI
Larissa Moss

Big Data, come e perché
Colin White

Business Capabilities e l'allineamento del business all'IT
Mike Rosen

Il valore della tassonomia nella ricerca delle informazioni
Zach Wahl

BI, ma il Data Warehouse è ancora necessario?
Colin White

Reinventare la Business Intelligence
Barry Devlin

Il cruscotto delle prestazioni: il nuovo volto della Business Intelligence
Shaku Atre

Modelli e processi di User acceptance testing
Randy Rice

I limiti nel gestire l'IT come un Business
Chris Potts

Le componenti fondamentali del Cloud
George Reese

Metadati e DW 2.0
Derek Strauss

BI Open Source: basso costo e alto valore?
Jos van Dongen

Semplicità e requisiti
Suzanne Robertson

Business intelligence e analisi testuale
Bill Inmon

Extreme Scoping™: approcci agili al DW e alla BI
Larissa Moss

Dalla BI a un'architettura IT di livello Enterprise
Barry Devlin

Ambiente efficiente di ricerca di informazioni
James Hobart

Il Business deve trainare la Strategia IT
Chris Potts

Web database: la questione MapReduce (seconda parte)
Colin White

Web database: la questione MapReduce
Colin White

Misura delle prestazioni. I sette comandamenti
Harry Chapman

Le dieci cose che un architetto deve fare per creare valore
Mike Rosen

Sviluppare applicazioni a prova di sicurezza
Ken van Wyk

The ECM Landscape in 2008
Alan Pelz-Sharpe

Ma chi sono gli operatori dell’informazione?
Colin White

Qualità dell’informazione e trasformazione del management
Larry English

Classificazione sistematica delle informazioni
Zach Wahl

L’uso intensivo del Web nelle applicazioni di Bi
Colin White

Enterprise Search
Theresa Regli

La forza dell'astrazione
Steve Hoberman

La strada verso una BI pervasiva
Cindi Howson

Soa, una strategia di test
Randy Rice

Verso una BI più semplice e a minor costo
Colin White

I contenuti “Killer” del Web
Gerry McGovern

Sviluppo iterativo del software per i Dw
Larissa Moss

Qualità delle Informazioni e Datawarehousing
Larry English

Lo scenario Ecm 2008
Alan Pelz-Sharpe

La nascita del Web 3.0
John Kneiling

Documentazione: il dossier del crimine
Suzanne Robertson

L’impatto del Web 2.0 sui portali delle imprese
Colin White

Le tecniche vincenti di IT Management
Ken Rau

Web 2.0
Ed Yourdon

Web di successo se si conosce il cliente
Gerry McGovern

Un approccio alla BI incentrato sui processi
Colin White

Integrare Master Data Management e BI (Parte Seconda)
Mike Ferguson

Integrare Master Data Management e BI (Parte Prima)
Mike Ferguson

Il Project Manager è una Tata
Suzanne Robertson

Web di successo se si conosce il cliente
Gerry McGovern

L'informazione personalizzata
Colin White

La Tassonomia dell'Impresa
Zach Wahl

Managed Meta Data Environment (II parte)
David Marco

Managed Meta Data Environment
David Marco

Migliorare le applicazioni dell'impresa con Web 2.0
James Hobart

La Balanced Scorecard migliora la Performance dell'IT
Harry Chapman

La fusione dei processi dell'impresa grazie a Soa (II parte)
Max Dolgicer

La fusione dei processi dell'impresa grazie a SOA (I parte)
Max Dolgicer

Volere è Potere, in Ogni Senso
Suzanne Robertson

Dimostrate con i numeri il valore dei contenuti del web
Gerry McGovern

Il Back-end della pianificazione strategica dell'It
Ken Rau

L'audit delle prescrizioni di progetto (II parte)
Suzanne Robertson

L'audit delle prescrizioni di progetto (I parte)
Suzanne Robertson

Il Processo di gestione delle informazioni
Ted Lewis

I requisiti come strumento di gestione dei progetti
Suzanne Robertson

Il futuro è nel contenuto killer del web
Gerry McGovern

Alla ricerca del valore tra i pomodori nell'orto
John Favaro

Rilevare i costi sulla base delle attività
Ken Rau

Un percorso verso l'impresa intelligente (II parte)
Mike Ferguson

Un percorso verso l'impresa intelligente (I parte)
Mike Ferguson

Il Data Store Operativo: un lavoro di martello
Claudia Imhoff

Il data warehouse orientato all'impresa
Michael Schmitz

Dieci punti chiave per realizzare balanced scorecard di successo
Harry Chapman

Content management: i contenuti al primo posto
Gerry McGovern

Applicazioni Web ad alta disponibilità
John Kneiling

Il 2004, sarà l'anno in cui abbandoneremo html?
James Hobart

La tecnologia EII ripropone il data warehousing virtuale?
Colin White

Misurare per Gestire
Ken Rau

Volere è Potere, in Ogni Senso
Suzanne Robertson

Realizzare il CPM e l'integrazione della BI
Mike Ferguson

Tutti i punti della FPA
Koni Thompson

Requiem per il Portale?
Colin White

Business Intelligence: dalla teoria alla realtà (II parte)
Shaku Atre

Business Intelligence: dalla teoria alla realtà (I parte)
Shaku Atre

I portali Corporate e di E-business: la nuova generazione del posto di lavoro
Mike Ferguson

I 10 errori da evitare nella realizzazione di un Meta Data Repository (II Parte)
David Marco

I 10 errori da evitare nella realizzazione di un Meta Data Repository (I parte)
David Marco

Usare i modelli per acquisire l'esperienza di progettazione
James Hobart

Realizzare l'Impresa Intelligente
Colin White

.NET or J2EE - Choosing the Right Web Services Framework
John Kneiling

Progettare Applicazioni Mobili di Successo
James Hobart

La Sociologia del Progetto: Identificare e Coinvolgere tutti i Partecipanti
Suzanne Robertson

Integrare la Business Intelligence nell'Impresa (II parte)
Mike Ferguson

Integrare la Business Intelligence nell'Impresa (I parte)
Mike Ferguson

L'Evoluzione del Portale di e-Business (II parte)
Colin White

L'Evoluzione del Portale di e-Business (I parte)
Colin White

Il Consulente WebEAI: Servizi Web, XML e l'Impresa
John Kneiling

Data Mining: Come Gestire le Relazioni con i Clienti Secondo i Principi del CRM
Weaver James

Articoli del mese - Technology Transfer