In Italia, nel 2017, il mercato dei Big Data Analytics ha segnato una crescita del 22%, raggiungendo un valore totale pari a 1,1 miliardi di euro. Sono numeri risalenti a un anno fa, frutto di una ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico condotta su oltre 1.100 tra CIO, Responsabili IT e altri C-level di medie e grandi organizzazioni, nonché sull’analisi di più di 1.100 player dell’offerta. Per quanto riguarda il tipo di investimento, la ricerca ha rivelato che nel 42% dei casi è stato destinato ai software (database, strumenti e applicativi per acquisire, visualizzare e analizzare i dati), nel 33% ai servizi (personalizzazione dei software, integrazione con sistemi informativi aziendali e riprogettazione dei processi) e nel 25% alle infrastrutture abilitanti (capacità di calcolo, server e storage).
Questa suddivisione fa capire l’ampiezza degli strumenti di cui un Operation Manager deve poter disporre affinché possa garantire all’azienda una piena valorizzazione dei suoi asset strategici.
Il primo di questi strumenti è un Operational Database (ODB) che serva a gestire e memorizzare i dati aziendali in tempo reale, aggiungendoli e rimuovendoli al volo. Per questa ragione si distingue dai database convenzionali basati su linguaggio SQL (Structured Query Language), che permette di interrogare dati altamente strutturati ed è, più spesso, fondato su quello NoSQL (Not Only SQL), proprio a causa dell’eterogeneità delle fonti e, quindi, dei dati da organizzare. In ogni caso, la scelta di un linguaggio, piuttosto che di un altro, dipende dalle caratteristiche e dalla correlazione esistente o meno tra i diversi oggetti a cui l’ODB è chiamato a dare ordine.
Il secondo, più che uno strumento, è frutto del lavoro dell’Operational Database: è il Data Warehouse (DW). Se il primo registra da sorgenti differenti (sensori, business app, anagrafiche clienti provenienti da CRM, ecc.), il DW compie aggregazioni a fini analitici. Le sue interrogazioni, solitamente, avvengono senza interferire sui processi di repository dei dati e con risposte immediate anche su grandi volumi. In tal modo, questo archivio informatico diventa la leva principale per definire le strategie aziendali, poiché supporta le scelte manageriali grazie a un patrimonio informativo dinamico e costantemente aggiornato.
Il terzo strumento che un direttore per Operation Data Driven deve possedere, in alternativa o integrandolo al Data Warehouse, è il Data Lake. A differenza del primo che, partendo da un set di dati grezzi, li struttura e processa attraverso un approccio cosiddetto di schema-on-write (prima viene definita la struttura del database ospitante e poi i dati vengono scritti al suo interno), il Data Lake adotta, invece, il criterio dello schema-on-read: i dati, cioè, sono acquisiti nel loro formato nativo grezzo - strutturati, semistrutturati o destrutturati - senza essere suddivisi in maniera gerarchica tra quelli critici e quelli non vitali. È un metodo che si sta rivelando particolarmente vantaggioso per le aziende, perché “ingerisce” dati senza richiedere una progettazione preventiva del loro output finale, oltre a ridurre i costi di archiviazione e di consolidamento degli stessi. In ogni caso va visto all’interno di un processo complessivo di definizione dell’infrastruttura Data Driven, alla fine del quale va implementata un’unica piattaforma che utilizzi un ambiente di sviluppo integrato o IDE (Integrated Development Environment) e un linguaggio per tutti i tipi di applicazione.
Devono far parte di detta piattaforma, funzionalità classiche di Business Intelligence (BI) con cui solitamente si è in grado di estrapolare valore da un insieme di dati omogenei, unite a una loro versione evoluta come, per esempio, l’applicazione di algoritmi di Machine Learning ai Big Data, per offrire suggerimenti in chiave predittiva. Tutto questo, infine, va poi collegato ad app mobili utilizzabili sia nel Cloud pubblico sia on-premise, che sfruttino cioè le potenzialità dell’Hybrid Cloud: disponibilità sempre e dovunque, scalabilità, sicurezza e performance elevate.