La tecnologia dei Data & Analytics sta avanzando a un ritmo vertiginoso, influenzando le aziende in molti modi, come accade in tutti i mercati in continua evoluzione.
La tecnologia dei Data & Analytics sta avanzando a un ritmo vertiginoso, influenzando le aziende in molti modi, come accade in tutti i mercati in continua evoluzione. Democratizzazione delle tecnologie, sviluppo di innovazioni cloud-based, nuove capacità di AI (Artificial Intelligence) e molto altro ancora: sono diverse le tendenze che si stanno facendo strada sul mercato.
In questo scenario e con le tecnologie legate al mondo dei dati in crescita, è fondamentale rimanere informati su ciò che sta per succedere. Quest’anno abbiamo identificato le tendenze chiave da tenere d’occhio per rimanere competitivi nel 2022.
In questo articolo, potrai scoprire quali tendenze stanno già creando un impatto sul mercato, quali sono in ascesa e quali stanno lentamente entrando in gioco. Abbiamo segmentato le dieci tendenze del 2022 in tre categorie:
- tendenze attuali
- tendenze in ascesa
- tendenze in lenta evoluzione.
Tendenze attuali
Tendenze must, per cui serve agire subito.
1.) Nata nel Cloud. La prossima generazione di Datawarehousing: Data Mesh, Data Fabric & Data Vault 2.0
Il cloud computing rende più facile per le imprese adottare architetture di dati, modelli con strutture scalabili e trasformative. Il cloud apre le porte alla prossima generazione del Data Warehouse abilitando Data Mesh, Data Vault 2.0 e Data Fabric, tecnologie e pratiche progettate e costruite nativamente nel cloud.
Un caso esemplare è Data Mesh, un approccio olistico alla gestione dei dati in cui convergono un’architettura domain-driven distribuita, il trattamento dei dati come un prodotto, la progettazione di infrastrutture di dati self-service e la governance dell’ecosistema. Il "data mesh" permette ai prodotti basati sui dati di essere collegati attraverso i domini consentendo lo scambio di informazioni senza fare affidamento sullo stoccaggio.
Questo ci porta a Data Fabric, un’architettura che permette l’accesso e la condivisione dei dati in un ambiente distribuito: un sistema cloud privato, pubblico, on-premise o multicloud. Questo strato di dati scalabili e processi di connessione automatizza la raccolta, la selezione e l’integrazione, aggirando i silos di dati. In questo modo, il "tessuto di dati" identifica e connette continuamente i dati da applicazioni disparate, scoprendo relazioni uniche e rilevanti per il business. Queste informazioni permettono un processo decisionale più efficace, fornendo un valore attraverso un accesso rapido e una visione d’insieme rispetto alle pratiche tradizionali di gestione dei dati.
Infine troviamo anche Data Vault 2.0, l’evoluzione di livello successivo del Data Vault che nasce dal cloud, e DataOps, un quadro agile per la configurazione e la gestione collaborativa di tecnologie, processi e dati.
Tutte queste tendenze attuali hanno un denominatore comune: si basano sull’immenso potenziale del cloud per cercare di fornire risposte di qualità alle continue richieste di innovazione e flessibilità delle organizzazioni.
2.) DataOps Power-Up: l’AI prende il sopravvento, scalando Hyperautomation e Metadata Lakehouse
DataOps è un framework tecnologico ispirato alla metodologia DevOps. Il suo obiettivo è quello di creare una consegna prevedibile e una gestione del cambiamento di dati, modelli e pacchetti dati correlati. Come è possibile? Sfruttando la tecnologia per automatizzare la consegna dei dati con sicurezza, qualità e metadati ottimali per migliorare l’uso e il valore dei dati in un ambiente dinamico. DataOps attiva le leve richieste dalle imprese data-driven: governance, flessibilità, scalabilità, efficienza e automazione.
Questa tendenza - di cui abbiamo parlato lo scorso anno - si sta ora evolvendo grazie all’Intelligenza Artificiale e al Machine Learning, i quali creano ambienti di iper-automazione. A seguito di ciò, le organizzazioni stanno ora rapidamente identificando, esaminando e automatizzando i processi di gestione dei dati.
Questi processi influenzano direttamente:
- la Data Quality, permettendo alle aziende una profilazione più veloce e accurata dei dati
- la Data Observability, fornendo una maggiore agilità nel monitoraggio delle pipeline di dati;
- il Data Cataloging, facilitando una visione sempre più strategica nelle funzionalità, come per esempio nel lineage e nell’inventario;
- i processi di DevOps, poiché l’automazione intelligente riduce le operazioni manuali e aumenta la collaborazione cross-funzionale tra i team.
Inoltre, all’interno di DataOps e del suo design "verticale" di Data Governance, la Metadata LakeHouse sta guadagnando rilevanza. Questa piattaforma permette ai metadati di diventare la scheda madre dell’intero ambiente di gestione dei dati di un’impresa.
3.) Un cambio di paradigma: da un approccio incentrato sul prodotto a un approccio completamente customer-centric e omnicanale
Per soddisfare e superare le richieste dei clienti dobbiamo mettere il consumatore al centro dell’esperienza di acquisto. In quest’ottica, l’obsoleta strategia multicanale è stata sostituita da un approccio omnicanale, reso possibile in particolare dall’iperconnettività (cloud, 5G, IoT-Internet of Things). In parole povere, le barriere tra i canali digitali e fisici e le campagne che li comprendono entrambi andranno a scomparire completamente. L’attenzione non è più centrata solo sul prodotto e sulle diverse "vetrine" in cui viene venduto. Al contrario, il focus sarà sempre più sul cliente per fornirgli un’esperienza di acquisto unica e omogenea ovunque si trovi.
Raccogliendo i dati dai diversi canali, si estraggono informazioni rilevanti sull’intero customer journey. Con queste informazioni, è possibile analizzare l’impatto di ogni touchpoint, ottimizzando i processi e migliorando l’offerta di servizi o prodotti in base al feedback ricevuto. In questo modo, le aziende possono offrire prodotti e servizi iper-personalizzati grazie all’analisi dei dati e all’automazione intelligente dei processi.
Questo approccio facilita l’alimentazione di modelli di Intelligenza Artificiale attivati in tempo reale - o addirittura in modo predittivo - riducendo così i tempi di latenza, il time-to-market e i costi associati.
4.) D.A.T.A: dati come asset di trasformazione
I dati non hanno un valore di per sé, ma sono postulati come un vantaggio aziendale nella misura in cui diventano un asset monetizzabile e differenziante. Il D.A.T.A. (Data as A Transformational Asset) dovrebbe essere inteso qui come l’insieme di dati, algoritmi, pratiche, impatto diretto e informazioni disponibili per un’azienda. Le organizzazioni che sfruttano queste informazioni e ne estraggono valore si differenzieranno dai loro concorrenti.
Calcolare il valore dei dati e ciò che racchiudono - dagli algoritmi, come si interconnettono, alle migliori pratiche ecc. - ha un impatto diretto sul prezzo delle azioni e sull’attrattiva di un’azienda. Ora o mai più: le regole del mercato stanno già cambiando - prendendo come esempio le aziende che scommettono sulla R&S o le stesse start-up - quindi è il momento di concentrarsi sul vantaggio competitivo dei dati comprendendo e sfruttando tutto il loro potere di trasformazione.
Tendenze in ascesa
Queste tendenze avranno un impatto significativo.
5.) Ambienti affidabili alimentati da Cybersecurity Analytics, Blockchain e Privacy-Enhancing Computation
Le strategie di cybersecurity che proteggono i perimetri tradizionali - elaborazione, condivisione, trasferimento e analisi - stanno diventando più diffuse tra le aziende. Questo approccio proattivo alla cybersicurezza è basato sull’identità e utilizza la raccolta dei dati e le capacità di analisi (Cybersecurity Analytics), per un rilevamento più rapido delle minacce e per compiti di sicurezza manuali.
L’ambiente della cybersecurity è anche supportato dalla tecnologia Blockchain, un grande alleato in quanto garantisce l’archiviazione dei dati attraverso la loro decentralizzazione e informazioni criptate. Questa tecnologia porta grande valore, soprattutto nell’identità, nella protezione delle infrastrutture e nella tracciabilità del flusso di dati.
In questo contesto, appare sulla scena anche la Privacy-Enhancing Computation (PEC), un insieme di tecnologie che protegge i dati durante l’elaborazione, la condivisione, il trasferimento e l’analisi. L’adozione della PEC è in aumento, in particolare per la prevenzione delle frodi. Secondo Gartner, "entro il 2025, il 50% delle grandi organizzazioni adotterà la tecnologia per aumentare la privacy dell’elaborazione dei dati in ambienti non fidati o in casi d’uso di analytics con più fonti di dati."
6.) Quando due forze si scontrano: Self-Service 2.0 & Auto ML
Le aziende stanno scommettendo sui modelli Self-Service 2.0 e Auto Machine Learning per aumentare le loro capacità di estrazione di insight: queste tecnologie, infatti, accelerano l’adozione di soluzioni dando accesso diretto agli utenti finali, democratizzando l’accesso ai dati e concentrandosi sulla generazione di insight. Da un lato, Self Service 2.0 sta integrando e sfruttando le capacità analitiche dei modelli guidati dall’AI. Dall’altro, Auto ML utilizza l’aspetto visivo e di reporting per presentare i suoi algoritmi avanzati. Tali evoluzioni mostrano come queste tecnologie facilitino un approccio a 360° in ogni dominio. In questo modo, coprono gli aspetti analitici per tutti gli utenti.
In parallelo a questo “shock”, vediamo le aziende incluse nel portfolio Self-Service e Auto ML muoversi e fare acquisizioni. Stanno infatti lavorando per colmare il divario tra l’analitica avanzata e la BI (Business Intelligence), mettendo le capacità predittive a disposizione di chi non è un esperto di dati.
7.) AI responsabile e privata come imperativo
La rivoluzione portata dal Quantum Computing unita all’AI ci porta ad avere una grande responsabilità verso la gestione etica dei dati. Dopo il successo della privacy dei dati (guidata dalla legislazione GDPR), è ora il momento di regolamentarne l’uso, garantendo il suo sviluppo etico e responsabile quando ha un impatto sui cittadini. Le aziende e le istituzioni devono definire la loro strategia di "AI for Good" per ridurre al minimo il debito tecnico e impegnarsi in processi di ingegneria solidi con algoritmi trasparenti ed equi.
In questa logica, nasce il nuovo concetto di AI privata. Nelle amministrazioni pubbliche o negli enti in cui la condivisione dei dati è complessa, si stanno creando strategie di AI per ottenere intuizioni utilizzando la crittografia e, quindi, esponendo i dati il meno possibile.
8.) La prossima grande novità: l’intelligenza artificiale quantistica guadagna terreno
Sempre più aziende stanno investendo nella Quantum AI perché si aspettano che diventi la prossima rivoluzione. Attualmente stiamo vivendo un significativo parallelismo nel modo in cui il calcolo quantistico si sviluppa e la sua convergenza con le tecniche di analisi avanzate. Dobbiamo fare un uso consapevole e coerente dei benefici di questo nuovo paradigma.
La Quantum AI sfrutterà la superiorità di elaborazione del Quantum Computing per ottenere risultati irraggiungibili con le tecnologie di calcolo classiche. Permetterà l’elaborazione di grandi insiemi di dati, una risoluzione più agile di problemi complessi e una migliore modellazione e comprensione del business. Ci sono molti benefici che queste tecniche potranno offrire dopo il salto dal mondo scientifico a quello degli affari. Ci sono poche aziende oggi che non approfittano dei vantaggi di incapsulare la conoscenza, che prima era solo azionabile dagli esseri umani, nel quadro di un processo decisionale intelligente e agile. Siamo sulla soglia di una tendenza tecnologica che rimodellerà il futuro dei mercati e delle industrie nei prossimi decenni.
Tendenze in lenta evoluzione
Queste tendenze stanno iniziando a emergere.
9.) Ecosistema del Metaverso: abilitazione della realtà estesa
“Metaverso” non è solo una parola chiave nel settore della tecnologia, è un ecosistema che faciliterà lo sfruttamento della cosiddetta XR (eXtended Reality), ovvero la realtà estesa. Sotto l’ombrello XR, troviamo tutte le tecnologie immersive che fondono il mondo reale con quello virtuale: realtà aumentata (AR), virtuale (VR) e mista (MR).
L’insieme di prodotti e servizi costruiti intorno al Metaverso incoraggia l’innovazione nei dispositivi e nell’hardware - come gli occhiali e le lenti a contatto - in grado di facilitare la realtà estesa, che diventerà sempre più accessibile alle aziende e agli utenti finali. L’ascesa del metaverso influenzerà direttamente l’innovazione e la maturità dei dispositivi XR: costeranno meno e accelereranno l’intero ciclo tecnologico. La previsione è che l’ecosistema del metaverso muoverà circa 800 miliardi di dollari entro il 2024 e 2,5 trilioni di dollari entro il 2030 (Bloomberg Intelligence). La realtà estesa è un insieme di risorse tecnologiche che offriranno agli utenti di immergersi in esperienze interattive basate sulla combinazione di dimensioni virtuali e fisiche.
10.) AI generativa: un salto in avanti verso il contenuto generato automaticamente
L’intelligenza artificiale è di solito usata per addestrare algoritmi basati su risultati preesistenti, ma può creare contenuti e innovare da sola? La risposta è sì, e si basa sull’AI generativa, uno degli sviluppi più promettenti nell’ambiente dell’AI nei prossimi anni. L’AI generativa permette ai computer di riconoscere automaticamente i modelli sottostanti relativi alle informazioni di input e poi generare nuovi contenuti originali.
Per dirla in un altro modo, l’AI generativa è una forma di intelligenza artificiale che impara la rappresentazione digitale di contenuti esistenti, come ad esempio dati di transazioni, testo, file audio o immagini. La usa per generare nuovi prodotti originali e realistici che mantengono una somiglianza con i dati di addestramento. Questo permette all’AI generativa di essere per le aziende un rapido motore di innovazione nello sviluppo di software, come anche nella produzione di nuovi prodotti farmaceutici, nell’analisi meteorologiche e nel rilevamento delle frodi.
Tendenze passate: