Blog

  • +
    Webinar | Domina il cambiamento AWS: Agile on cloud | giovedì 25 giugno ore 10.00
  • +
    Atlassian: la suite preferita dai team felici (tutti quanti)
  • +
    Rating della legalità: il punteggio di Miriade
  • +
    Webinar: Domina il cambiamento con KNIME | giovedì 11 giugno
  • +
    QuiPass: la web app salta coda che gestisce gli ingressi
  • +
    Lavoro da remoto: lo stato dell’arte
  • +
    Le analitiche avanzate per ripartire con slancio
  • +
    IT manager e CIO vs Covid-19: strategie nel breve e lungo periodo
  • +
    Il cloud sempre più vicino a te. AWS inaugura la nuova Regione AWS Europe a Milano.
  • +
    Webinar: Trasferisci i tuoi file in piena sicurezza con MOVEit | 16 aprile
  • +
    Webinar | Cybersecurity e Smart working: come si conciliano nell’era del Coronavirus | 8 aprile
  • +
    Mitigare l’impatto del Coronavirus: consigli per gli IT

Trend BI 2020: le analytics non bastano più

By Luca Zanetello 3 mesi fa

Quante volte a scuola ci siamo sentiti ripetere “siate sintetici!”. La capacità di sintesi non è solo una dote che la professoressa ci chiedeva di allenare per evitare dei temi lunghissimi, ma è una necessità anche per le aziende.

In un mondo sempre più frammentato, con dati provenienti da un’infinità di fonti e in tantissimi formati, risulta infatti necessario trovare un modo di aggregare e sintetizzare le informazioni per creare un mosaico strutturato di connessioni su cui basare le proprie decisioni di business.

Qlik ha individuato i trend per il 2020 che faciliteranno il processo di sintesi e di analisi.

1. “Real-time” is the new black

Per poter creare il mosaico di dati di cui si parlava sopra, è necessario ricevere le informazioni nel posto giusto e al momento giusto. Le maggiori aziende a livello mondiale operano in tempo reale per riuscire a rispondere in brevissimo agli stimoli e alle esigenze del mercato. Questa rapidità sarà favorita nel 2020 da tre recenti innovazioni:

– Elevata velocità, sempre e ovunque
Grazie a 5G e IPV6, abbiamo accesso all’ultra-connettività.
– Carichi di lavoro infinitamente scalabili
Tutto si sta spostando verso il cloud e Kubernetes è lo strumento che permette ai giusti carichi di lavoro di funzionare nei posti giusti, anche sui dispositivi edge.
– Architettura di streaming
Change Data Capture (CDC) e streaming dei dati in tempo reale sono resi possibili da soluzioni come Apache Kafka per l’ingestion e l’elaborazione in modo efficiente, con bassa latenza e su larga scala.

2. I Wide Data sorpassano i Big Data
Mentre negli scorsi anni i Big Data sembravano una montagna enorme da scalare, grazie all’avanzare della tecnologia, il misticismo attorno ad essi è via via andando a disperdersi. Ora si parla di “Wide Data”, altamente distribuiti e con formati sempre più variegati e frammentati.

La necessità di gestire questo tipo di dati ha portato a un’esplosione dei database (che sono più che raddoppiati negli ultimi 5 anni). Le aziende che sapranno gestire meglio questa sintesi di dati da molteplici fonti, saranno in grado di contraddistinguersi.

3. Le analitiche grafiche e la tecnologia associativa scalzeranno l’SQL
Per decenni ci si è accontentati di soluzioni che non sono ottimizzate per le analytics. I database SQL con righe e colonne sono progettati per l’inserimento dei dati. Gli strumenti di analytics relazionali si basano sulle relazioni tra le tabelle di dati, il che significa che gli utenti possono esplorare i dati solo attraverso connessioni predefinite.

Con il volume di dati odierno, questi strumenti non solo non aiutano a trovare connessioni inaspettate, ma contribuiscono anche a peggiorare la frammentazione dei dati.
Approcci alternativi come le analytics grafiche e la tecnologia associativa consento di individuare meglio i diversi collegamenti, aiutando ad affrontare problemi molto più grandi e di ottenere risultati migliori, specialmente quando si applica l’AI.

4. (DataOps + self-service) = nuovo Agile
Le analytics self-service, rese possibili dagli strumenti di Data Discovery, avvicinano i business user alle risposte di cui hanno bisogno. La stessa agilità, tuttavia, non è stata finora promossa sul lato della gestione dei dati.
Traendo ispirazione da DevOps, DataOps è una metodologia automatizzata e orientata ai processi che migliora la qualità e velocizza il tempo di ciclo della gestione dei dati per le analytics. Automatizza i test e l’implementazione dei dati, in tempo reale, grazie a tecnologie come il Change Data Capture (CDC) e le pipeline dei dati in streaming. Inoltre, sfrutta le risorse IT on-demand per fornire una trasmissione continua dei dati.

Con DataOps sul lato operativo e il self-service sul lato business user, le aziende sperimenteranno un flusso di dati più efficiente lungo l’intera catena di valore dell’informazione, consentendo la sintesi e l’analisi per la creazione del mosaico di dati.

5. I cataloghi di metadati attivi sono il tessuto connettivo per dati e analytics
I set di dati sono sempre più ampi e distribuiti, il che rappresenta una grande sfida per le aziende, poiché tutti i dati devono essere inventariati e sintetizzati. Abbandonati a se stessi, i dati possono diventare obsoleti in fretta. I cataloghi dati possono essere di aiuto, quindi non sorprende che la loro richiesta stia aumentando vertiginosamente.
Una soluzione promettente è rappresentata dai cataloghi di metadati supportati dal machine learning. Consentono di spostare i dati da passivi a attivi, mantenendoli adattivi e mutevoli, anche in ecosistemi ibridi/multi-cloud. Questi cataloghi di metadati forniscono il tessuto connettivo e la governance necessari per gestire l’agilità offerta da DataOps e self-service.

E tu sei pronto a sfruttare tutti i vantaggi della BI?
Scopri come partire con il piede giusto con il nostro test.

.

Category:
  Miriade
this post was shared 0 times
 000