Advanced Analytics

Dati complessi per obiettivi di business concreti

La definizione di ciò che viene considerato come dato “analizzabile” in termini di Advanced Analytics si è ampliata in maniera sostanziale negli ultimi anni.

La diffusione del concetto di “open data” è sicuramente cruciale, ma è importante sottolineare, oltre alla disponibilità di nuove fonti, la loro leggibilità da parte di sistemi automatici per il trattamento dell’informazione. Formati popolari di interscambio (es. RDF) hanno permesso di codificare in maniera machine-readable strutture relazionali complesse e ontologie, di correlare dati originari di mondi molto diversi.

Progressi nel campo del Natural Language Processing (NLP) consentono finalmente di considerare dati non strutturati come informazione (pensiamo alle grandi moli di documenti in possesso delle aziende o al flusso continuo di testo generato dal Web). Questi big data, da pensare anche come “hard data” (difficili da trattare con metodi tradizionali) possono essere a loro volto affiancati a fonti maggiormente strutturate per corroborarle o metterle in dubbio. Un esempio classico è il confronto fra sondaggi su un campione predefinito (e con domande predefinite) e l’ascolto di fonti social (Twitter, Facebook, Instagram), ove la comunicazione e l’espressione di opinioni avvengono sostanzialmente in libertà.

Avanzamenti infrastrutturali (processori più potenti, possibilità di servirsi di schede grafiche per effettuare i calcoli più dispendiosi) rappresentano un ulteriore elemento abilitante l’estrazione di conoscenza da grandi banche dati. Metodi avanzati di analisi possono essere finalmente applicati con tempi di risposta accettabili.

Realizzare che più fattori concorrono nel produrre valore dal dato, aldilà della sua mera “esistenza”, ha condotto ad una importante nozione di “information quality”. Gli obiettivi di analisi e gli strumenti a disposizione per raggiungere tali obiettivi sono importanti quanto il dato grezzo. L’esperienza guadagnata nel corso di numerosi progetti ci permette di:

  • Identificare rapidamente e con chiarezza gli scopi di un’analisi, ovvero rispondere alla domanda “Per cosa posso usare il mio dato?”
  • Definire efficacemente un percorso (analisi esplorativa, formulazione di un modello, implementazione della tecnologia necessaria) che conduca agli esiti desiderati
  • Utilizzare in maniera razionale risorse già in nostro possesso (linguistiche, statistiche, umane) per concentrare gli sforzi laddove lo sviluppo di nuove tecnologie sia realmente necessario

In particolare, di fronte alla diffusione di conoscenze e strumenti (librerie open-source, API) per il Machine Learning, l’eccellenza di CELI si concretizza nella scelta degli algoritmi, nella loro combinazione (anche in strutture di Deep Learning), personalizzazione e interpretazione. Mettere l’utente in condizione di capire i risultati di una procedura di analisi, potenzialmente molto complessa, è cruciale per consentire a conoscenze di dominio pregresse di rendere completa l’estrazione di informazione di alta qualità da una banca dati. La validazione umana è l’obbligato passo finale di un flusso di analisi, soprattutto nel mondo NLP, che coinvolge frequentemente dati testuali ambigui e criteri di informatività estremamente soggettivi.

Casi d’uso:

  • Flussi real-time di dati social: monitoraggio e studio di fenomeni complessi; quali fattori guidano davvero la comunicazione?
  • Log di ricerche su banche dati verticali: come trovare meglio ciò che c’è
  • Volumi di ricerca online: dedurre atteggiamenti e comportamenti della popolazione

Contattaci per una demo






Autorizzo il trattamento dei miei dati personali secondo la normativa sulla privacy ai sensi dell’Art. 13 D.LGS 30/06/2003, n.196 e ai sensi del D.lgs. 196/2003 e successivi