Sezione divulgativa IT – 6 – Machine Learning e Business Intelligence

Machine Learning e Business Intelligence

Le sfide per implementare il probabile sacro graal degli analytics

Di solito scrivo di dati, database e di Business Intelligence. Oggi di “Machine learning” in quanto è uno dei temi attualmente più caldi tra quelli trattati dalla stampa specializzata negli ambiti tecnologia, innovazione e business. Esso ha comunque un forte collegamento con la Business Intelligence (BI); questo legame diventerà sempre più profondo con la BI – comunque dotata di propria dignità – posizionata come tramite tra il Machine Learning e l’Intelligenza Artificiale.

Una BI in fase di transizione guidata fondamentalmente da temi cui abbiamo già accennato – analytics, tecniche di visualizzazione e navigazione dei risultati, database no-sql, big data – e, vediamolo ora, appunto il machine learning.

Mi piace pensare alla BI in evoluzione in cui essa diventa sostanzialmente UN componente, non IL componente, di un continuum di sistemi interagenti tra loro, dedicati a fornire supporto alle decisioni.

Un esperto di intelligenza artificiale, a questo punto, vedrebbe un ulteriore step: il sistema che prende decisioni da solo.

Sistemi più evoluti potenzialmente capaci di affrontare problemi più complessi e di generare soluzioni che forse la mente umana – magari ad eccezione di qualche genio – non può neppure immaginare. E’ inevitabile pensare che, tra le righe, si parla di sistemi che a modo loro sono capaci di sfiorare il concetto di “pensiero autonomo”, ma non ho le competenze per entrare negli eventuali problemi etici del campo, per cui mi limito ad alcuni aspetti tecnologici.

Analizziamo lo scenario attuale ed alcune probabili evoluzioni, partendo da questo punto: in sintesi che cosa è il “machine learning” cioè l’apprendimento automatico?

L’apprendimento automatico è la pratica di creazione di sistemi informatici ed algoritmi che si basino su osservazioni di dati – storici o in tempo reale – per derivarne una nuova conoscenza.

Sotto il punto di vista dei vantaggi teorici, possedere un certo livello di conoscenza predittiva è enorme. Sapendo come evolve lo scenario, dove stanno andando le cose, si può adattare la propria azienda o crearne una nuova, far evolvere il proprio modello di business per creare o mantenere un vantaggio sulla concorrenza.

La attività di apprendimento può avvenire catturando caratteristiche rilevanti provenienti da database o da valori rilevati da sensori, per analizzarle e valutarne le relazioni tra le variabili osservate, arrivando alla definizione di tendenze, trend e comportamenti, fino a modellarne i modelli sottostanti.

Il primo accenno a tale idea è di Arthur Samuel – pioniere americano nei campi dell’intelligenza artificiale – che nel 1959 definì il Machine Learning come “campo di studi per dotare i computer della capacità di imparare, acquisire nuove competenza, senza la necessità di essere esplicitamente programmati per un determinato compito”.

Una definizione formale è stata successivamente fornita da Tom M. Mitchell nel 1998, ed include qualunque programma per computer che sia in grado di migliorare le proprie prestazioni su un certo compito attraverso la sua stessa esperienza. Più precisamente: “un programma apprende da una certa esperienza E se: nel rispetto di una classe di compiti T, con una misura di prestazione P, la prestazione P misurata nello svolgere il compito T è migliorata dall’esperienza E”.

Ad esempio, un programma per computer che impara a giocare a dama potrebbe migliorare la propria performance, misurata attraverso i risultati ottenuti nel gioco stesso, facendo esperienza giocando ripetutamente contro se stesso.

[Con un po’ di ironia vediamo anche un umano che impara…]

Il tema dell’apprendimento automatico può essere considerato, ad oggi, il “Sacro Graal” del filone degli Analytics. Probabilmente il più promettente per il future e, vista l’ampezza del tema, agli aspetti architetturali e tecnologici del machine learning dedicheremo ulteriori post.

Nel passato, implementare una soluzione di machine learning era complesso oltre che costoso, con la necessità di coinvolgere figure professionali come i data scientist su progetti di durata non banale. Oggi è disponibile la potenza a basso costo e on-demand sul cloud, con la quale abbattere alcune di queste barriere.

E la possibilità di sperimentare è uno degli aspetti più fascinosi del nostro lavoro in ambito IT.

La motivazione a scavare nel mondo degli Analytics per ottenere vantaggi competitivi, come detto prima, ha una motivazione abbastanza evidente e, come accadde al mondo della BI ai suoi inizi, ha una curva di apprendimento con una certa pendenza abbastanza ripida e delle notevoli barriere economiche, tecnologiche, di visione e di cultura. Possiamo dire che si tratti di una sfida “di livello enterprise”.

Una analisi “convenzionale” – basata su tool standard e facili della BI, tecnologia oggi facilmente disponibile ed a basso costo – consentono di creare misure ed indicatori (KPI) a misura degli utenti secondo percorsi tipicamente lineari e mono-focali, mentre una analisi “evoluta”, diciamo potenzialmente proveniente da considerazioni “data-driven” ma non generata da cervello umano potrebbe andare, anche contemporaneamente, in direzione diverse secondo differenti modelli di pensiero e di logica.

Risultati poi da validare, ma si tratta di un bel passo avanti.

Non più solo analisi convenzionali, basate su ragionamenti lineari e relative correlazioni tra variabili, caratterizzati dalla facile rappresentazione in un grafico o in un pivot, con eventuali scenari what-if, ma analisi evolute in cui macchine scansionino enormi moli di dati alla ricerca, ad esempio, di pattern nascosti.

Potenzialmente, ben oltre alla analisi di dati storici che può pilotare una persona; arrivare a scoprire connessioni non ovvie o addirittura dannatamente nascoste, che oltrepassino le nostre capacità di ragionamento.

Macchine che ci dicano loro, senza una nostra precedente richiesta, ciò che è importante nei dati analizzati. Algoritmi che decidono autonomamente quali analisi proseguire in profondità, stimando cosa approfondire e cosa ritenere non fruttifero. Autonomamente. Quasi un ribaltamento di ruoli.

Ricerche hanno già dimostrato che analisi data-driven possono fornire decisioni più precise ed efficaci rispetto a quelle prese da un umano [e faremo un post con alcuni casi di esempio]. Sembra umiliante per il cervello umano ma è così.

Abbiamo parlato di data lake, ma in questo scenario una macchina può affrontare pure un data ocean uscendo dal confine dei dati di una singola azienda.

Questo scenario rappresenta una sfida fantastica, di alto livello, ancora non tentata fino in fondo. Una sfida in pieno divenire. E, ma ormai voi lettori lo sapete 🙂 , dove c’è evoluzione o sfida – almeno nel campo del trattamento dati – io cerco sempre di esserci.

Daniele Vanoncini

Annunci
Questa voce è stata pubblicata in divulgazione IT, lavoro, ricerca, scienza e contrassegnata con , , , , , , , . Contrassegna il permalink.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...