Pagine

Visualizzazioni totali

giovedì 4 ottobre 2012

Le 3 V che segnano che segnano il futuro dei big data (e anche il nostro)

Nel 2003 avevamo prodotto collettivamente 5 miliardi di gigabyte di dati (o exabyte). L’anno scorso questa cifra è salita a 1,8 trilioni di gigabyte (o zettabyte). Si tratta di dati prodotti dagli acquisti e dalle vendite, dai cellulari, dai nostri spostamenti (es. il telepass), dagli oltre 30 milioni di sensori istallati in città (quelli per la misurazione delle polveri sottili) o incorporati in oggetti (macchine industriali, automobili, contatori elettrici, ecc..), dalle attività svolte online.
Pensate che ogni minuto in rete vengono spedite 204 milioni di email, effettuate 2 milioni di ricerche su Google, caricate l’equivalente di 48 ore di video su YouTube, creati più di 27mila post su Tumblr e WordPress, inviati oltre 100mila tweet e compiute oltre 2.2 milioni di azioni su Facebook (like, condivisioni, commenti, ecc…). Big data è il termine che viene usato ultimamente per far riferimento a base dati che hanno alcune caratteristiche peculiari, le 3 V:
  • Volume: nel senso di ingenti quantitativi di data set non gestibili con i database tradizionali;
  • Velocity: dati che affluiscono e necessitano di essere processati a ritmi sostenuti o in tempo reale. La velocità a volte è un fattore critico per garantire la soddisfazione del cliente;
  • Variety: elementi di diversa natura e non strutturati come testi, audio, video, flussi di click, segnali provenienti da RFID, cellulari, sensori, transazioni commerciali di vario genere.
Una miniera di informazioni a disposizione delle organizzazioni che saranno in grado di acquisirli, gestirli, interpretarli. Le aziende potrebbero utilizzarli per analizzare i rischi e le opportunità di mercato, ma soprattutto per comprendere più a fondo i bisogni dei clienti, addirittura prima che questi li esprimano. Wal-Mart ha acquisito una società specializzata per monitorare i post su Facebook, Twitter, Foursquare e individuare i punti vendita da rifornire adeguatamente dei prodotti più citati.
Anche le pubbliche amministrazioni potrebbero trarre vantaggio dalla comprensione dei dati a loro disposizione. Ad esempio l’agenzia per il lavoro tedesca analizzando i dati storici sull’impiego e sugli investimenti effettuati, è riuscita a segmentare la popolazione dei disoccupati per offrire interventi mirati ed efficienti. Ciò si è tradotto in un risparmio di 10 miliardi di euro all’anno e nella riduzione del tempo impiegato per ottenere un lavoro.
Ma per ottenere questi vantaggi c’è bisogno di tecnologie sofisticate e un cambiamento culturale non indifferente. Infatti tutti questi bit sono inutili senza un investimento in risorse umane competenti che sappiano come trasformarli in informazioni utili. Il lavoro del data scientist è uno di quelli che nei prossimi anni sarà sempre più richiesto. Secondo McKinsey, nei soli Stati Uniti per poter sfruttare efficacemente le potenzialità dei big data occorrerebbero un milione e mezzo di analisti e data manager. Se le grandi organizzazioni imparano ad unire i punti delle nostre esistenze per i propri fini commerciali quali problemi potrebbero sorgere? Chi ci dice che non cedano alla tentazione di mettere in atto analisi predittive arbitrarie e discriminatorie per alcune categorie sociali?
Nella società dei dati dove la conoscenza asimmetrica, tra aziende e individui, può acuire enormemente il divario sociale, la gestione dei big data dovrebbe essere affrontata come una questione che coinvolge i diritti civili di tutti. C’è bisogno di stabilire, per tempo, nuove regole in termini di privacy, controllo e conservazione dei dati, trasparenza delle analisi, sicurezza. Alcune riflessioni e proposte in tal senso le trovate nel mio ultimo ebook che si intitola proprio “La società dei dati“.