big data

I Big Data, come suggerisce il nome, si riferiscono a insiemi di dati molto grandi raccolti tramite servizi gratuiti o commerciali su Internet.

Questa enorme quantità di dati deriva da sensori, post su siti di social network, immagini digitali, video pubblicati online, record di transazioni di acquisti online e segnali GPS di telefoni cellulari, solo per citarne alcuni.

Un paio di aspetti dei big data degni di nota sono:

  • è impossibile rimuovere/prelevare informazioni dai big data: le informazioni una volta aggiunte persisteranno indefinitamente nel cloud
  • praticamente tutte le informazioni archiviate elettronicamente, comprese le informazioni all’interno dei dispositivi personali, l’archiviazione dei dati offline, anche le informazioni che si ritiene debbano essere eliminate, hanno il potenziale per essere incluse nei big data.

Uno sviluppo correlato è stato nei sistemi sensoriali che sono diventati online. Alcuni come apparati dedicati, altri in forme secondarie come smartphone e tablet.

Il panorama in continua evoluzione di numerosi dispositivi connessi a Internet – Internet of Things (IoT) – produrrà numerose applicazioni personali e industriali come sensori connessi a Internet per l’automazione domestica, assistenza alla guida, monitoraggio della salute, assistenza all’infanzia e agli anziani, ecc.

La trasformazione dei big data in informazioni identificabili ha portato allo sviluppo di sistemi ad accesso aperto a supporto dei servizi di previsione. Le vaste informazioni nel web, se analizzate come big data, possono essere utilizzate per valutare il rischio e aumentare la competitività.

Un’area che ha notevolmente beneficiato dell’analisi dei big data è la previsione basata sulla domanda, in cui le decisioni vengono prese dall’analisi di enormi volumi di dati.

Il potenziale per la previsione continuerà ad aumentare notevolmente man mano che verranno inclusi i dati sulla posizione e altri dati sul campo provenienti dai sensori. Ad esempio, i sistemi di coordinamento delle ambulanze che includono le previsioni del tempo e del traffico saranno più robusti durante i periodi critici.

Ma gli algoritmi che sfrutteranno tutto il potenziale dei big data non sono ancora del tutto pronti, in particolare se i dati sensoriali e dei dispositivi devono essere inclusi all’interno di sistemi informativi più convenzionali come lo shopping online e altri servizi basati sul web.

Data mining e sfruttamento dei big data

Il data mining è il processo di analisi delle relazioni tra i dati, collegando i punti e trovando significati nascosti e relazioni che possono fornire nuove sorprendenti intuizioni.

Questo processo di scoperta della conoscenza fornisce informazioni che possono essere utilizzate dall’industria per aumentare i ricavi e ridurre i costi. È qui che il gioco cambia dal cloud che è semplicemente un repository di vaste informazioni a una tecnologia che offre notevoli vantaggi a coloro che possono utilizzarla correttamente.

I recenti progressi nell’elaborazione parallela, nel calcolo distribuito e nel calcolo ad alte prestazioni (HPC) hanno consentito l’analisi dei dati su scala Internet che fornisce informazioni strategiche ai propri operatori.

Cosa si può fare con i big data?

Considera il potenziale di essere in grado di prevedere i risultati di determinati tipi di eventi mondiali o di essere in grado di rispondere a domande specifiche relative alle questioni aziendali quotidiane.

I ricercatori nel Regno Unito hanno studiato 45 miliardi di query di Google paese per paese e hanno scoperto che le persone nei paesi con un PIL più elevato mostrano una maggiore propensione a pensare al futuro rispetto alle persone delle economie meno sviluppate.

La competizione per trarre conclusioni più accurate dai big data universalmente disponibili su Internet è in aumento.

La natura fornisce numerosi esempi di come elabora tipi vasti e disparati di fonti di informazione:

  • le api riconoscono nei fiori caratteristiche abbastanza complesse: è stato dimostrato che possono riconoscere anche i volti umani
  • un moscerino della frutta può condurre acrobazie di volo sbalorditive con un cervello in miniatura, abbastanza piccolo da stare sulla punta di uno spillo, che utilizza minuscole quantità di energia.

Sappiamo che il cervello umano ha una densità di rete di gran lunga maggiore di qualsiasi rete creata dall’uomo, tuttavia può integrare in modo abbastanza efficiente grandi quantità di informazioni derivanti da processi interni e sensazioni esterne.

Nuovi studi della neuroscienza stanno rivelando dettagli sul funzionamento interno del cervello umano. Ciò ha portato a nuovi interessanti algoritmi, che tendono a emulare le funzioni cerebrali per il riconoscimento di suoni e schemi.

Questi modelli computazionali (noti come bio-ispirati o biomimetici) in linea di principio dovrebbero essere in grado di interpretare i big data su scala Internet, cosa che fa il cervello, con stimoli interiori e sensoriali, a scale molto più elevate.

Ma riprodurre tale elaborazione all’interno di un computer convenzionale richiede molto tempo. L’emulazione anche di una piccola parte dell’attività cerebrale per un periodo di tempo molto piccolo può richiedere migliaia di ore, se non giorni, su un computer desktop.

Attualmente è necessario un supercomputer per simulare piccole parti del cervello. Raggiungere il pieno potenziale dell’estrazione di big data utilizzando un’elaborazione simile a un cervello, in questo momento, non è facilmente realizzabile.

Dove andiamo da qui?

Le università australiane sono state in prima linea nell’analisi dei big data e nella presentazione di soluzioni praticabili, attraverso progetti come DART e ARCHER.

La loro partecipazione alla ricerca collaborativa internazionale sui metodi delle reti di sensori wireless bio-ispirati sta aprendo nuovi percorsi di ricerca che imitano il cervello umano nel trovare un significato attraverso nuove forme di progettazione di sistemi, come un computer polimorfico in fase di ricerca presso la Monash University.

Sono allo studio miglioramenti ai metodi di calcolo convenzionali che consentiranno un’interpretazione più approfondita dei dati su scala Internet. La combinazione di nuove forme di computer che elaborano i dati nel cervello umano in modo simile, nuovi algoritmi derivati ​​dalle neuroscienze e progressi nelle tecniche di cloud computing forniscono un forte nesso per l’uso strategico dei big data.

Si può sostenere che la capacità di analizzare completamente i dati su scala Internet sarà fondamentale per le nazioni nel mantenere la loro prosperità e forse anche la sicurezza. Il futuro potrebbe davvero dipendere da chi dispone delle migliori tecnologie per i big data.

Autore

Asad KhanUniversità di Monash