From data
To meaning

Nel 2010 l’Intelligenza Artificiale (AI) era molto più presente in film e serie tv distopiche di fantascienza che nella vita quotidiana: Black Mirror ne è un esempio. 
Molto è cambiato da allora. L’AI è ormai impiegata pressoché in ogni ambito. Quando scattiamo foto di qualità con il nostro smartphone, oppure quando Netflix ci consiglia la prossima serie TV da guardare, ma anche quando sblocchiamo il nostro telefono grazie al riconoscimento facciale, dietro tutti questi processi c’è una componente di AI. Secondo la giornalista di tecnologia Alice Bonasio, negli ultimi cinque anni la ricerca nei diversi ambiti dell’AI è cresciuta del 12,9% l’anno in tutto il mondo. 

Ma quali sono le ragioni che hanno portato la tecnologia a svilupparsi così rapidamente? Per capirlo meglio, facciamo un piccolo passo indietro.

 

Perché l’AI si è sviluppata nel corso degli ultimi anni

 

Le ragioni che hanno portato all’accelerazione nell’utilizzo dell’AI nell’ultimo decennio sono sostanzialmente 5:

1) I dati disponibili sono cresciuti a ritmi elevatissimi: pensiamo a tutte le informazioni presenti sui social media, ma anche ai dati provenienti dai sensori o dagli oggetti “intelligenti” (Internet of Things). Non dimentichiamo che circa il 60% della popolazione adulta mondiale dispone di uno smartphone. Nel 2010 venivano prodotti nel mondo 2 Zettabyte di dati; nel 2018 sono diventati 33. Uno zettabyte corrisponde a mille miliardi di gigabyte, pari a 180 milioni di volte le documentazioni conservate nella Biblioteca del Congresso di Washington.

2) La capacità di stoccaggio delle informazioni è aumentata e, allo stesso tempo, i relativi costi sono diminuiti. Negli anni novanta la capacità di archiviazione installata al mondo cresceva di circa il 20% circa all’anno. Allora, il 95% delle informazioni memorizzate era analogico e solo il 5% digitale. Il cambiamento epocale è avvenuto quando il digitale ha iniziato a diventare il formato di archiviazione predefinito. Nel 2000, le informazioni archiviate in formato digitale ammontavano al 25% sul totale; nel 2007 era già stato raggiunto il 97%.

3) Il machine learning (ML) consente ai computer di imparare “da sé” attraverso grandi quantità di dati. La maggior parte degli sviluppi avvenuti nella passata decade si sono focalizzati su una branca del ML chiamato Deep Learning (DL), che si ispira al modo in cui i neuroni lavorano nel cervello.
Per esempio un computer, a partire da un grande numero di esempi di testi in lingua originale e della loro traduzione, può ricevere un testo mai visto e tradurlo basandosi sull’esperienza passata.
Il deep learning può venire in aiuto anche nel mondo della cybersecurity per il rilevamento delle intrusioni in ambito informatico, ma funziona bene anche con malware e con il rilevamento di URL pericolose. Sui social media, come per esempio Pinterest, è possibile effettuare una ricerca visuale, ingrandire un oggetto specifico in un “Pin” e scoprire oggetti visivamente simili per colori e motivi.

 

4) I data scientist hanno a disposizione computer sempre più potenti con possibilità di calcolo impensabili solo fino a qualche anno fa e che consentono loro di progettare algoritmi sofisticatissimi. Il computer quantistico di Google ha recentemente risolto in 200 secondi un calcolo che un supercomputer tradizionale risolverebbe in 10.000 anni.

5)  Iniziano a diffondersi delle applicazioni utilizzabili da tutti che provengono dagli sviluppi dell’intelligenza artificiale: una su tutte, forse quella che ci pare più fantascientifica, è la nascita delle interfacce conversazionali, che ci permettono di interrogare o comandare i nostri computer o oggetti (il navigatore, Siri, Alexa di Amazon) utilizzando la nostra voce.

 

Il futuro

 

Si dice che siamo all’apice della Quarta rivoluzione industriale, una rivoluzione completamente diversa dalle tre precedenti: dal vapore all’energia idrica, dall’elettricità alle catene di montaggio fino all’informatizzazione. Secondo Forbes, la Quarta rivoluzione industriale “implicherà cambiamenti esponenziali nel modo in cui viviamo, lavoriamo e ci relazioniamo l’uno con l’altro a causa dell’adozione di sistemi cyber-fisici, Internet of Things e Internet of Systems”.

I luoghi di lavoro e le organizzazioni stanno diventando “più intelligenti” e più efficienti come macchine, gli esseri umani stanno iniziando a lavorare insieme a queste tecnologie intelligenti e a usare i dispositivi connessi per migliorare l’efficienza in ambito produttivo, come, per esempio  nella catena di approvvigionamento e nella gestione dei magazzini.

Anche in situazioni difficili, come l’attuale pandemia di Covid-19, l’AI sembra venire in aiuto. Per esempio, Medical Home Network, un’organizzazione al servizio dei pazienti nell’area di Chicago, sta usando l’intelligenza artificiale per identificare le persone che hanno una maggiore vulnerabilità a gravi complicanze da Covid-19. Sempre negli Stati Uniti, esperti di medicina e tecnologia stanno mettendo insieme un set di dati di decine di migliaia di articoli e pubblicazioni scientifiche sul coronavirus, che verrebbero quindi analizzati da programmi di intelligenza artificiale per trovare pattern e rispondere alle domande sollevate dall’Organizzazione Mondiale della Sanità sulla pandemia. 
Non sapremo a breve se l’AI ci aiuterà davvero a combattere la pandemia, ma le possibilità di un ulteriore e più profondo utilizzo in campo medico sono certamente sempre più concrete.

 

 

Tags: