È la capacità di imparare, che ha cambiato il corso della storia su questo pianeta. Anche le piante, a modo loro, imparano. Tutti gli animali, seppur in gradi assai diversi, imparano. Ma nessuno ci riesce bene quanto l’homo sapiens. Eppure, ogni giorno che passa, sta diventando chiaro che l’evoluzione non è finita qui.

Le macchine stanno imparando a imparare. La artificial intelligence (o AI), termine coniato da un manipolo di computer scientist riuniti nel 1956 a Dartmouth per un workshop che si è rivelato seminale, è stata promessa, sbandierata e poi quasi dimenticata. Oggi però, grazie alla convergenza di microprocessori sempre più potenti, algoritmi sempre più sofisticati e basi di dati sempre più grandi, la scena si è ribaltata completamente. L’intelligenza artificiale è entrata nelle nostre vite con gli assistenti personali dell’iPhone, con i sistemi di raccomandazione personalizzata di Amazon o con i sistemi di visione per le automobili prodotti dall’israeliana MobilEye. E siamo solo all’inizio, per non dire alla preistoria.

Quella sigla di sole due lettere – AI – è la più pronunciata nell’epicentro tecnologico della Silicon Valley. Secondo le stime di Paysa, una piattaforma per la ricerca di lavoro, le prime 20 società del settore stanno spendendo 650 milioni all’anno solo per l’ingaggio di nuove intelligenze umane in grado di far avanzare l’intelligenza artificiale. Amazon risulta essere in testa, con il reclutamento di 1.178 specialisti solo nell’ultimo anno (per un investimento di 227 milioni di dollari), seguita da Google con 563 (e 130 milioni). E poi via di seguito, Microsoft, Facebook, Nvdia, Intel e perfino General Electric. Clamorosamente assente dai piani alti della classifica è Apple. Gli addetti ai lavori puntano il dito sulla rigida segretezza delle sue operazioni, che allontana i migliori ricercatori, desiderosi di pubblicare la loro ricerca scientifica. Al contrario, Facebook reclamizza le «centinaia di paper» pubblicati ogni anno dai propri esperti di AI.

Siamo ancora ben lontani da un’intelligenza artificiale “generale”, come quella esposta nel celebre Test di Turing: per essere considerato veramente intelligente, un computer deve riuscire a far credere a un essere umano di essere umano. Un bel salto di qualità però, è arrivato con il machine learning, l’apprendimento automatizzato. In poche parole è la macchina che – dopo un allenamento iniziale – è in grado di imparare da sola, proprio come farebbe un umano. Ma a tutt’altra velocità. DeepMind (una piccola società londinese comprata da Google nel 2014 per 630 milioni di dollari) ha elaborato l’algoritmo AlphaGo, con il quale ha battuto il numero uno mondiale nell’antico e complicatissimo Go, un gioco molto popolare in Asia. AlphaGo ha prima imparato a giocare, grazie all’inserimento dei dati di partite già giocate nel passato. Ma poi ha appreso giocando 30 milioni di partite con sé stesso, ovvero imparando dai propri successi e dai propri errori, tramite i quali ha raffinato di volta in volta le sue conoscenze. Allo stesso modo, Google Translate – che solo pochi anni fa produceva ancora traduzioni ridicole – ha fatto enormi passi verso la perfezione dopo che ha adottato un sistema automatico di apprendimento. E i sistemi di riconoscimento delle fotografie digitali – il computer che distingue un uomo da una scimmia – sono diventati possibili grazie alle gigantesche basi di dati disponibili, con i quali hanno allenato i muscoli della loro intelligenza artificiale. Ecco perché big data è uno dei tre fattori che stanno accelerando la corsa dell’apprendimento automatizzato.

Ma il salto di qualità è stato largamente determinato dall’avvento dei cosiddetti deep neural network, una branca del machine learning basata su una serie di algoritmi che usano calcoli su molti livelli per cercare di raggiungere un alto grado di astrazione nei dati: di fatto, un metodo per apprendere le informazioni simulando la stratificazione neuronale della corteccia cerebrale umana.

Il terzo fattore, come si diceva, è rappresentato dalla potenza di calcolo. Ed è perfettamente esemplificato da Nvidia, produttrice di chip grafici (GPU) che, per loro natura paralleli e non seriali, quindi più veloci ed efficienti, hanno alimentato l’esplosione AI e anche il valore del proprio titolo al Nasdaq: oggi vale circa 165 dollari, contro i 22 di tre anni fa. Nelle capitalizzazioni-record di Amazon, Google e Facebook, dicono gli analisti, vengono computati anche i rispettivi asset AI.

Del resto Sundar Pichai, Ceo di Google, è stato chiaro: «AI first», ha dichiarato in pubblico. Ma se la strategia di Google, Amazon, Microsoft e Facebook è alla luce del sole –  l’intelligenza artificiale è il singolo fattore più importante per mantenere o espandere il proprio dominio – c’è anche chi vede la AI come il grimaldello per conquistarlo, quel dominio. Basta prendere la cinese Huawei, una parvenu della microelettronica già diventata terza produttrice di smartphone al mondo, che ha appena annunciato di aver sviluppato un microchip con funzionalità AI incorporate destinato a sbaragliare la concorrenza. In attesa di conoscere la verità (c’è comunque un bel po’ di marketing, in tutta questa storia), il concetto di base non è errato: l’intelligenza artificiale può arrivare laddove l’intelligenza biologica non può.

Il che introduce inevitabilmente l’argomento dei rischi connessi con questa sterzata, brusca e improvvisa, della storia evolutiva. Scienziati come Stephen Hawking, e anche tecnologi impenitenti come Elon Musk (il fondatore di Tesla, l’auto elettrica che aspira a diventare autonoma), si stanno prodigando da mesi a paventare il pericolo che le macchine finiscano per coalizzarsi contro il genere umano, come peraltro prescritto da buona parte della letteratura fantascientifica. In attesa che una macchina riesca a passare il Test di Turing “generale”, e non solo in ambiti ristretti come adesso, è forse ancora troppo presto. Ma ci sono motivi di preoccupazione già nel presente.

“Chi diventerà leader nella AI governerà il mondo”, ha dichiarato Vladimir Putin a inizio settembre. Il presidente russo ha aggiunto che “le guerre del futuro saranno combattute da droni: chi avrà perso tutti i droni, non potrà far altro che arrendersi”.

Non è un bel presagio. Intanto, lo scorso luglio la Cina ha annunciato un piano per diventare leader mondiale nell’intelligenza artificiale entro il 2025. Ufficialmente, l’idea è quella di finanziare le imprese tecnologiche della Repubblica Popolare, per incoraggiarne lo sviluppo competitivo e quindi reddituale. “Il governo la considera come la quarta rivoluzione industriale, dopo il motore, l’elettricità e Internet”, ha detto Rui Yong, capo della tecnologia della Lenovo. Ma è sin troppo evidente che la nuova tecnologia finirà per alimentare l’apparato militare e lo stato di sorveglianza fortissimamente voluto da Pechino: già si vocifera di un sistema infallibile di riconoscimento facciale, in network con milioni di videocamere.


L’Europa non sta a guardare. Secondo una recente ricerca, il settore dell’intelligenza artificiale sta crescendo a vista d’occhio anche nel Vecchio Continente. Il Regno Unito della Brexit è largamente davanti a tutti, con Londra come hub principale, seguito da Germania, Francia e Spagna. Tuttavia, “solo il 60% delle aziende” che dichiarano di partecipare alla corsa dell’intelligenza artificiale, vi appartengono realmente. E in gran parte si occupano dell’analisi di dati di mercato, una nicchia interessante, ma certo non così strategica. Però lo scenario è chiaro: da oggi nessuna grande corporation, dalla Nestlé alla Volkswagen, potrà permettersi di trascurare gli strumenti analitici offerti dall’intelligenza delle macchine. Figuratevi Google o Amazon. Se è vero che siamo alla preistoria della AI, è assai probabile che assisteremo a un domino di sviluppi epocali. A cominciare dall’impatto sul mercato del lavoro, che si farà sentire tanto nell’industria (i cosiddetti robot collaborativi già imparano osservando le azioni degli esseri umani) quanto nei servizi (le agenzie di stampa come Reuters, già impiegano algoritmi capaci di scrivere articoli di sport e finanza in perfetto inglese). Potrebbe davvero rivelarsi un nuovo corso, nella storia evolutiva di questo pianeta.