AlphaGo insegna su intelligenza artificiale basata su deep learning

Nella primavera del 2016, Lee Sedol, uno dei migliori giocatori di Go al mondo, ha affrontato un concorrente che non solo lo avrebbe battuto sonoramente in una sfida di cinque partite, ma lo avrebbe anche spinto a giocare alcune delle migliori partite di Go della sua carriera. Chi è stato il suo concorrente? Un computer dotato di intelligenza artificiale soprannominato AlphaGo sviluppato dal team DeepMind di Google.

Il Go è un antico gioco da tavolo cinese la cui complessità sminuisce anche quella degli scacchi. Esistono più potenziali configurazioni della scacchiera di quanti atomi ci siano nell’universo e la maggior parte della comunità del Go pensava che ci sarebbero voluti molti anni prima che un computer fosse in grado di afferrare quelle complessità decisionali ed essere così competitivo con i migliori giocatori umani. Sfortunatamente, come ha constatato Lee Sedol, i computer possono davvero giocare a Go e soprattutto possono giocarlo a un livello molto alto. Così alto, infatti, che Sedol ha recentemente annunciato il suo ritiro dalle competizioni insistendo sul fatto che l’IA è “un’entità che non può essere sconfitta”.

Il deep learning imita l’intuizione umana

AlphaGo ha imparato a giocare a Go attraverso l’apprendimento profondo. In primo luogo, il sistema informatico è stato alimentato con i dati di gioco in modo da apprendere le mosse, le regole e la strategia di base. In seguito, sempre utilizzando algoritmi di deep learning, il computer si è formato su dati di gioco reali. AlphaGo era alimentato da due reti neurali: una “rete politica” per selezionare la mossa successiva da giocare e una “rete di valore” per prevedere il vincitore del gioco da ogni posizione.

Durante il gioco, la rete neurale di AlphaGo viene regolata e aggiornata per prevedere le mosse nonché l’eventuale vincitore della partita. In ogni iterazione, le prestazioni del sistema migliorano di una piccola quantità e la qualità delle partite giocate in autonomia aumenta, portando a reti neurali sempre più accurate e versioni sempre più potenti di AlphaGo.

Sedol è paragonabile ad altri grandi sportivi: bravo in quello che fa come Roger Federer nel tennis, o Tiger Woods nel golf, o LeBron James nel basket. Un modo di interpretare la sua ormai famigerata partita contro AlphaGo è che ha perso malamente contro un avversario molto superiore basato sull’intelligenza artificiale. Però, un altro modo di leggere la partita è attraverso due mosse chiave, una giocata da ciascun avversario, che suggeriscono che l’intelligenza artificiale non è qui per sostituire gli umani ma piuttosto che gli umani potenziati da strumenti come il deep learning e le reti neurali sono il futuro dell’automazione industriale.

Durante la seconda partita, alla mossa 37 AlphaGo ha giocato una mossa inaspettata, quello che viene chiamato un “colpo alla spalla”, nella parte in alto a destra della scacchiera. La mossa è stata così insolita rispetto al gioco tipico che ha costretto Sedol a interrompere la partita per 15 minuti per potersi riprendere. I commentatori hanno definito la mossa “bella”, “una mossa molto strana” e forse “un errore”. Ma quei commentatori non sono stati in grado di elaborare ciò che la macchina ha invece potuto computare, ovvero che la mossa è stata una possibilità su 10.000 che gli ha permesso alla fine di vincere la partita.

Successivamente, durante la quarta partita, alla mossa 87 è successa più o meno la stessa cosa, ma questa volta è stato Lee Sedol a confondere il computer con una mossa che da allora è stata soprannominata “Mano di Dio”. AlphaGo è stato effettivamente sconcertato perché non era in grado di spiegare una mossa del genere: aveva infatti calcolato che tale mossa fosse giocabile da un essere umano solo una volta su 10.000. Lee in seguito ha detto che è stata la mossa inaspettata del computer nella seconda partita a permettergli di vedere meglio la scacchiera e portarlo quindi a giocare la sua mossa inaspettata.

La cosa importante che si evince da questa esperienza non è che l’intelligenza artificiale di DeepMind può imparare a padroneggiare il Go, bensì che per estensione può imparare a padroneggiare qualcosa di più facile del Go, il che equivale a molte, moltissime cose. I modi in cui potremmo applicare questi rivoluzionari progressi nell’apprendimento automatico e nella capacità delle macchine di imitare la creatività e l’intuizione umana, sono praticamente infiniti.

Il deep learning nell’industria

La tecnologia su cui si fonda il trionfo di AlphaGo sul concorrente umano non è qualcosa di futuristico. È una realtà odierna. Esistono, infatti, numerose applicazioni di ispezione basate sul deep learning e sulle reti neurali per l’automazione industriale in settori come l’automotive, l’elettronica di consumo, l’alimentare, le scienze biologiche ecc. La capacità di riconoscere difetti o anomalie sulle parti prodotte è un’applicazione perfetta per il deep learning.

E proprio come il modo in cui AlphaGo ha utilizzato nuovi flussi di dati per migliorare le sue prestazioni, anche i team dedicati all’automazione di fabbrica possono sfruttare il deep learning e i flussi di dati continui per migliorare l’ispezione dei prodotti, il controllo dell’assemblaggio finale, il rilevamento dei difetti e altre applicazioni chiave per il factory floor. Gli esseri umani che istruiscono i sistemi di intelligenza artificiale e lavorano con essi per aiutarli a ottenere prestazioni migliori rappresentano la prossima evoluzione della visione artificiale nella produzione.

Il deep learning, come evidenziato da AlphaGo, combina la creatività e la capacità umana con l’affidabilità 24/7/365 e la scalabilità di un sistema informatico. È uno strumento per aiutare gli esseri umani a lavorare in modo più efficiente, ma non solo: esso può infatti spingere le persone a diventare migliori in quello che fanno di quanto in precedenza credessero possibile.

Share this post