Loading AI tools
Da Wikipedia, l'enciclopedia libera
AlphaGo contro Lee Se-dol (nome ufficiale: Google DeepMind Challenge Match) è stato un incontro di Go su cinque partite (giocate senza handicap, con un normale tempo di riflessione da competizione) disputato tra Lee Se-dol, un giocatore professionista sudcoreano considerato il migliore a livello mondiale a metà degli anni 2000, e AlphaGo, programma per giocare a Go di Google DeepMind, disputato a Seul, Corea del Sud, tra il 9 e il 15 marzo 2016. AlphaGo ha vinto l'incontro per 4-1,[1] (tutte le partite sono state vinte per abbandono);[2] questa partita vede la prima vittoria di un programma contro un grande professionista, ed è stata quindi paragonata con la storica partita di scacchi tra Deep Blue e Garry Kasparov nel 1997.
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Partita 1, la mossa 102 di AlphaGo (bianco), che ha obbligato Lee Se-dol a riflettere per 10 minuti |
Durante l'incontro, AlphaGo ha mostrato una creatività e una precisione di lettura e di valutazione che ha sorpreso i migliori professionisti e li ha portati a dichiarare che dovevano ripensare alcune delle loro idee sul go. Lee Se-dol, tuttavia, è riuscito in Gara 4 a scoprire una debolezza nel gioco di AlphaGo, assicurandosi così una vittoria che ha detto «impagabile».
La partita è stata seguita, soprattutto in Asia, da diverse centinaia di milioni di spettatori, suscitando un rinnovato interesse per il go. Ha anche provocato molte reazioni da parte degli specialisti di intelligenza artificiale che hanno salutato un significativo progresso nelle tecniche di apprendimento automatico.
Dopo la partita, la Hanguk Kiwon (la Federazione coreana di Go) ha assegnato ad AlphaGo il titolo onorifico di 9 dan (professionista) - il grado più alto esistente - in riconoscimento del livello di eccellenza raggiunto dal programma.[3] Questo incontro è stato scelto da Science come uno dei finalisti del Breakthrough of the Year il 22 dicembre 2016.[4]
Il Go è un gioco di strategia astratto, a informazione completa e privo di elementi aleatori e movimenti simultanei, della stessa tipologia di scacchi e dama. I due avversari cercano di controllare la maggiore area possibile di una griglia regolare, il «goban», delimitando i propri territori attraverso delle pedine dette «pietre» che dispongono alternatamente, nere e bianche.[5]
Nonostante le sue semplici regole, è un gioco da tavolo complesso che richiede, oltre a calcoli precisi, intuizione e pensiero creativo e strategico.[6] È stato a lungo considerato una sfida difficile nel campo dell'intelligenza artificiale (IA),[7][Note 1] in quanto richiede di imitare aspetti del pensiero umano più complessi che per gli scacchi.[8] Nel 1965 il matematico I. J. Good scrisse:
«Go on a computer? – In order to program a computer to play a reasonable game of Go, rather than merely a legal game – it is necessary to formalise the principles of good strategy, or to design a learning programme. The principles are more qualitative and mysterious than in chess, and depend more on judgment. So I think it will be even more difficult to programme a computer to play a reasonable game of Go than of chess.»
«Il Go su un computer? - Per programmare un computer a giocare una partita ragionevole di Go, invece che fare semplicemente delle mosse legali, è necessario formalizzare i principi di una buona strategia o progettare un programma di apprendimento. I principi sono più qualitativi e misteriosi che negli scacchi e dipendono maggiormente dal giudizio. Quindi penso che sarà ancora più difficile programmare un computer per giocare una partita ragionevole di Go che di scacchi.»
Prima del 2015, i progressi nella realizzazione di un software per giocare a Go ad alto livello erano stati molto lenti,[Note 2] con i migliori programmi che raggiungevano poco più del livello di un dilettante occasionale, intorno agli 8 kyu.[9] Un primo progresso essenziale è stato quindi ottenuto tramite un metodo di simulazione probabilistica, noto con il nome di «metodo Monte Carlo»;[Note 3] regolari miglioramenti avevano portato i migliori programmi del 2015 al livello di un forte dilettante, intorno al 5 dan.[10][11] Tuttavia, prima di AlphaGo, alcuni ricercatori avevano affermato che i computer non avrebbero mai battuto un professionista di alto livello[12] ed Elon Musk, uno dei primi investitori di DeepMind, ha ricordato che nel 2015 gli esperti del settore credevano che il successo contro un professionista richiedesse almeno un altro decennio di sviluppi.[13]
L'incontro di AlphaGo contro Lee Se-dol è paragonabile alla partita di scacchi del 1997 tra Deep Blue e Garry Kasparov:[9] segna il punto di svolta simbolico in cui i computer diventano migliori degli umani in una determinata attività.[14][15] Tuttavia, AlphaGo è molto diverso dai precedenti tentativi di usare l'intelligenza artificiale per creare un computer che sapesse giocare a go ad alto livello, in quanto impiega le reti neurali, in cui l'euristica di valutazione non è codificata dagli esseri umani, ma è invece in larga misura appresa dal programma stesso, attraverso le registrazioni di decine di milioni di partite di go oltre alle partite che il programma ha giocato contro sé stesso.[16] Nemmeno gli sviluppatori di AlphaGo sono in grado di spiegare in che modo AlphaGo valuti le situazioni di gioco e scelga la sua prossima mossa. Queste reti guidano una ricerca ad albero Monte Carlo che esplora le mosse future molto in profondità.[9][17]
I risultati simili sono applicati a campi come la scienza cognitiva, il riconoscimento di pattern e l'apprendimento automatico.[18]
Nell'ottobre 2015, AlphaGo aveva sconfitto 5-0 Fan Hui, 2 dan professionista e tre volte campione europeo: si era trattato della prima volta che un'IA aveva battuto un goista professionista su un goban a grandezza naturale senza handicap.[19][20] Alcuni commentatori avevano sottolineato il divario tra Fan e Lee, che è un 9 dan professionista nonché uno dei giocatori più vittoriosi di sempre, che ha dominato la scena goistica internazionale.[21] I programmi per computer Zen e Crazy Stone avevano precedentemente sconfitto giocatori umani classificati 9 dan professionisti con handicap di quattro o cinque pietre.[22] Lo specialista canadese di intelligenza artificiale Jonathan Schaeffer, commentando la vittoria contro Fan, ha paragonato AlphaGo a un «bambino prodigio» che mancava di esperienza e ha affermato che «la vera impresa sarà quando il programma giocherà contro un giocatore al vertice». Ha poi creduto che Lee avrebbe vinto la partita nel marzo 2016. Hajin Lee, goista professionista e segretario generale dell'International Go Federation, ha commentato di essere «molto eccitata» all'idea che un'IA sfidasse Lee e pensava che i due giocatori avessero le stesse possibilità di vincere.
All'indomani della sua partita contro AlphaGo, Fan Hui ha notato che l'incontro gli aveva insegnato a essere un giocatore migliore e a vedere cose che non aveva visto in precedenza. A marzo 2016, Wired ha riferito che il suo livello era salito da 633 a 300 circa a livello mondiale.[23]
Gli esperti di Go hanno riscontrato degli errori nel gioco di AlphaGo contro Fan, in particolare relativamente alla mancanza di consapevolezza dell'intero goban. Prima della partita contro Lee, non si sapeva quanto il programma avesse migliorato il suo gioco dall'incontro di ottobre.[21][24] I dati originali per l'addestramento di AlphaGo contenevano inizialmente le partite su internet di goisti amatoriali di alto livello, in seguito AlphaGo si è allenato giocando contro sé stesso per decine di milioni di partite.[25]
AlphaGo è un programma per computer sviluppato da Google DeepMind per giocare a Go. L'algoritmo di AlphaGo utilizza una combinazione di apprendimento automatico e tecniche di ricerca ad albero, combinate con un addestramento approfondito, sia con partite tra umani sia con partite tra computer. Le reti neurali del sistema sono state inizializzate con le partite tra umani, in modo da addestrare AlphaGo a imitare il gioco umano, cercando di fargli imparare le mosse di giocatori esperti contenute nei registri delle partite storiche, utilizzando una base di dati di partite giocate sul KGS Go Server di circa 30 milioni di mosse da 160.000 partite tra giocatori di livello compreso tra 6 e 9 dan.[26] Una volta raggiunto un certo grado di competenza, è stato ulteriormente addestrato facendolo giocare contro sé stesso un gran numero di partite, utilizzando l'apprendimento per rinforzo per migliorare il suo gioco.[27] Il sistema non utilizza quindi un registro di mosse da giocare. Come ha spiegato uno dei creatori di AlphaGo:
«Anche se abbiamo programmato questa macchina per giocare, non abbiamo idea di quali mosse troverà. Le sue mosse sono un fenomeno emergente dall'addestramento. Creiamo solo i set di dati e gli algoritmi di addestramento. Ma le mosse che ne derivano sono fuori dalle nostre mani e molto meglio di quanto noi, come giocatori di Go, potremmo inventare.»
Nella partita contro Lee, AlphaGo ha utilizzato all'incirca la stessa potenza di calcolo che aveva nella partita contro Fan Hui,[28] nel corso della quale ha utilizzato 1.202 CPU e 176 GPU. The Economist ha riportato che abbia usato 1.920 CPU e 280 GPU.[29] Google ha anche affermato che le sue Tensor Processing Unit proprietarie sono state utilizzate nella partita contro Lee Se-dol.[30]
Lee Se-dol è un goista di grado 9 dan professionista[31] ed è uno dei giocatori più forti nella storia del Go. Ha iniziato la sua carriera nel 1996, quando è stato promosso 1 dan professionista all'età di 12 anni, e da allora ha vinto 18 titoli mondiali.[32] È un eroe nazionale nella sua nativa Corea del Sud, noto per il suo gioco non convenzionale e creativo.[33] Lee Se-dol inizialmente aveva predetto che avrebbe ampiamente sconfitto AlphaGo. Qualche settimana prima della partita ha vinto il titolo di Myungin, uno dei principali titoli coreani.[34]
L'incontro prevedeva cinque partite con un milione di dollari come primo premio,[35] usando regole cinesi con un komi di 7,5 punti.[36] Il limite di tempo di ciascuna partita era pari a due ore per ciascun giocatore, seguito da tre periodi di byo-yomi 60 secondi. Ogni partita è iniziata alle 13:00 KST (04:00 GMT).
La partita è stata giocata al Four Seasons Hotel di Seul, in Corea del Sud ed è stata trasmessa in streaming diretto con il commento di Michael Redmond (professionista di 9 dan) e Chris Garlock.[37] Aja Huang, un membro del team DeepMind e giocatore amatoriale 6-dan di Go, ha avuto il compito di disporre materialmente sul goban le mosse di AlphaGo, che girava attraverso Google Cloud Platform sui server localizzati negli Stati Uniti.[38]
Partita | Data | Nero | Bianco | Risultato | Mosse |
---|---|---|---|---|---|
1 | 9 marzo 2016 | Lee Se-dol | AlphaGo | Vittoria di Bianco per abbandono | 186 Partita 1 |
2 | 10 marzo 2016 | AlphaGo | Lee Se-dol | Vittoria di Nero per abbandono | 211 Partita 2 |
3 | 12 marzo 2016 | Lee Se-dol | AlphaGo | Vittoria di Bianco per abbandono | 176 Partita 3 |
4 | 13 marzo 2016 | AlphaGo | Lee Se-dol | Vittoria di Bianco per abbandono | 180 Partita 4 |
5 | 15 marzo 2016 | Lee Se-dol | AlphaGo | Vittoria di Bianco per abbandono | 280 Partita 5 |
Risultato: AlphaGo 4 - 1 Lee Se-dol | |||||
Nota: per la quinta partita, secondo le regole ufficiali, l'assegnazione dei colori sarebbe stata sorteggiata;[39] tuttavia, durante la conferenza stampa che ha fatto seguito alla quarta partita, Lee ha chiesto « [...] dato che ho vinto con il bianco, spero davvero che nella quinta partita possa vincere con il nero, perché vincere con il nero è molto più prezioso».[40] Il responsabile di AlphaGo ha allora accettato che Lee giocasse con il nero. |
AlphaGo (bianco) ha vinto la prima partita. Lee sembrava avere il controllo per gran parte della partita, ma AlphaGo ha guadagnato il vantaggio negli ultimi 20 minuti e Lee ha abbandonato. Lee ha poi dichiarato di aver commesso un errore critico all'inizio della partita; ha detto che la strategia del computer nella prima parte del gioco era «eccellente» e che l'IA aveva fatto una mossa insolita che nessun giocatore umano di Go avrebbe fatto.[41]
David Ormerod, commentando la partita su Go Game Guru, ha descritto la mossa numero 7 di Lee come «una strana mossa per testare la forza di AlphaGo nelle aperture», giudicando questa mossa un errore e la risposta di AlphaGo come «accurata ed efficiente». Ha descritto la posizione di AlphaGo come favorevole nella prima parte del gioco, considerando che Lee ha iniziato a recuperare con la mossa 81, prima di fare due mosse «discutibili» (119 e 123), seguite da una mossa «perdente», 129.[42]
Il goista professionista Cho Hanseung ha commentato che il gioco di AlphaGo era notevolmente migliorato da quando aveva battuto Fan Hui nell'ottobre 2015. Michael Redmond ha descritto il gioco del computer come più aggressivo rispetto a quello contro Fan.[43]
Secondo Kim Seong-ryong 9p, Lee sembrava sbalordito dal forte gioco di AlphaGo alla 102ª pietra;[44] dopo aver visto AlphaGo giocare quella mossa, Lee ha rimuginato sulle proprie opzioni per più di 10 minuti.
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Prime 99 mosse. Mossa 7 di Nero (Lee) è un'apertura insolita. Dalla mossa 81 Nero ha iniziato a recuperare lo svantaggio iniziale |
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mosse 100–186. La mossa 102 di Bianco ha obbligato Lee a riflettere per 10 minuti. Le mosse 119 e 123 di Nero sono state discutibili, mentre la mossa 129 è considerata la mossa fatale di Nero. |
AlphaGo (nero) ha vinto la seconda partita. Lee ha dichiarato in seguito che «AlphaGo ha giocato una partita quasi perfetta»,[45] «dall'inizio della partita non mi è mai sembrato che ci fosse un momento in cui fossi in vantaggio».[46] Uno dei creatori di AlphaGo, Demis Hassabis, ha affermato che il sistema era fiducioso della vittoria da metà partita, anche se i commentatori professionisti non potevano dire quale giocatore fosse in vantaggio.
Michael Redmond (9p) ha commentato che la mossa 37 di AlphaGo era «creativa» e «unica», e che Lee ha usato un tempo insolitamente lungo per rispondere a tale mossa. An Younggil (8p) ha definito la mossa 37 di AlphaGo «un raro e intrigante colpo alla spalla» ma ha detto che la risposta di Lee era «squisita»; ha affermato che i giocatori si sono scambiati il vantaggio diverse volte prima della fine del gioco, e ha particolarmente lodato le mosse 151, 157 e 159 di AlphaGo, definendole «brillanti».[47]
AlphaGo ha giocato mosse anomale, che i giocatori professionisti hanno descritto come un errore a prima vista ma una strategia deliberata col senno di poi.[48] Come ha spiegato uno dei creatori del sistema, AlphaGo non cerca di massimizzare i suoi punti o il suo margine di vittoria, come fanno normalmente i giocatori umani, ma cerca di massimizzare la sua probabilità di vittoria: se AlphaGo deve scegliere tra uno scenario in cui vincerà di 20 punti con l'80% di probabilità e un altro in cui vincerà di 1 punto e mezzo con il 99% di probabilità, sceglierà quest'ultimo, anche se deve rinunciare a dei punti per riuscirci.[17][49] In particolare, la mossa 167 di AlphaGo sembrava dare a Lee una possibilità di recupero ed è stata descritta come un evidente errore dai commentatori. An Younggil ha dichiarato: «Quindi, quando AlphaGo gioca una mossa apparentemente pacifica, possiamo considerarlo un errore, ma forse dovrebbe essere visto più accuratamente come una dichiarazione di vittoria?».[50]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Prime 99 mosse. La mossa 37 di Nero è l'insolito «colpo alla spalla» in 5ª linea di AlphaGo, che pochi giocatori umani avrebbero mai considerato. |
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mosse 100–199 |
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mosse 200–211 |
AlphaGo (bianco) ha vinto la terza partita.[51] Dopo la seconda partita, i migliori goisti avevano ancora qualche dubbio sul fatto che AlphaGo fosse davvero un giocatore forte nel senso in cui lo è un essere umano; la terza partita ha tolto ogni dubbio:
«AlphaGo ha vinto in modo così convincente da rimuovere ogni dubbio sulla sua forza dalle menti dei giocatori esperti. In effetti, ha giocato così bene che è stato quasi spaventoso ... Nel costringere AlphaGo a resistere a un attacco molto severo e unilaterale, Lee ha rivelato il suo potere fino a quel momento inosservato ... Lee non stava ottenendo abbastanza profitto dal suo attacco ... Uno dei più grandi virtuosi del medio gioco era appena stato reso nettamente inefficace.[50]»
Secondo An Younggil (8p) e David Ormerod, la partita ha dimostrato che «AlphaGo è semplicemente più forte di qualsiasi giocatore umano conosciuto».[50] AlphaGo è stato visto superare abilmente situazioni difficili note come ko che non sono emerse nelle due partite precedenti.[52] An e Ormerod considerano la mossa 148 particolarmente degna di nota: nel bel mezzo di un combattimento ko complesso, AlphaGo ha mostrato sufficiente «fiducia» nel fatto che stava vincendo la battaglia per giocare una grande mossa altrove.
Lee, giocando Nero, ha scelto un'apertura cinese alta, ottenendo una vasta area di influenza per Nero, che AlphaGo ha invaso alla mossa 12. Ciò ha richiesto al programma di difendere un gruppo debole, cosa che ha fatto con successo.[50] An Younggil ha descritto la mossa 31 di Lee come forse la «mossa perdente» e Andy Jackson dell'American Go Association ritenuto che il risultato fosse già stato deciso dalla mossa 35.[49] AlphaGo aveva acquisito il controllo del gioco con la mossa 48 e costretto Lee sulla difensiva. Lee ha contrattaccato alle mosse 77 e 79, ma la risposta di AlphaGo è stata efficace e la sua mossa 90 è riuscita a semplificare la posizione. Ha quindi guadagnato un'ampia area di controllo nella parte inferiore del tabellone, rafforzando la sua posizione con le mosse da 102 a 112 descritte da An come «sofisticate». Lee ha attaccato di nuovo alle mosse 115 e 125, ma le risposte di AlphaGo sono state nuovamente efficaci. Lee alla fine ha tentato un ko complesso dalla mossa 131, senza forzare un errore dal programma, e ha abbandonato alla mossa 176.
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Prime 99 mosse |
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mosse 100–176 (122 a 113, 154 a , 163 a 145, 164 a 151, 166 e 171 a 160, 169 a 145, 175 a ) |
Lee (bianco) ha vinto la quarta partita. Lee ha scelto di giocare un tipo di strategia estrema, noto come amashi, in risposta all'apparente preferenza di AlphaGo per il Souba Go (che tenta di ottenere la vittoria attraverso molti piccoli guadagni quando si presenta l'opportunità), prendendo territorio sul bordo piuttosto che al centro.[53] In tal modo, il suo obiettivo apparente era quello di forzare uno stile di situazione «tutto o niente» - una possibile debolezza per un avversario forte negli scambi, che avrebbe potuto rendere irrilevante la capacità di AlphaGo di conquistare piccoli vantaggi.
Le prime 11 mosse erano identiche alla seconda partita, in cui Lee giocava con il bianco. All'inizio del gioco, Lee si è concentrato sul prendere territorio sui bordi e sugli angoli, consentendo ad AlphaGo di guadagnare influenza in alto e al centro. Lee ha quindi invaso la regione di influenza di AlphaGo in alto con le mosse dalla 40 alla 48, seguendo la strategia amashi. AlphaGo ha risposto con un colpo alla spalla alla mossa 47, sacrificando successivamente quattro pietre altrove e ottenendo l'iniziativa con le mosse dalla 47 alla 53 e la 69. Lee ha testato AlphaGo con le mosse dalla 72 alla 76 senza provocare errori, e a questo punto i commentatori del gioco avevano iniziato a pensare che Lee fosse spacciato. Tuttavia, una giocata inaspettata alla mossa 78 di bianco, descritto come «un brillante tesuji», ha ribaltato la situazione.[53] La mossa ha sviluppato un cuneo bianco al centro e ha aumentato la complessità del gioco.[54] Gu Li (9p) lo ha descritto come una «mossa divina» e ha dichiarato che la mossa gli era stata completamente imprevista.
AlphaGo ha risposto male con la mossa 79, in quel momento stimava di avere una probabilità del 70% di vincere la partita. Lee ha proseguito con una mossa forte, bianco 82.[53] La risposta iniziale di AlphaGo, con le mosse da 83 a 85, era appropriata, ma alla mossa 87 la sua stima delle proprie possibilità di vittoria è improvvisamente precipitata, provocando una serie di mosse pessime da nero 87 a 101. David Ormerod ha definito le mosse da 87 a 101 tipiche degli errori dei programmi basati sul metodo Monte Carlo. Lee è andato in vantaggio bianco 92 e An Younggil ha descritto nero 105 come la mossa perdente decisiva. Nonostante le buone scelte tattiche con le mosse da 131 a 141, AlphaGo si è dimostrato incapace di recuperare lo svantaggio durante il finale di partita e ha abbandonato; AlphaGo è progettato per abbandonare la partita quando stima che la propria possibilità di vittoria sia inferiore al 20%: questa scelta è stata fatta per imitare l'approccio dei giocatori professionisti, che ritengono più appropriato abbandonare piuttosto che giocare fino alla fine una posizione ritenuta irrecuperabile.[54]
An Younggil di Go Game Guru ha affermato che la partia è stata «un capolavoro per Lee Se-dol e quasi certamente diventerà una partita famosa nella storia di Go».[53] Lee ha commentato dopo la partita che considerava AlphaGo più forte quando giocava con il bianco (ovvero per secondo),[55] e per questo motivo ha chiesto di giocare nero al quinto incontro, considerato più rischioso.
David Ormerod di Go Game Guru ha affermato il gioco di AlphaGo intorno alle mosse 79–87 fosse il risultato di una nota debolezza negli algoritmi di gioco che utilizzano la ricerca ad albero Monte Carlo. In sostanza, la ricerca tenta di eliminare le sequenze meno rilevanti; in alcuni casi, una giocata può portare a una linea di gioco molto specifica che è significativa, ma che viene trascurata quando l'albero viene potato, e questo risultato è quindi «fuori dal radar di ricerca».[53]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Prime 99 mosse. La mossa 78 di bianco è un tesuji di Lee Se-dol che ha messo in difficoltà AlphaGo |
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mosse 100–180 (177 a , 178 a ) |
AlphaGo (bianco) ha vinto la quinta partita, che gli esperti hanno giudicato come essere stata equilibrata. Hassabis ha dichiarato che il risultato è arrivato dopo che il programma ha commesso un «grave errore» a inizio gioco.[56]
Lee, giocando col nero, ha aperto in modo simile alla prima partita e poi ha iniziato ad accumulare territorio negli angoli in alto - una strategia simile a quella che aveva impiegato con successo in partita 4 - mentre AlphaGo ha guadagnato influenza al centro. La partita è rimasta in equilibrio fino alle mosse di bianco da 48 a 58, che AlphaGo ha giocato in basso a destra. Queste mosse hanno annullato inutilmente minacce ko e aji, permettendo a Lee di prendere vantaggio.[57] Michael Redmond (9p) ha ipotizzato che forse AlphaGo avesse mancato il tesuji di nero, che agli umani viene insegnato ma che costituisce una lunga sequenza di mosse se deve essere calcolato da zero.
AlphaGo ha quindi iniziato a sviluppare la parte superiore del tavoliere così come il centro, e si è difeso con successo contro un attacco di Lee nelle mosse da 69 a 81 che David Ormerod ha definito eccessivamente caute. Entro la mossa 90 di bianco, AlphaGo aveva riportato la partita in parità, e poi ha giocato una serie di mosse descritte da Ormerod come «insolite [...] ma sottilmente impressionanti» che gli hanno garantito un piccolo vantaggio. Lee ha provato un recupero disperato con le mosse 167 e 169 ma la difesa di AlphaGo ha avuto successo. An Younggil ha notato che le mosse di bianco 154, 186 e 194 sono state particolarmente forti, e il programma ha giocato un finale impeccabile, mantenendo il suo vantaggio fino all'abbandono di Lee.[57]
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Prime 99 mosse |
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mosse 100–199 (118 a 107, 161 a ) |
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mosse 200–280 (240 a 200, 271 a , 275 a , 276 a ) |
Il vincitore della partita avrebbe dovuto vincere 1 milione di dollari, ma con la vittoria di AlphaGo, Google DeepMind ha dichiarato che il premio sarà donato a enti di beneficenza, tra cui l'UNICEF e alcune organizzazioni Go.[35] Lee ha ricevuto $170.000 ($150.000 per aver partecipato alle cinque partite e altri $20.000 per aver vinto una partita).[36]
La diretta delle partite e dei commenti associati è stata trasmessa in coreano, cinese, giapponese e inglese. La copertura in lingua coreana è stata resa disponibile tramite Baduk TV;[58] la copertura in lingua cinese di partita 1 con il commento dei giocatori 9 dan Gu Li e Ke Jie è stata fornita rispettivamente da Tencent e LeTV, raggiungendo circa 60 milioni di spettatori.[23] La copertura in lingua inglese online, presentata dal 9 dan statunitense Michael Redmond e da Chris Garlock, vicepresidente dell'American Go Association, ha raggiunto una media di 80.000 spettatori con un picco di 100.000 spettatori verso la fine di partita 1.[59]
La vittoria di AlphaGo è stata una pietra miliare nella ricerca sull'intelligenza artificiale.[60] Il Go era stato precedentemente considerato come un problema difficile per l'apprendimento automatico, che si pensava fosse fuori dalla portata della tecnologia attuale.[61] La maggior parte degli esperti riteneva che un programma Go potente come AlphaGo fosse lontano almeno cinque anni;[62] alcuni esperti pensavano che ci sarebbe voluto almeno un altro decennio prima che i computer potessero battere i campioni di Go.[63][64] La maggior parte degli osservatori all'inizio delle partite del 2016 si aspettava che Lee avrebbe battuto AlphaGo.
Con i computer che hanno conquistato giochi come dama, scacchi e ora Go, i giochi da tavolo popolari non possono più servire come pietre miliari per l'intelligenza artificiale come avveniva in passato. Murray Campbell di Deep Blue ha definito la vittoria di AlphaGo «la fine di un'era [...] i giochi da tavolo sono più o meno finiti ed è ora di andare avanti».[60]
Se confrontati con Deep Blue o con Watson, gli algoritmi sottostanti AlphaGo sono potenzialmente più generici e possono essere la prova che la comunità scientifica sta facendo progressi verso l'intelligenza artificiale generale.[65] Alcuni commentatori ritengono che la vittoria di AlphaGo rappresenti una buona opportunità per la società per iniziare a discutere i preparativi per il possibile impatto futuro delle macchine con intelligenza generale. Nel marzo 2016, il ricercatore di intelligenza artificiale Stuart Russell ha dichiarato che «i metodi di intelligenza artificiale stanno progredendo molto più velocemente del previsto, (il che) rende più urgente la questione del risultato a lungo termine», aggiungendo che «al fine di garantire che i sistemi di IA sempre più potenti rimangano completamente sotto il controllo umano [...] c'è molto lavoro da fare».[66] Alcuni studiosi, come il fisico Stephen Hawking, avvertono che una futura IA auto-migliorante potrebbe acquisire un'intelligenza generale effettiva, portando a un inaspettato «dominio delle macchine»; altri studiosi non sono d'accordo: l'esperto di intelligenza artificiale Jean-Gabriel Ganascia ritiene che «Cose come il 'buon senso' [...] potrebbero non essere mai riproducibili»,[67] e dice «Non vedo perché parliamo di paure. Al contrario, questo solleva speranze in molti domini come la salute e l'esplorazione dello spazio». Richard Sutton ha detto «Non credo che le persone dovrebbero avere paura [...] ma penso che le persone dovrebbero prestare attenzione».[68]
Il team di DeepMind AlphaGo ha ricevuto la medaglia inaugurale IJCAI Marvin Minsky per i risultati eccezionali nell'IA. «AlphaGo è un risultato meraviglioso e un perfetto esempio di ciò che la Medaglia Minsky è stata creata per riconoscere», ha affermato il professor Michael Wooldridge, presidente del comitato per i premi IJCAI. «Ciò che ha particolarmente impressionato IJCAI è stato il fatto che AlphaGo ottiene ciò che fa attraverso una brillante combinazione di tecniche classiche di intelligenza artificiale e tecniche di apprendimento automatico all'avanguardia a cui DeepMind è così strettamente associato. È una dimostrazione mozzafiato dell'IA contemporanea e siamo lieti di poterla riconoscere con questo premio».[69]
Il Go è un gioco popolare in Corea del Sud, Cina e Giappone, e questa partita è stata vista e studiata da milioni di persone in tutto il mondo.[60] Molti dei migliori giocatori di Go hanno caratterizzato le giocate non ortodosse di AlphaGo come mosse apparentemente discutibili che inizialmente hanno confuso gli spettatori, ma hanno avuto senso col senno di poi:[63] «Tutti tranne i migliori giocatori di Go creano il loro stile imitando i migliori giocatori. AlphaGo sembra avere mosse totalmente originali che crea da solo». AlphaGo sembrava essere diventato inaspettatamente molto più forte, anche se confrontato col suo incontro di ottobre 2015 contro Fan Hui,[70] in cui un computer aveva battuto un professionista di Go per la prima volta senza il vantaggio di un handicap.[71]
Il giocatore numero uno della Cina, Ke Jie, che all'epoca era il miglior giocatore in classifica mondiale, inizialmente affermò che sarebbe stato in grado di battere AlphaGo, ma rifiutò di giocarci contro per paura che «copiasse il mio stile».[72] Con il progredire delle partite, Ke Jie è andato avanti e indietro, affermando che «è molto probabile che io (potrei) perdere» dopo aver analizzato le prime tre partite,[73] ma riacquistando fiducia dopo la quarta partita.[74]
Toby Manning, l'arbitro della partita di AlphaGo contro Fan Hui, e Hajin Lee, segretario generale della International Go Federation, ritengono che in futuro i giocatori di Go riceveranno aiuto dai computer per imparare cosa hanno fatto di sbagliato nel corso delle partite e migliorare le proprie abilità.[71]
Lee si è scusato per le sue sconfitte, affermando dopo la terza partita «ho giudicato male le capacità di AlphaGo e mi sono sentito impotente».[60] Ha sottolineato che la sconfitta è stata «la sconfitta di Lee Se-dol» e «non una sconfitta dell'umanità».[67][75] Lee ha detto che la sua eventuale perdita contro una macchina era «inevitabile», ma ha affermato che «i robot non capiranno mai la bellezza del gioco nello stesso modo in cui lo facciamo noi umani». Lee ha definito la sua vittoria alla quarta partita una «vittoria inestimabile che io (non vorrei) scambiare con nulla».
In seguito alla partita, il 17 marzo 2016 il governo sudcoreano ha annunciato che avrebbe investito 863 milioni di dollari (1 trilione di won) nella ricerca sull'intelligenza artificiale nei successivi cinque anni.[76]
È stato realizzato un documentario sulle partite, intitolato AlphaGo.[77] Il 13 marzo 2020 il film è stato reso gratuito online sul canale YouTube di DeepMind.[78]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.