
07 Dicembre 2017
AlphaGo, l'intelligenza artificiale di Google DeepMind, è ormai da qualche tempo il campione assoluto del gioco di logica e strategia asiatico Go. Finora potevamo consolarci considerando che, se non altro, siamo stati noi umani a insegnargli tutto ciò che sa; e invece da adesso in poi non potremo nemmeno più fregiarci del titolo di allenatori. AlphaGo farà tutto da sé.
È una transizione che in realtà chi osserva da vicino l'evoluzione dell'intelligenza artificiale già aspettava. Finora DeepMind ha sfruttato il modello di apprendimento "per esempi": ha fornito al software svolgimento e risultati di centinaia di migliaia di partite, questi l'ha elaborato e ha imparato come giocare in modo efficace.
La nuova tecnica funziona invece in modo diverso: riesce a capire quando una conseguenza delle sue azioni ha un esito positivo (esempio terra-terra: partita vinta) e quando negativo, e si impegna a perseguire i feedback positivi. Si chiama Reinforcement Learning, ed è molto allettante soprattutto per un vantaggio: non serve una grossa mole di dati come con l'altro metodo (Supervised Learning). Miglior efficienza, meno risorse sprecate, insomma.
I risultati sono sorprendenti. AlphaGo Zero, l'AI che sfrutta il Reinforcement Learning, ha polverizzato quella "vecchia" che ha battuto Lee Sedol con un devastante 100 a 0. Il tempo di addestramento è stato di appena tre giorni. Poi si è cimentata contro AlphaGo Master, l'AI più evoluta che ha battuto il numero uno al mondo. Dopo quaranta giorni di addestramento l'ha battuta con un punteggio di 89 vittorie a 11.
Non è ancora chiaro se il Reinforcement Learning riuscirà ad essere implementato con efficacia in scenari più sfaccettati di quelli di un gioco (o un videogioco). DeepMind, naturalmente, crede di sì.
Se tecniche analoghe si riuscissero a implementare in altri ambiti, come l'analisi del ripiegamento proteico, la riduzione del consumo energetico o la ricerca di nuovi materiali rivoluzionari, le scoperte risultanti hanno il potenziale per generare un impatto positivo sulla società.
Per approfondire ulteriormente sulla questione, potete consultare il post originale sul blog di DeepMind e la ricerca pubblicata sull'autorevole rivista di divulgazione scientifica Nature.
Commenti
Ancora non è stata fatta. Dall'articolo dice chiaramente che sono ancora troppo indietro le IA, sono ovvio avvantaggiate solo nelle micro
No, ha ragione Commentatore. Zero con soli 3 giorni di addestramento ha battuto 100 a 0 l'AI che ha battuto Lee Sedol
In pratica se perde fa un upgrade e vince, tipo i Cyberman
Ah capito! chissà una gara tra IA e umani allora!!
No ma puoi applicarti qualcosa alla tua vita: la mitica cartucciera!
no, era una gara tra IA, vuol dire che la IA di FB ha perso contro quella di un ragazzino che se l'è fatta in casa :)
http://pro. hwupgrade. it/news/scienza-tecnologia/competizione-tra-ia-in-starcraft-debacle-di-facebook_71730.html
ma sesta su 28 persone, ciò vuol dire che con uno sviluppo minimo, ha battuto 22 giocatori umani, che immagino fossero bravi per partecipare ad un torneo del genere..
Dagli qualche mese e arriva prima senza problemi!!
si ma ci sono già parecchie AI Unsupervised, non capisco perchè google aspetti tanto
Be è ovviamente il passo intermedio
Il reinforcement learning non fa tutto da solo, anzi. Lui fa try and error finché non lo batte. Ma è totalmente sotto controllo, non è unsupervised come altri
nell'ultimo mondiale di starcraft la IA più avanti tra quelle non amatoriali era quella di FB ed era sesta, ed in ogni caso erano tutte molto indietro rispetto ai giocatori normali.
Esiste qualcosa da applicare al mio cervello per aiutarmi a passare fisica tecnica?! No Criticoni o sofisticatini del classico
ma se Blizzard ha pubblicato le API per "insegnare" alla IA come si gioca a SC2!
Se guardate il grafico nell'articolo linkato e' tutto molto chiaro:
deepmind. com/blog/alphago-zero-learning-scratch/
In realtà io ho capito che è quella vecchia ad aver battuto 100 a 0 Lee Sedol.
Quella nuova dopo 3 giorni si è affrontata con la vecchia, e dopo 49 giorni l'ha battuta 89 a 11.
Tre giorni di autoapprendimento e batte 100 a 0 la versione che solo un anno fa aveva fatto la storia.
Io inizio ad avere gli stessi incubi che probabilmente ha Elon Musk.
Soprattutto dopo aver visto "ex machina".
https://uploads.disquscdn.c...
Più che altro mi domando se guardi al risultato “presente” o riesca ad avere una visione più complessa guardando anche alle mosse future
Sarà, ma per ora sono ancora molto limitate. In giochi complessi come starcraft o i moba ancora non ci arrivano.