Go: Uomo batte Intelligenza Artificiale
5 min read
(Uberto Delprato)
Che “Uomo morde cane” sia una notizia e “Cane morde uomo” no, si dice venga portato nelle scuole di giornalismo come esempio per far capire come alcuni fatti non siano rilevanti se non hanno una qualche caratteristica di unicità. Per questo non farebbe notizia che un programma basato su Intelligenza Artificiale avesse battuto un giocatore umano di scacchi o di Go, ma qui siamo di fronte davvero a una notizia: un giocatore dilettante di Go, Kellin Pelrine, è riuscito a battere 14 volte (su 15 partite) il programma KataGo, che sfrutta le stesse tecniche di Intelligenza Artificiale usate da AlphaZero e AlphaGo di DeepMind.
E’ ormai storia come, nel 2016, AlphaGo battè 4 a 1 l’allora Campione del Mondo di Go, il sudcoreano Lee Sedol. Tre anni dopo il match, raccontato nell’eccellente documentario AlphaGo, il campione si rititò dall’attività agonistica anche perchè riteneva inutile continuare a giocare visto che esisteva un’entità artificiale “che non può essere sconfitta” (sue parole).

Da allora sono stati sviluppati altri programmi basati sulle stesse tecniche di apprendimento rinforzato e reti neurali usate da AlphaGo, come Leela e KataGo, ottimizzato per un apprendimento più rapido. In un momento in cui l’attenzione rivolta verso l’AI-bot ChatGPT dimostra chiaramente come le applicazioni di Intelligenza Artificiale siano ormai considerate vicinissime a diventare di largo uso, non è peregrino cercare di verificare eventuali debolezze sistematiche di queste soluzioni.
Così come per cercare di difendersi dagli attacchi cyber ci si rivolge ai cosiddetti hacker buoni o, in modalità più sofisticata a programmi di intelligenza artificiale, è chiaro che l’identificazione e lo sfruttamento dei punti deboli o delle vulnerabilità di un programma sia materia di grande interesse e una sfida basata sulla rapidità di esecuzione.
Ma torniamo a Kellin Pelrine che, assieme alla società di ricerca californiana FAR AI, ha usato un programma di Intelligenza Artificiale proprio per identificare possibili debolezze nel modo di giocare di KataGo. La ricerca ha fornito un risultato abbastanza chiaro e sorprendente per la relativa semplicità della strategia da applicare per battere il programma. Tanto semplice che Pelrine, che in un parallelo scacchistico potremmo definire della forza di un Candidato Maestro, è riuscito ad applicarla con successo ben 14 volte su 15.

Il metodo che ha adottato è, sue parole, relativamente semplice e sicuramente un giocatore umano di alto livello avrebbe riconosciuto la minaccia e avrebbe trovato le contromisure adatte. Non così hanno fatto KataGo e Leela Zero, nella sua versione per giocare a Go. Quasi sicuramente il motivo di questo “punto cieco” sta proprio nella semplicità della manovra che molto probabilmente non è mai stata giocata nei milioni di partite che i due motori hanno giocato per apprendere il Go e le sue strategie vincenti.
E’ chiaro che il successo di Pelrine è dovuto al fatto che la ricerca è stata mirata a trovare debolezze (“adversarial policy”) e non ad imparare come giocare bene, ma è anche ovvio che KataGo e Leela Zero verranno istruiti per riconoscere queste loro debolezze e a colmarle con altri piani. Un successo di breve durata, quindi, ma significativo.
Il professor Stuart Russell, che insegna e ricerca Computer Sciences all’Università della California a Berkeley e ha pubblicato assiema a Pelrine ed altri un articolo scientifico in materia (“Adversarial Policies Beat Superhuman Go AIs” – Tony T. Wang et al.), ha commentato che “Ciò dimostra ancora una volta come siamo stati fin troppo frettolosi nell’attribuire livelli di intelligenza sovrumana alle macchine” dato che “questi sistemi comprendono situazioni per le quali sono stati addestrati e non sono in grado di generalizzare i concetti in una maniera che è invece naturale per la mente umana“.
E qui sta la vera notizia: al momento attuale, i sistemi di Intelligenza Artificiale sono migliorati enormemente nella fase di apprendimento, ma sono ancora limitati nella loro esplorazione dell’ignoto dalla conoscenza e dalla esperianza accumulata in quella fase. La nostra accezione del termine “intelligenza” include la capacità di andare oltre quanto si è imparato, immaginando e sperimentando situazioni diverse e quindi aumentando le conoscenze. Un po’ come gli esseri umani che imparano e poi elaborano sulla base di ciò che hanno studiato: le esperienze formative, se incomplete o di parte, possono limitare le capacità di pensiero innovativo e speculativo, ma una mente brillante e è in grado anche di superare eventuali lacune; al momento, l’Intelligenza Artificiale è ancora a mezza strada.
Tutto ciò suggerisce di procedere con molta cautela nell’assegnare compiti decisionali delicati alle “macchine pensanti” immaginando di risolvere il problema degli errori umani, perché anche quel tipo di sistemi è soggetto a punti ciechi e vulnerabilità che, casualmente o per un disegno criminale, possono causare danni.
Insomma, se AlphaZero o Leela lanciano i pedoni g ed h in avanti, questo non vuol dire che quel tipo di strategie siano adatte a tutti i giocatori, e neanche che abbiano ragione! D’altra parte, anche Anish Giri, dopo due partite al WR Chess di Dusseldorf in cui non è stato in grado di sfruttare il vantaggio valutato dai motori dopo l’apertura, ha dovuto ammettere che “è meglio avere un piccolo vantaggio in una posizione che ‘umanamente’ si capisce, che un ipotetico grande vantaggio il cui sfruttamento è incomprensibile“.
Non posso che essere d’accordo con Giri; anzi, aspettate che vado a chiederlo a ChatGPT 😉
Il post è ispirato dall’articolo “Man beats machine at Go in human victory over AI” pubblicato sul Financial Times il 17 Febbraio 2023. In particolare, le affermazioni del prof. Russell sono tradotte dall’articolo.