Taking too long? Close loading screen.
Leggi il
nostro blog
Follow us on:

Scatole nere e scatole bianche

29 Mar 2022

di Vito Marcolongo

Quanto è veloce il cambiamento tecnologico?
Abbiamo urgente bisogno di soluzioni per affrontare gli enormi problemi che si affacciano per il futuro, ma dobbiamo fare i conti con il tempo necessario a metterle a punto.
Uno sforzo eccezionale, sotto la spinta dell’emergenza, ha consentito di mettere a punto vaccini anti-Covid in tempi accelerati, ma cosa succede in altre situazioni, dove comunque investimenti ingenti vengono riversati con prospettive di mercato assolutamente prioritarie?

E quali sono i “pattern” di evoluzione del cambiamento? Spesso si assiste a dualismi che finiscono per creare una interazione che accelera la dinamica di evoluzione e di affermazione della tecnologia. Se è vero che i dati sono il nuovo petrolio, l’Intelligenza Artificiale (IA), che si alimenta di dati, è considerata la nuova elettricità, per la sua caratteristica infrastrutturale e abilitante delle altre tecnologie. In questo caso gli Edison e i Tesla dell’IA hanno le sembianze di scatole nere e scatole bianche…

L’Intelligenza Artificiale ha scandito i suoi successi attraverso il confronto con una delle cose più umane: il gioco.

Nella progressiva conquista della “parità” con gli umani, la notizia che il 25 marzo scorso un sistema di intelligenza artificiale (NooK della società francese NukkAI) ha battuto otto campioni del mondo di bridge è fondamentale per due motivi:

  1. Il bridge, a differenza di scacchi e Go è considerato un gioco più difficile per l’IA perché richiede qualità “umane” difficili da imitare: il giocatore deve agire con informazioni incomplete e deve rispondere alle mosse di molti altri giocatori. Soprattutto deve comunicare con il proprio partner e deve saper “leggere” i suoi avversari e sfruttare i loro errori.
  2. Il sistema di IA che ha conseguito questo successo non è basato sullo schema di deep learning definito a black box, ma su uno schema che impara prima le regole del gioco (white box) e migliora successivamente l’apprendimento applicandole nell’esperienza del gioco, quindi emulando il comportamento umano molto più da vicino.

L’aspetto fondamentale è che questo sistema dà una risposta a un aspetto cruciale dell’IA: la possibilità di spiegare le decisioni (Explainable Artificial Intelligence, XAI) che vengono prese dal sistema. Negli schemi deep learning a black box rimangono strutturalmente delle aree con un “debito di comprensibilità” che possono generare sfiducia da parte degli utilizzatori e comportamenti inattesi, con il rischio di malfunzionamenti o possibilità di aggirare il sistema: situazioni entrambe inaccettabili per gli utilizzatori, le autorità regolatorie e i policymakers.

Lo schema ibrido di NooK (basato su regole e deep learning) rappresenta quindi uno snodo fondamentale per l’affermazione dell’IA in situazioni potenzialmente critiche come, ad esempio, la guida autonoma, in cui le vetture a un incrocio devono interpretare i rispettivi comportamenti, e quelli degli altri utilizzatori della strada (pedoni, ciclisti, ecc.), in modo da evitare incidenti. La possibilità di spiegare le decisioni è fondamentale per poter consentire a tutti gli stakeholder (utilizzatori, legislatore, forze dell’ordine, assicurazioni, …) di affidarsi all’IA in tutte le situazioni che comportano la gestione di informazione incompleta e il rischio di imprevisti (per un convincente e completo esame della necessità di XAI nei veicoli a guida autonoma dal punto di vista dell’utilizzatore, si veda Lance Eliot).

Siamo sicuramente in una traiettoria con forte accelerazione del cambiamento, ma per arrivare a questo risultato per l’IA è stato necessario un quarto di secolo: la prima vittoria a scacchi di DeepBlue di IBM con Garry Kasparov è del 1997, per arrivare a Google DeepMind’s AlphaGo che batte il campione sud-coreano di Go, Lee Sedol, nel 2016 e a oggi, 2022, con il bridge … e la scatola bianca.