“Nello studio dell’intelligenza artificiale il gioco svolge lo stesso ruolo che svolge per il bambino nei suoi primi anni di crescita”, sottolinea Niccolò Pescetelli. Il ricercatore del Media Lab del MIT ci aiuta a capire perché divertimento e intrattenimento sono fondamentali nello sviluppo delle tecnologie più avanzate.

 

 

Niccolò Pescetelli, 29 anni, è un ricercatore del Media Lab del MIT (Massachusetts Institute of Technology), il laboratorio sull’innovazione che fa dell’antidisciplinarietà –  la capacità cioè di andare oltre le discipline esplorando gli spazi tra l’una e l’altra – il proprio approccio bandiera. Lavora nel gruppo del Prof. Iyad Rahwan, lo Scalable Cooperation Group, che si occupa di quantificare l’impatto sociale della tecnologia (dall’automazione all’intelligenza artificiale) nella vita di tutti i giorni. Niccolò si è formato nel campo delle neuroscienze cognitive, prima a Padova dove si è laureato, poi in varie università europee tra cui Oxford. La stampa italiana ha parlato di lui in occasione del lancio di BeeMe, un social game immersivo sperimentato la notte del 31 ottobre 2018: per i ricercatori del Media Lab è ormai una tradizione, infatti, nella notte di Halloween, lanciare un esperimento sociale sulle tecnologie più avanzate.

Ci racconta la “tradizione” degli scherzi, degli esperimenti di Halloween del Media Lab?

Qui al Media Lab si presta molta attenzione all’unione tra scienza, design e arte, in pieno spirito umanistico. Il mio gruppo, come altri, si cimenta sia in progetti tradizionalmente considerati scientifici, sia in progetti artistici e performance. Con questo spirito, il mio amico e collega Manuel Cebrian ha ideato e curato una serie di questi “scherzi” in occasione di Halloween: Nightmare machine trasformava immagini di persone e luoghi comuni in scene e personaggi da film horror; Shelley raccontava su Twitter storie dell’orrore in collaborazione con il pubblico; Norman interpretava macchie di inchiostro del famoso test di Rorschach come scene raccapriccianti. Questi progetti hanno sempre avuto molto successo di media e di pubblico. Ci fanno pensare a cosa potrebbe accadere se la tecnologia o l’intelligenza artificiale “impazzisse”.

Che ruolo ha l’intelligenza artificiale in questi esperimenti?

Il mio gruppo si occupa di tecnologia e tecnologia, di questi tempi vuole dire spesso intelligenza artificiale, ossia una famiglia di algoritmi capaci di imparare a svolgere funzioni umane, come la percezione, il linguaggio e la risposta a stimoli ambientali. Vista la sorprendente capacità di apprendimento di questi algoritmi, noi ci siamo chiesti cosa succede quando l’intelligenza artificiale impara a fare la cosa “sbagliata”, per esempio quando gli interessi o intenzioni dell’algoritmo non sono allineati con quelli umani. Ovviamente non si può parlare di libero arbitrio (queste macchine sono pur sempre progettate dall’uomo), ma questi progetti vogliono far riflettere sul fatto che la tecnologia non è né buona né cattiva, ma che può essere usata per il bene o per il male, a seconda degli interessi delle persone che la sviluppano. Avere un dibattito sull’etica e i valori da inserire nella programmazione di queste nuove intelligenze è importante se vogliamo muoverci verso una società più giusta.

Ci parla dell’ultimo scherzo “BeeMe”, in cui un algoritmo permetteva agli utenti collegati in rete di controllare le azioni di un essere umano?

“BeeMe” è stata una performance in cui più di mille persone hanno partecipato da casa, tele-guidando attraverso il proprio computer il personaggio di una storia Sci-Fi (un attore in carne e ossa) in una corsa contro il tempo, per sconfiggere un’intelligenza artificiale malvagia che stava infettando la rete. Il pubblico (o meglio gli “spettattori”) potevano vedere e sentire ciò che il personaggio sentiva e vedeva attraverso uno streaming in tempo reale e potevano suggerire azioni da fargli compiere. Questi suggerimenti venivano aggregati in tempo reale e comunicati all’attore che prontamente eseguiva.

Quali sono stati i risultati?

Il risultato finale è stato che il pubblico è riuscito a completare la storia e finire la missione in tempo. Da una parte non ce l’aspettavamo, visto che spesso questi eventi vengono attaccati dai cosiddetti “troll”, i bulli degli spazi digitali. Dall’altra, è stata una piacevole conferma che le persone sono in grado di cooperare su larga scala e in tempo reale. La cosa interessante è che le persone non hanno semplicemente eseguito la missione come avrebbe fatto un singolo individuo (ad esempio scegliendo il percorso più breve), ma hanno suggerito un mix di azioni divertenti, buffe o totalmente inappropriate, unite ad azioni mirate al raggiungimento della missione.

Quali sono le principali evidenze che emergono dagli studi sulle dinamiche tra intelligenza individuale, intelligenza artificiale e intelligenza collettiva? Come interagiranno in futuro?

Questa è una domanda da un milione di dollari. Purtroppo, per adesso, questi argomenti vengono affrontati in discipline isolate le une dalle altre. Il mio obiettivo, come ricercatore, è quello di studiare come queste intelligenze interagiscono l’una con le altre e quali sistemi possiamo creare perché si rinforzino a vicenda. Sicuramente assisteremo a un crescente uso del machine learning applicato a sistemi sociali. Le ripercussioni potrebbero completamente trasformare il modo in cui scambiamo informazioni e in cui prendiamo decisioni. Un sistema ottimale è quello capace di unire la scalabilità ed economicità dell’intelligenza artificiale con l’etica e il buon senso dell’intelligenza individuale, ma anche con la creatività dell’intelligenza collettiva.

Intelligenza artificiale e machine learning cambieranno il nostro modo di prendere decisioni, a livello individuale e collettivo?

Assolutamente sì. In finanza molte decisioni vengono ormai prese da algoritmi in maniera automatica. Un crescente uso del machine learning si osserva anche in sistemi giudiziari e nell’assunzione del personale da parte delle aziende. Questi algoritmi sono estremamente abili nel discernere patterns e regolarità. È vero che sono veloci, economici ed efficienti, ma non vanno pensati come la soluzione a ogni problema. Il rischio, purtroppo, è quello di introdurre gli stessi “bias”, o errori sistematici, che vengono commessi dagli umani. Ad esempio, nell’assunzione del personale si è notato come questi algoritmi tendessero a preferire l’assunzione di bianchi, a sfavore delle persone di colore. Questo semplicemente perché i dati su cui erano stati “allenati” erano essi stessi viziati da questi pregiudizi. Per questo è importante avere una discussione a livello collettivo, aperta e democratica, riguardo a questi temi. Quali sistemi di valori vogliamo inserire nella programmazione di queste macchine, adesso che stiamo dando loro sempre di più il compito di decidere al posto nostro?

Con questo progetto “AI ♥ FUN” siamo interessati a mettere in evidenza i punti di contatto tra tecnologie avanzate e divertimento, non esclusivamente nei contesti ludici o di intrattenimento. Dal suo punto di vista, in relazione al suo settore, quali sono le correlazioni possibili?

Sono molto interessato a vedere come la crescente interazione tra macchine intelligenti ed esseri umani porterà a una nuova sperimentazione: sistemi sociali ibridi che vedono macchine interagire con umani in maniera naturale, avere conversazioni con loro (chi ha visto il film “Her” sorriderà), ma anche nuove forme di divertimento e intrattenimento. Basti pensare al nuovo Black Mirror “Bandersnatch”, dove lo spettatore può scegliere la prosecuzione della storia come in un libro-gioco. Questo è solo l’inizio, assisteremo sempre più a situazioni in cui l’uomo influenza la tecnologia e la tecnologia influenza l’uomo. Credo che la filosofia vincente in questi ambiti sia quella di un altro gruppo qui al Media Lab, il “Lifelong Kindergarden”, che ha sviluppato la popolarissima piattaforma “Scratch” per l’apprendimento alla programmazione. Questa piattaforma permette di sviluppare programmi anche molto complessi (veri e propri videogiochi) in modo facile e intuitivo. “Scratch” è un esempio perfetto di come la tecnologia, in particolare la tecnologia software, possa diventare una vera e propria forma di espressione e creatività, non limitata a pochi geeks, ma a chiunque abbia voglia di trascorrere del tempo giocando.

Spesso per misurare, o rendere evidenti, i progressi nel campo dell’intelligenza artificiale si sfruttano situazioni di gioco in cui emerge la competizione con l’intelligenza umana (come nella celeberrima sfida Deep Blue – Kasparov). Le dinamiche di gioco sono importanti per la ricerca?

Sono fondamentali. Nello studio dell’intelligenza artificiale il gioco svolge lo stesso ruolo che svolge per il bambino nei suoi primi anni di crescita. Il gioco permette al bambino, quindi al ricercatore, di allenarsi per risolvere problemi reali – spesso troppo complessi o rischiosi – in un contesto ridotto, semplificato, che ne utilizza solo le componenti fondamentali. Capire come una macchina possa vincere a scacchi, o ai giochi della Atari, è il primo passo per capire come possa agire nel mondo reale. Le componenti di base sono le stesse: un insieme di input, visivi o simbolici, che devono essere tradotti in una serie di azioni mirate a massimizzare il tuo punteggio.

Il dialogo e la collaborazione uomo-macchina funzioneranno in futuro anche in contesti in cui è presente l’incertezza e in cui caratteristiche molto umane come l’intuito, l’empatia, il talento oggi fanno la differenza?

Questa è un’ottima domanda. La risposta è decisamente sì. L’intelligenza artificiale sta mettendo piede in contesti che prima erano solo umani, come l’arte, la scrittura creativa e la cucina. Se prima le macchine erano strumenti (spesso stupidi) che utilizzavamo per i nostri scopi, adesso diventeranno sempre più nostre pari in quanto a capacità sociali e creatività. Saranno sempre più in grado di influenzarci in maniera sottile e non scontata (si pensi allo scandalo di Cambridge Analytica). Le macchine sono da sempre viste come fredde e razionali (Spock), mentre gli uomini come caldi, emotivi e creativi (Kirk). Da un lato questo è vero (gli algoritmi sono semplici manipolatori di informazione), ma dall’altro le similarità con l’uomo sono molteplici. In fondo, comportamenti complessi come l’empatia o l’intuito sono anch’essi frutto di processi che trasformano un’informazione e che avvengono nel cervello. Si assiste oggi a un crescente sviluppo di tecnologia capace di interagire in maniera naturale con le persone. Si pensi ad Alexa o a Google Duplex. Questi sistemi sono estremamente rigidi e certo non creativi o empatici, ma la cosa interessante è che sono capaci di interfacciarsi con sistemi creativi e imprevedibili quali gli umani, spesso sono addirittura capaci di fingere di essere umani essi stessi, a volte in maniera inquietante. Sono sicuro che nei prossimi dieci o vent’anni assisteremo a cambiamenti sociali e interpersonali importanti.

Social media e nuove tecnologie hanno cambiato la nostra percezione di alcune emozioni? Se sì, a suo avviso, anche del divertimento?

Certamente un cambiamento c’è stato. Per esempio, il fatto di poter filtrare ciò che postiamo sui media ci permette di trasmettere agli altri la parte “migliore” di noi stessi (anche se spesso per “migliore” s’intende ristoranti costosi e spiagge da cartolina). Tutto ciò, attraverso il confronto e la validazione sociale, ha ripercussioni sul nostro benessere psicologico: la vita degli altri sembra essere sempre perfetta – così rivelano, almeno, le foto ritoccate postate su Instagram – mentre la nostra vita sembra sempre imperfetta. I social – così come l’industria dell’intrattenimento, dai videogiochi a Netflix – sono disegnati per catturare costantemente la nostra attenzione, un modello spesso definito ‘attention economy’. Attraverso like, notifiche, endorsement e retweet, i social sono disegnati per fornirci continuamente dei micro picchi di dopamina (il neurotrasmettitore della ricompensa), paradossalmente però è diventato difficile prestare attenzione a qualcosa online per più di un minuto o due. I social sono diventati un luogo dove è facile essere indignati, sorpresi, emozionati o arrabbiati (tutte emozioni di breve durata) e dove è sempre più difficile avere un dialogo costruttivo, pacato, razionale e duraturo su temi importanti. Hanno amplificato la nostra capacità di sentire, meno quella di riflettere. Questo non ci deve deprimere, ci deve anzi insegnare che non dobbiamo smettere di pensare, studiare e migliorare i sistemi tecnologici che costruiamo, proprio perché essi hanno conseguenze sulla nostra vita personale e sociale. Tutto ciò non vale solo nell’ambito personale, ma anche in quello istituzionale. Basti pensare a come la televisione prima e Facebook poi abbiano cambiato il modo di discutere le notizie o di fare politica. Prima eravamo esposti a molteplici opinioni con cui potevamo essere d’accordo oppure no, oggi invece l’intelligenza artificiale e i sistemi di raccomandazione ci suggeriscono ormai solo cose su cui siamo totalmente d’accordo, creando queste information bubbles, delle bolle di informazione che confermano quello che già pensiamo. Allo stesso modo in politica, se prima i politici avevano poche occasioni per interfacciarsi con i propri elettori, oggi si assiste a una loro presenza continua sui social, dove sono costantemente in campagna elettorale, sia nella dimensione delle battaglie politiche che in quella della loro vita quotidiana.
Le intuizioni di Marshall McLuhan sono ancora valide: non è solo il contenuto, è la tecnologia stessa che cambia il nostro modo di percepire, sentire e quindi decidere.

AI ♥ FUN