Attenzione ai pregiudizi… dell’uomo sull’intelligenza artificiale e viceversa

Autrice di una sorta di “lonely planet” per viaggiatori del futuro, anche in questa intervista ci aiuta a non finire fuori strada.

Cristina Pozzi è imprenditrice nel settore profit e no profit, speaker, advisor e angel investor. Dopo aver venduto “Wish Days” a un gruppo internazionale nel 2016, ha fondato “Impactscool”, start-up no profit che organizza nelle scuole e nelle università workshop, eventi e dibattiti per diffondere la cultura dell’innovazione su temi quali intelligenza artificiale, genetica, robotica, realtà virtuale, stampa 3D e far comprendere gli impatti che questi settori hanno e avranno sulle nostre vite. È anche founder e board member di SingularityU Italy e autrice di “2050. Guida (fu)turistica per viaggiatori nel tempo”, un libro che ci invita a riflettere su opportunità e responsabilità connesse allo sviluppo tecnologico.

 

Impactscool organizza eventi e dibattiti per diffondere la cultura dell’innovazione. Che tipo di conoscenza riscontrate sull’intelligenza artificiale? Ci sono resistenze, pregiudizi, stereotipi o falsi miti da contrastare?

Purtroppo, l’intelligenza artificiale è proprio uno di quei temi su cui è difficile avere un quadro chiaro e libero da pregiudizi per i nostri studenti. Spesso ci sono informazioni frammentarie e non rigorose che diventano in qualche modo virali e che possono avere due risultati opposti ed entrambi pericolosi: possono spaventare e allontanare, oppure possono creare una visione troppo ottimistica rispetto alla realtà, dando l’idea che si tratti di uno strumento magico che risolverà tutti i problemi del mondo.

In quali ambiti delle nostre vite sarà maggiore l’impatto dell’intelligenza artificiale e delle sue applicazioni?

Certamente il mondo della salute è uno di quelli che riuscirà a impattare maggiormente le nostre vite. L’applicazione dell’intelligenza artificiale in questo campo ci permette infatti di analizzare grandi quantità di dati in modo più efficiente, abilitando importanti passi avanti nel mondo della ricerca e della diagnostica.

Quali sono le implicazioni dell’intelligenza artificiale che necessitano di una riflessione sociale collettiva, partecipata, che vada oltre gli ambiti della ricerca e dell’industria?

Ci sono diversi aspetti in termini etici che vanno considerati e affrontati sul tema dell’intelligenza artificiale. Possiamo riassumerli nei seguenti punti:

1) Utilizzo a fini immorali. L’intelligenza artificiale è uno strumento potentissimo. Come tutte le tecnologie non ha un valore morale in sé, ma lo acquista nell’azione per la quale viene usato. Porsi dei limiti e riflettere sui suoi utilizzi è essenziale per coglierne le opportunità positive.

2) Possibile divisione sociale. Ford disse che c’è vero progresso solo quando i vantaggi di una tecnologia sono a disposizione di tutti. In quanto strumento potente, si tratta anche di qualcosa che può offrire vantaggi ingiusti a pochi a scapito di molti altri che, invece, non hanno accesso alla tecnologia. Si tratta di qualcosa di molto costoso al punto che sono pochissimi oggi gli attori che possono investirci.

3) Rischio di confusione: molte intelligenze artificiali stanno sempre più diventando irriconoscibili rispetto a un essere umano. Parlo di chatbot con cui interagiamo scrivendo o con comandi vocali (ad esempio il recente assistente Google Duplex in grado di telefonare e fissare appuntamenti dal parrucchiere facendosi credere umano). Dobbiamo porci il tema di quali possano essere le conseguenze sulla società e sugli esseri umani.

4) Pregiudizi. Le intelligenze artificiali si nutrono di dati. È molto importante parlare di questi dati perché, se mal costruiti, possono portare con sé pregiudizi che verrebbero amplificati dalla potenza dello strumento e dalla sua mancanza di buon senso (vedi punto successivo).

5) Buon senso. Non siamo in grado (almeno per ora) di insegnare il buon senso alle macchine. Un’intelligenza artificiale è pura logica e non riesce ad adattarsi al contesto come fa un essere umano. Dobbiamo tenerne conto nel momento in cui decidiamo quali compiti possiamo affidarle e quali no.

6) Diritti e responsabilità dei robot e dei software. Nel momento in cui iniziamo ad avere agenti autonomi che non sono comandati da noi per ogni singola azione si pone il problema di chiarirne responsabilità e, in un certo qual senso, anche diritti.

Nel “migliore dei futuri possibili”, come scrive nel suo libro “2050. Guida (fu)turistica per viaggiatori nel tempo”, che tipo di relazione uomo-macchina ci sarà? Come interagiranno intelligenza umana e intelligenza artificiale?

Nella mia Guida per il futuro ho immaginato un mondo nel quale l’intelligenza artificiale è molto diffusa. Dobbiamo sempre ricordarci che quando parliamo di intelligenza artificiale stiamo parlando di un algoritmo, vale a dire una stringa di codice informatico. Questa stringa, in quanto tale, può essere ovunque e interagire con noi in diversi modi. È nei nostri telefoni, nei motori di ricerca, nel nostro servizio di televisione digitale, così come nei robot domestici e personali (che avremo nel futuro). Possiamo e potremo interagire con questi software con comandi vocali, scrivendo e, in alcuni casi, con speciali impianti in grado di leggere le nostre onde cerebrali, potremmo interagire anche solo pensando. Nella mia guida si fa presente che, in tutti quei casi in cui si presenta sotto sembianze umane, diventa necessario dichiarare la propria natura in maniera chiara all’interlocutore, in modo da non rischiare di incorrere in confusione.

Materie STEM e discipline umanistiche: quale peso avranno rispettivamente nella formazione e nelle ricadute lavorative?

Più o meno dalla Rivoluzione Scientifica abbiamo iniziato a dividere sempre di più il mondo in due parti: materie scientifiche da una parte e materie umanistiche dall’altra. Credo che sia arrivato il momento di riunire queste due visioni, che non possono non essere fuse in una concezione più completa del mondo. Non dimentichiamo che tutte le discipline sono passate dalla filosofia prima di raggiungere una propria autonomia. Credo in una formazione interdisciplinare in grado di formare prima di tutto persone e la nostra capacità di pensare come strumento sia per le materie STEM sia per quelle umanistiche.

Quanto è necessaria la messa a punto di linee guida etiche per lo sviluppo di questa tecnologia?

È essenziale se vogliamo costruire un futuro che sia equo e positivo.

PHD con questo progetto editoriale racconta le protagoniste del mondo della tecnologia, dell’intelligenza artificiale in particolare, per stimolare la riflessione sul contributo femminile all’innovazione, contro qualsivoglia “gender gap” in termini di rappresentatività, visibilità, autorevolezza. Le capita di riscontrare questo gap?

Purtroppo sì. Al di là dei numeri me ne rendo conto quando molto spesso a conferenze e occasioni pubbliche mi trovo ad essere l’unica donna o in grande minoranza. Questo non fa che aumentare il gap, togliendo alle ragazze la possibilità di avere modelli femminili di ispirazione.

Una tecnologia “al maschile” (pensata, progettata, applicata, proposta, raccontata prevalentemente da uomini) cosa rischia di perdersi? Quali pensa siano le caratteristiche del contributo femminile nel settore?

Non credo che ci siano caratteristiche maschili o femminili di per sé, ma che si possa parlare forse di “culture” diverse, che possono imparare l’una dall’altra. In questo contesto credo che qualsiasi mondo o settore, se troppo sbilanciato da una parte o dall’altra, rischi di perdere il grande contributo che diversi punti di vista e esperienze possono portare.

AI Love Women