Legal Tech Books (S01 E03): Francesca Rossi, "Il confine del futuro"

1. Le premesse al libro

Il terzo libro della stagione Legal Tech Books riguarda un tema che è affascinante e preoccupante allo stesso tempo (e che è, per incidens, molto di moda): l’intelligenza artificiale.

Lo ha scritto Francesca Rossi, si intitola “Il confine del futuro” e ha, come significativo sottotitolo, “Possiamo fidarci dell’intelligenza artificiale?”. È stato pubblicato da Feltrinelli nell’estate del 2019, e l’Autrice è una indiscussa esperta del tema, non solo per il suo passato di studiosa e di accademica ma anche per il suo ruolo di global leader, oggi, di IBM per l’etica dell’intelligenza artificiale.

Prima di “sezionare” e commentare, come è nostra abitudine, le pagine del libro, sono necessarie alcune premesse. La prima è che il libro si presenta volutamente come una introduzione divulgativa, seppur molto rigorosa nei riferimenti, al tema dell’intelligenza artificiale. Ciò significa che il tono, lo stile e i contenuti sono adatti a qualsiasi lettore e lettrice, anche senza particolari competenze tecniche. La seconda premessa è che, nonostante questa “apparente” finalità divulgativa, il testo è estremamente curato sia nei riferimenti scientifici e letterari, sia nell’evoluzione del ragionamento che viene proposto. È un libro, in definitiva, che si legge in fretta la prima volta ma, poi, si rilegge più e più volte per approfondire alcuni aspetti specifici di questo affascinante mondo. La terza premessa è che il libro è alimentato, e motivato, da un sano ottimismo ed entusiasmo tecnologico che, però, non esita nell’individuare, all’orizzonte ma anche nel presente, le minacce e i problemi che una simile tecnologia potrebbe presentare alla società. L’Autrice si pone equidistante, insomma, tra i tecno-entusiasti e gli apocalittici, e cerca di avere un approccio neutro pur concentrandosi, soprattutto nella parte finale, sulle enormi problematiche etiche che si prospettano.

2. L’avvento dell’intelligenza artificiale nelle nostre vite

Francesca Rossi apre il suo saggio con una considerazione che potrebbe apparire banale ma che, in realtà, non è ben compresa, spesso, dal semplice utente: oggi l’intelligenza artificiale è già presente nella nostra vita quotidiana, anche se spesso non ce ne rendiamo conto. In particolare, scrive l’Autrice, tante tecnologie tipiche dell’intelligenza artificiale stanno connotando la nostra esistenza, e redige un elenco (esemplificativo) fatto di sensori impiantati nel corpo umano, di sistemi per la comprensione del linguaggio, di animali robotici, di macchine a guida autonoma, di navigatori in tre dimensioni, di realtà aumentata, di software per il supporto alla pianificazione e alle decisioni, di strumenti per la cooperazione tra i vari assistenti digitali, di stampa 3D, di realtà virtuale, di stanze cognitive, di automatizzazione dei magazzini e di generazione di immagini.

Il tema dell’intelligenza artificiale non è nuovo: è studiato da tanto tempo e vanta alcuni anni/periodi che sono considerati delle pietre miliari o, comunque, dei momenti molto “caldi” per l’evoluzione della disciplina.

L’Autrice cita, innanzitutto, i primi anni del 1986. In questo periodo (che oggi sembra così lontano) i giapponesi sono i primi a stanziare un buon ammontare di fondi per iniziare a costruire computer talmente potenti da poter supportare sistemi di intelligenza artificiale. Ovviamente, accanto al Giappone, lo stesso fecero gli Stati Uniti d’America. Apparvero subito, quindi, come i due Stati non solo più previdenti ma, anche, in grande vantaggio, in quegli anni, rispetto al resto del mondo.

Svolta questa premessa, Francesca Rossi inizia, nel suo saggio, a riflettere sugli effetti dell’intelligenza artificiale sulla qualità della vita dell’uomo, e si pone la (grande) domanda se l’intelligenza artificiale possa aiutare a risolvere problemi (per l’uomo) particolarmente difficili da risolvere o se, come “rovescio della medaglia”, possa essere in grado di generare preoccupazioni e, persino minacce,. Si pensi alla privacy dei dati personali trattati dai sistemi di intelligenza artificiale, o al fatto che una delega delle nostre decisioni a una macchina non ci possa dare la sicurezza assoluta che la macchina stessa ne sappia valutare le conseguenze e, quindi, possa essere in grado di prendere le decisioni migliori. In tutto questo, all’orizzonte vi è la costante minaccia che la tecnologia diventi più capace dell’uomo. E, in quel caso, cosa succederebbe?

3. L’intelligenza artificiale come disciplina scientifica

Nel saggio che stiamo recensendo, l’intelligenza artificiale viene poi inquadrata, e descritta, come quella disciplina scientifica che mira a definire (o sviluppare) programmi o macchine “che mostrano un comportamento che verrebbe definito intelligente se fosse esibito da un essere umano”.

Ecco allora che, quando si parla di intelligenza artificiale, appare a tutti gli studiosi opportuno muovere dall’idea di intelligenza umana, ossia da quell’insieme di tante componenti che interagiscono tra loro per aiutare l’essere umano a prendere decisioni, a risolvere problemi e a raggiungere obiettivi.

Francesca Rossi cita, già in esordio di saggio, la teoria del pensiero umano di Daniel Kahneman, uno studioso che (semplificando) suddivide le nostre attività mentali in due categorie: i) il pensiero lento, e ii) il pensiero veloce.

Il pensiero veloce, secondo il Premio Nobel israeliano, entra in gioco quando l’essere umano deve prendere decisioni immediate, basate su intuizione, emozione e prontezza di riflessi. Non ha, quindi, bisogno di logica e di ragionamento complesso ma, al contrario, agisce quasi automaticamente.

Con il pensiero lento, invece, l’essere umano si concentra e ragiona in modo consapevole prima di arrivare a una decisione.

Nonostante si sia abituati ad associare l’intelligenza umana al pensiero lento, perché di solito si crede alla superiorità del ragionamento logico e coerente rispetto all’intuito, secondo il premio Nobel è quasi sempre il pensiero veloce a guidare l’essere umano e a fornire le basi sulle quali il pensiero lento si trova a poter ragionare.

Secondo Francesca Rossi, anche nell’intelligenza si possono chiaramente distinguere questi due tipi di pensieri. È chiaro, dice l’autrice, che le macchine sono molto veloci, e possono avere una memoria praticamente infinita, quindi sono molto performanti nel ragionamento logico e danno il meglio di loro nella parte di “pensiero lento”, tanto più che possono elaborare innumerevoli quantità di dati (più di quelli che è in grado di elaborare il nostro cervello). Ma, al contempo, possono anche essere “dotate” di pensiero veloce.

Nella breve, ma puntuale, ricostruzione storica della disciplina che l’Autrice fa, viene ricordato come il primo a cercare di comprendere l’intelligenza delle macchine fu  lo studioso Alan Turing (voleva, in sintesi, capire se le macchine potessero pensare). Nel 1950 lo scienziato propose alla comunità scientifica il famoso “Test di Turing", che consisteva in una teoria e in un esperimento (apparentemente) molto semplice: se una persona, dialogando con un’altra persona e un computer, non riesce più a distinguere, nel dialogo, tra i due, allora questo computer può essere dichiarato “intelligente”. In realtà, questo test, se pur interessante, non arriva a definire davvero una nozione di intelligenza della macchina.

Più moderni, invece, sono gli studi che si basano sulla nozione di “razionalità” e che l’autrice colloca a metà degli anni Novanta del secolo scorso. Sono studi che si fondano sul concetto di “agente razionale”, ossia che hanno alla base l’idea di un sistema in grado di capire quali siano le decisioni migliori per arrivare alla soluzione di un problema, oppure per raggiungere un obiettivo che ci si era prefissi.

L’agente razionale, nota la Rossi, usa la logica, analizza i dati che descrivono la situazione in cui si trova e valuta l’impatto delle proprie decisioni sul contesto, interagendo con l’ambiente che lo circonda e cercando anche di apprendere nuove e migliori modalità di funzionamento. Si tratta, come è possibile comprendere, di una nozione già più precisa e che muove anche verso una azione “autonoma” della macchina, soprattutto nel tentativo di adattarsi all’ambiente esterno e di generare nuova informazione partendo dalla situazione esistente.

4. Intelligenza artificiale forte e intelligenza artificiale debole

A questo punto del libro, l’Autrice separa due tipi di intelligenza artificiale: “debole” e “forte”.

La prima, quella “narrow”, o debole, è una intelligenza che è focalizzata su un sistema specifico.

La seconda, in contrapposizione alla prima, sarebbe una intelligenza artificiale “strong”, forte o generale, che sarebbe in grado di effettuate le stesse attività di una persona con la flessibilità e l’adattabilità che contraddistinguono gli esseri umani nell’affrontare e risolvere problemi nuovi senza difficoltà.

Il secondo tipo non esiste ancora nella pratica, anche se innumerevoli sperimentazioni sono in corso, e sono molti gli studiosi che sono affascinati da questo tipo di intelligenza artificiale. In particolare, ricorda la Rossi, il comparto dei giochi  è un terreno di sperimentazione dei ricercatori molto apprezzato e battuto soprattutto perché la vita, nell’ambito dei giochi, è più semplice di quella nel mondo reale. In particolare, si cerca di arrivare al punto che una macchina impari talmente bene le regole del gioco (e tutte le possibili variabili) per, poi, sconfiggere l’essere umano.

Tralasciando, per un attimo, queste due (interessanti) categorie, un approccio comune a molti studiosi, ricorda l’Autrice, porta a interpretare l’intelligenza artificiale quale strumento per aumentare la capacità dell’intelligenza dell’essere umano, non per sostituirla. Ciò comporta che il fine primario non sarebbe quello di costruire macchine che sostituiscano le persone, ma sistemi che amplifichino e aumentino le capacità dell’essere umano, facendo interagire intelligenza artificiale e persone al fine di risolvere fenomeni e problemi complessi.

Purtroppo, ricorda la Rossi, non tutto è sempre andato bene: la storia dell’intelligenza artificiale, è vero, è iniziata nel 1956 (quando fu coniato il termine Artificial Intelligence), ma da lì in poi ci sono state fasi alterne, connotate da entusiasmi ma, anche, da delusioni.

Una parte molto divertente, e vivace, del saggio è quella nella quale l’Autrice elenca i principali progetti di sfida macchina/essere umano che sono stati pensati, nel corso degli anni, per mettere a confronto l’intelligenza artificiale e le persone. Sono divertenti perché quasi sempre hanno riguardato l’ambito dei giochi che, come si diceva poco sopra, è considerato molto adatto dagli studiosi per questi tipi di esperimenti.

Si parte con il caso di Deep Blue nel 1997, un programma che giocava a scacchi e che riuscì a vincere contro Garry Kasparov, il campione mondiale, grazie a una enorme potenza di calcolo che permetteva alla macchina di considerare le mosse dell’avversario in anticipo di molti turni (più di quanti un essere umano potesse analizzare) e, quindi, sceglieva sempre la mossa più efficace.

Nel 2005, fu la volta dell’auto Stanley, un progetto del DARPA che si basava sull’organizzazione di una  gara automobilistica nel deserto esclusivamente dedicata ad auto a guida autonoma. Fu presentato, per l’occasione, un robot estremamente sofisticato che mappava il terreno grazie a sensori e a sistemi laser e, soprattutto, che attirò l’attenzione degli operatori commerciali del tempo sul grande tema delle auto a guida autonoma, che esploderà negli anni successivi e che arriverà a disegnare le auto a guida autonoma moderne come un vero e proprio concentrato di intelligenza artificiale (si pensi alla necessità, allo stesso tempo, di dover vedere la strada, i segnali, i pedoni e gli ostacoli, di interpretare le immagini e di prevedere le azioni dei pedoni e delle altre auto per prevenire incidenti).

Nel 2011 si torna ai giochi con Watson che gioca a Jeopardy!, un gioco a quiz molto popolare su cultura generale con indizi. Il computer sviluppato da IBM vince contro i due campioni assoluti e, in questo caso, l’intelligenza artificiale si spinge ancora un po’ più in là (rispetto agli scacchi) perché il computer, per vincere, doveva non solo comprendere la domanda ma anche indovinare la risposta, comprendere quanto investire (in soldi) sulla risposta che stava per dare e rispondere velocemente basandosi soltanto sugli indizi svelati dal conduttore.

Nel 2016, un sistema denominato AlphaGo ha battuto uno dei migliori giocatori al mondo di Go, un antico gioco cinese su scacchiera, in una sfida avvenuta in Corea del Sud. Si noti che gli esperti individuano il Go come un gioco molto più complesso da gestire, rispetto agli scacchi, anche per un computer.

Nel 2017, sistemi di intelligenza artificiale vengono utilizzati per giocare a poker, e anche in questo caso danno ottima prova e battono i migliori “umani” al mondo, anche se i giochi di carte sono giochi a informazioni incomplete (la controparte non può vedere le carte in mano all’avversario).

AlphaZero, nel 2017, non solo vince a Go contro un umano con margini di cento partite a zero, ma inizia a studiare anche gli scacchi e, soprattutto, a come battere non solo umani ma anche altre macchine (apprendendo il più possibile) e altri programmi creati proprio per giocare.

È chiaro, conclude l’Autrice su questo punto, come i giochi siano molto più semplici da gestire per una macchina rispetto a tutti gli accadimenti di una “vita reale”, per cui una intelligenza artificiale che si comporta correttamente in un gioco non è detto che si comporti bene nel risolvere i problemi della vita reale. Però sono tutti studi, ed esperimenti, che contribuiscono non poco all’avanzamento del settore (soprattutto quando alcuni risultati della ricerca e della sperimentazione nell’ambito dei giochi possono essere portate in altri ambiti, ad esempio nel comparto medico o finanziario).

5. Intelligenza artificiale e algoritmi

Vi è una disciplina della intelligenza artificiale, continua l’Autrice, che si chiama “ottimizzazione combinatoria” e che è, in pratica, un metodo intelligente per trovare la migliore soluzione a un problema una volta che sia stato impostato un determinato criterio.

L’intelligenza artificiale si è poi fusa, anche nel dialogo comune, con l’idea di algoritmo. Nel lessico informatico, si parla di algoritmo (dal nome di un importante matematico arabo che ha introdotto i numeri arabi) quando si è in presenza di una sequenza di istruzioni che dicono come risolvere un problema (proprio come una ricetta di cucina). Se, però, l’essere umano non è in grado di scrivere algoritmi precisi, si può ovviare (parzialmente) facendo sì che la macchina si possa basare, per le sue decisioni, su esempi. Se, quindi, forniamo a un computer un numero sufficiente di esempi, la macchina potrà capire come risolvere il problema (per dire, un ambito tipico di utilizzo degli esempi è quello della comprensione dei comandi vocali in linguaggio naturale).

Anche i motori di ricerca e i social network usano oggi sistemi di intelligenza artificiale per immagazzinare grandi quantitativi di dati degli utenti e suggerire, loro stessi, ricerche o pubblicità, per comprendere le loro preferenze e mandare annunci in linea, per segnalare operazioni sospette quando vengono effettuate transazioni con le carte di credito (ad esempio: in questo ultimo caso si analizzano dati storici e si fa un calcolo delle probabilità).

Secondo l’Autrice, sono anche molto interessanti gli esperimenti (e le gare, anche inter-universitarie) che si fanno in tutto il mondo con i robot, perché simili sfide fanno comprendere quanto sia difficile anche solo insegnare a camminare a un robot, soprattutto se deve lavorare in autonomia.

Oggi per sviluppare sistemi simili sono usate molte tecniche che sono assai interessanti per comprendere come funziona l’intelligenza artificiale. L’Autrice cita, intanto, gli algoritmi procedurali, e riporta l’esempio di un traduttore automatico online che può funzionare bene anche fornendo tantissimi esempi di traduzioni di parole e frasi cercando di coprire il ventaglio più ampio di possibilità. Il fornire regole/frasi fisse, e lo sviluppare e usare algoritmi procedurali, sono i due metodi più usati per sistemi di questo tipo, anche se è noto come la lingua umana e l’ambiguità semantica sempre presente rendano questo il problema più difficile da risolvere.

Successivamente, Francesca Rossi cita le tecniche cosiddette di “machine learning”, o apprendimento automatico. Sono tecniche in base alle quali, invece della descrizione dei passi da seguire, il computer ha a disposizione una grande quantità di esempi e soluzioni per il medesimo problema e opera una generalizzazione che gli permette di risolvere anche situazioni sconosciute.

Gli esempi, in questo caso, servono ad “allenare” il computer, in una fase di training che viene di solito chiamata "apprendimento supervisionato" perché gli esempi vengono forniti dalle persone.

In questo ambito si usano sovente le strutture concettuali della rete neurale, che prende ispirazione dalla rete di neuroni del nostro cervello, al fine di raffinare le connessioni tra neuroni della macchina per risolvere i problemi (a tal fine, come è immaginabile, serve una enorme quantità di esempi e computer molto potenti).

Un’altra tecnica di machine learning che l’Autrice cita subito dopo è l’apprendimento con rinforzo, dove il computer viene usato ripetutamente per risolvere un problema dopo l’altro e, ogni volta, riceve un segnale numerico che indica la qualità della soluzione trovata. Ciò comporterà il fatto che la macchina cercherà di migliorare la sua azione per ottenere sempre più segnali di rinforzo positivi.

Le tecniche basate su apprendimento, nota la Rossi, hanno ovviamente bisogno di tantissimi dati per poter funzionare bene, e oggi è noto come i dati siano cresciuti in maniera esponenziale. Detto in altre parole: di sicuro non sono carenti, oggi, i dati per allenare i sistemi di machine learning.

Se a ciò aggiungiamo computer sempre più veloci, il quadro che si genera è molto positivo, e di ben auspicio, per il futuro della intelligenza artificiale.

Le tecniche di machine learning hanno, però, anche un problema di accuratezza. Semplicemente per il fatto che il computer cerca di affrontare situazioni ignote (con stime e probabilità), può capitare che, qualche volta, commetta degli errori anche se il programma è, sulla carta, perfetto. L’accuratezza diventa, allora, il criterio che misura gli errori.

6. I limiti dell’intelligenza artificiale e i timori

I limiti dell’intelligenza artificiale ci sono, e sono da tempo discussi dagli studiosi, e tra i primi limiti viene indicato, anche in questo saggio, la percentuale di errori. Anche se i computer stanno diventando sempre più precisi degli esseri umani, ad esempio nel riconoscimento di immagini o persone, possono comunque portare ad errori.

Si pensi a risposte imprevedibili della macchina, o alla possibilità di ingannare la macchina stessa, portandola a risultati lontani da quello che noi raggiungeremmo (o ci aspetteremmo) adottando criteri umani.

Francesca Rossi, a tal punto, distingue giustamente tra falsi positivi, in cui la intelligenza artificiale risponde "sì" quando la risposta dovrebbe essere "no", e i falsi negativi, quando la macchina risponde "no" quando dovrebbe rispondere "sì". In entrambe le occasioni, un errore può essere grave o meno a seconda del contesto nel quale avviene (si pensi, ad esempio, a un errore in ambito medico in fase di diagnosi).

Un secondo limite è che le macchine non sono quasi mai sistemi veramente intelligenti nel senso in cui intendiamo noi l’intelligenza, ossia non capiscono il senso delle parole ma, semplicemente, elaborano dati. Non comprendono il significato delle parole, tanto che nessun sistema è ancora in grado di dialogare con un essere umano con frasi complesse (nel libro viene fatto l’esempio degli assistenti vocali che domandano con un modello “botta e risposta”, usando frasi semplici).

Un ulteriore limite, cui già abbiamo fatto cenno, è la necessità di computer molto potenti per poter lavorare bene, tanto che la intelligenza artificiale è molto inefficiente, ad esempio, se paragonata al nostro cervello.

Un’apprensione molto viva, si diceva, è quella che l’essere umano sia superato e sostituito.

I pregiudizi, o bias, nella intelligenza artificiale sono sempre dietro l’angolo, semplicemente per il motivo che i dati di allenamento possono contenere dei pregiudizi. Se i sistemi di machine learning apprendono dai dati che noi forniamo e se i dati non sono rappresentativi di tutti i casi, l’intelligenza artificiale apprenderà in maniera non bilanciata, avrà quindi un BIAS, e non avrà la stessa accuratezza su tutte le categorie di input.

Sono state fatte delle analisi negli Stati Uniti d’America sul sistema Compass, usato dai giudici americani per valutare le probabilità che una persona responsabile di un crimine ne potesse commettere altri in futuro. I dati venivano usati per capire chi dovesse rimanere in prigione e chi potesse uscire con cauzione, ma la società ProPublica ha analizzato l’algoritmo e lo ha trovato gravemente sbilanciato (ad esempio: segnalava rischi di recidiva nelle persone di colore più alti rispetto ai bianchi, e ciò perché i dati storici dei giudici erano sbilanciati, e quindi anche l’algoritmo aveva assorbito questi criteri e, in un ceero senso, questo modo di ragionare).

La intelligenza artificiale, secondo l’Autrice, dovrebbe allora essere allineata ai valori umani e ai principi etici e morali delle persone, oltre ad eventuali codici di condotta delle professioni, individuando dei principi etici e, soprattutto, rispettandoli. Diventa fondamentale, a tal fine, che i comandi dati siano sufficientemente precisi affinché non siano interpretati male violando altre norme o generando azioni non previste e non volute.

Un aspetto molto interessante, secondo la studiosa, è anche capire come la intelligenza artificiale pervenga a una certa decisione, o se tutto il ragionamento rimanga contenuto in una scatola nera e l’essere umano non possa sapere nulla.

Nel quadro sinora descritto si è inserito, negli ultimi anni, il Regolamento Europeo per la Protezione dei dati (GDPR), un provvedimento che potrebbe avere un ruolo importante, nel prossimo futuro, proprio sul processo di sviluppo dell’intelligenza artificiale. Interessante, secondo la studiosa, sarà il suo (potere di) intervento sul punto della trasparenza del trattamento dei dati effettuato da questi sistemi.

Purtroppo la trasparenza di come opera l’intelligenza artificiale è, si diceva, un punto spinoso. Se il sistema preso in considerazione si basa su regole e simboli, è sufficiente procedere a ritroso per comprendere i vari step, ma se il sistema è basato su machine learning non è affatto facile ripercorrere il filo, soprattutto se non sono descritti i passaggi ma vi è solo l’osservazione di una grande quantità di esempi.

Secondo l’Autrice, ogni sistema dovrebbe essere capace di “spiegare le proprie decisioni”, e questo anche per guadagnarsi la fiducia delle persone che non hanno la minima idea di come funzioni un sistema simile.

Il cenno che abbiamo fatto qualche riga sopra al GDPR apre il punto spinoso del trattamento dei dati personali da parte di questi sistemi, della provenienza (consapevole o inconsapevole) di tutti i dati che stanno allenando i sistemi, della consapevolezza nel cittadino/utente/elettore su cosa venga fatto sui loro dati e su come controllare la circolazione e l’utilizzo di tali dati (è sufficiente il consenso od occorre potenziare la possibilità di esercitare i propri diritti?). Il ricordo del caso Cambridge Analytica, su questo punto, è ancora vivo, e il timore di una perdita di controllo dei dati e di uno sfruttamento selvaggio di informazioni di cittadini inconsapevoli si è dimostrato una possibilità reale.

Un altro grande timore, ricorda l’Autrice, riguarda l’impatto della AI sul mondo del lavoro e la possibile scomparsa di posti, ed è un tema che tocca direttamente la visione del futuro. Siamo al centro di una trasformazione, è chiaro, e l’intelligenza artificiale la amplificherà enormemente, ma siamo già in grado di capire quali lavori diventeranno obsoleti e scompariranno e quali nuove professioni, invece, nasceranno?

Un dibattito feroce, anche se spesso fuori dai radar del grande pubblico, è in corso anche con riferimento alle armi autonome e agli eserciti robot, delle macchine che potrebbero individuare obiettivi e, anche, prendere decisioni di attacco in autonomia senza l’intervento dell’uomo. Si immagini il pericolo correlato alla perdita di controllo di tecnologie di un simile tipo.

Infine, il tema già accennato della superintelligenza, ossia di una intelligenza artificiale più intelligente delle persone, una macchina che diventa “più capace di noi” di risolvere problemi e che, quindi, potrebbe decidere di non avere più bisogno di noi e di eliminarci senza che noi si riesca a fermarla. Questa idea, strettamente legata al concetto di singolarità espresso da Vernon Vinge, paventa un momento storico nel quale l’intelligenza artificiale, arrivata a quel momento e a quelle capacità, aumenterà in maniera super vertiginosa e illimitata proprio in virtù della sua super intelligenza.

7. L’etica ci salverà?

Nella parte finale del saggio l’Autrice affronta un tema a lei particolarmente caro, quello degli aspetti etici nell’informatica e del pensiero di un’etica per le macchine che possa limitare e controllare l’impatto dell’intelligenza artificiale sulle persone, sulla società e sulla cultura. Ciò comporta l’esigenza che tutta la comunità – politica, studiosi, ricerca, pubblico – lavori per contribuire allo sviluppo responsabile e positivo di questa tecnologia, per dar vita a una intelligenza artificiale sicura e a impatto positivo che generi un ambiente di collaborazione tra ricercatori, programmatori e politici connotato da privacy, trasparenza, responsabilità, allineamento ai valori umani, libertà, prosperità e controllo da parte dell’uomo.

Il sogno è, insomma, quello di una tecnologia positiva per tutti, che abbia, sì, un impatto sul lavoro e sulla società ma che tale impatto sia connotato da eliminazione di pregiudizi e da trasparenza.

L’Unione Europea, nota l’Autrice, è da tempo attenta al ruolo che dovrebbe avere la politica anche attraverso la redazione e l’implementazione di linee-guida etiche, per modellare una intelligenza artificiale “trustworthy” che sia centrata sulle persone e sui loro diritti, che sia imparziale, che dia fiducia ai cittadini europei, che faccia meno errori possibile, che rispetti la dignità umana e che sappia spiegare le proprie decisioni.

Il pregio di questo libro è, a nostro avviso, quello di chiarire le basi dell’intelligenza artificiale (anche con riferimenti scientifici) per non partire, nei ragionamenti, da informazioni fuorvianti o sbagliate, e di comprendere anche, allo stesso tempo, i limiti e le preoccupazioni che legittimamente sono sollevati, nell’uomo della strada, da una tecnologia che già sta rivoluzionando il nostro modo di essere in società.

Una piccola Bibliografia

  1. Francesca Rossi, Il Confine del Futuro, Feltrinelli.

2. Remo Bodei, Dominio e sottomissione, Il Mulino.

3. Max Tegmark, Vita 3.0, Raffaello Cortina.