LONDRA – Yuval Noah Harari mi appare alle spalle all’improvviso. E’ senza scarpe: indossa una camicia di lino color panna a maniche corte sopra una maglietta bianca a V, pantaloni a tubo neri e calzettoni viola con i quali si muove senza un fruscìo sul parquet della sua residenza londinese. Da qualche tempo con il marito, Itzik Yahav, abita in un grande cottage ad Hampstead, che dai tempi di Keats e poi Freud, Agatha Christie ed Elizabeth Taylor, è considerato il quartiere più elegante di Londra: una eleganza sobria, minimal, non ostentata. Un’eleganza da intellettuali di successo. Harari mi riceve in una stanza piccola con una grande vetrata che dà su un giardino con un prato inglese che finisce su un muro di cinta in mattoni rosso scuro: dietro, da quale parte, ci devono essere le abitazioni di Ricky Gervais, Harry Styles ed Helena Bonham Carter, protette dalle fronde secolari degli alberi del parco di Hampstead Heath, quello che ispirò C.S. Lewis per “le Cronache di Narnia”. Il caos rumoroso di Londra è a pochi minuti di distanza eppure non potrebbe essere più lontano.
Più che in una stanza sembra di stare su un set televisivo: un divanetto, due poltroncine, su cui ci accomodiamo, separate da un tavolino quadrato; e tutto intorno una boiserie di legno chiaro (probabilmente rovere inglese, il più pregiato) che copre le pareti. Sui ripiani non ci sono libri. Cioè gli unici libri che si vedono sono le copie della sua ultima, attesissima opera: si chiama Nexus, breve storia delle reti di informazione dall’età della pietra all’intelligenza artificiale in uscita il 10 settembre in tutto il mondo (nota: non è “breve”, sono 612 pagine, definirlo “breve” è chiaramente un vezzo). Le copie di Nexus sono poggiate di traverso, in modo che si veda la copertina dove campeggia il profilo di un piccione: il piccione, ha spiegato l’autore su Instagram, per gli ebrei è un simbolo di pace come la colomba, ma è anche uno strumento antichissimo di trasmissione delle notizie, delle informazioni che, per Harari, sono il vero motore della storia.
Il motore della sua storia personale, l’acceleratore, è stato un altro libro, Sapiens, breve storia dell’umanità, pubblicato dieci anni fa, che ha venduto oltre venti milioni di copie ed è stato tradotto in circa sessanta lingue facendo di Yuval Noah Harari una star mondiale. Lo storico che “vede” il futuro: “Io presento scenari”, mi dirà ad un certo punto. Prima era solo un ignoto professore di storia medievale: nato nel distretto di Haifa, in Israele, nel 1976, ad un certo punto ad Oxford ebbe la fortuna di incontrare il famoso collega americano Jared Diamond e capì che fare ricerche su cavalleria e feudalesimo non gli bastava. “Il successo non l’ho visto arrivare”, dice testualmente, “non era previsto né pianificato. Non avevo idea che Sapiens avrebbe riscosso tanto entusiasmo. Era un testo che avevo scritto per i miei studenti, tre anni prima, perché mi ero accorto che c’erano davvero pochi libri che provavano a spiegare la storia del mondo in poche pagine e pensavo fosse necessario. Da allora la mia vita è completamente cambiata: oggi ci sono due Yuval Harari, una persona privata e il brand, la mia figura pubblica, e c’è un team di venti persone che lavora per la seconda, che mi organizza gli impegni; e mio marito che si occupa delle gestione dell’azienda che abbiamo creato, Sapienship”.
Quando lo incontro è in partenza per una tournée mondiale che lo porterà in tutti i continenti a spiegare perché l’intelligenza artificiale, assieme ad enormi benefici, porta anche enormi rischi, su tutti “la fine dell’umanità”. Uno dei brani di Nexus più anticipati dalla giovane social media manager che cura i suoi post da un personal computer appoggiato nella cucina attigua, è quello in cui paragona l’attuale corsa a sviluppare modelli informatici sempre più potenti all’apprendista stregone di Goethe ma anche a quello di un cartone animato di Walt Disney. Noi, in questa metafora, siamo come Topolino che si ritrova inseguito da scope magiche che lui stesso ha scatenato.
La colpa, se di colpa si può parlare, è dei tecno-ottimisti, coloro che credono che la tecnologia abbia alla fine sempre un esito positivo sulla vita delle persone.
In particolare Harari pensa a quelli che hanno “una visione ingenua dell’informazione”, per cui più informazione equivale sempre e comunque ad un passo avanti dell’umanità. Da questo punto di vista Internet, che promette di connettere tutti gli abitanti della Terra con tutte le informazioni del mondo, sarebbe l’apoteosi del progresso: il mondo migliore, la terra promessa. Dico al professore che si trova davanti un ex tecno-utopista che nel 2009 candidò Internet al premio Nobel per la Pace: erano gli anni in cui in tanti pensavamo che la rete avrebbe costruito ponti e non muri fra le persone; gli anni in cui Nicholas Negroponte poteva dire allegramente che “il lato oscuro di Internet è non averlo”. Mi guarda perplesso ma non infierisce: “That’s a very nice idea!”. Che idea simpatica, dice. Iniziamo.
Allora c’era una frase che dava il senso dell’utopia: un ragazzo o una ragazza con uno smartphone in mano hanno accesso a più informazioni di quelle che aveva il presidente degli Stati Uniti quando ha mandato il primo uomo sulla Luna. Ora cinque miliardi di persone sono connesse a Internet ma il mondo non sembra migliorato, perché?
“Perché abbiamo accesso anche a tutte le bugie, abbiamo accesso alla propaganda, alle delusioni, alla rabbia. Quella frase è corretta ma è ingenuo credere che se tutti abbiamo accesso a più informazioni questa cosa sia un bene in sè, perchè molte delle informazioni che circolano sono spazzatura”.
Il tema non riguarda solo le fake news ma il fatto che questo accesso a tutto il sapere del mondo venga sistematicamente sprecato. La stragrande maggioranza delle persone non usa il web per scoprire grande letteratura o testi scientifici, ma per guardare video su Tik Tok, spesso video idioti su Tik Tok. Più che informazione, parlerei di intrattenimento. Perché accade?
“Ci sono essenzialmente due problemi. Il primo è che la verità spesso è complessa e a noi piacciono le storie semplici: l’articolo di un giornale o un libro sono complicati per la maggior parte delle persone, richiedono uno sforzo. Il secondo è che la verità di solito è dolorosa, è scomoda, e alle persone non piacciono le cose scomode. E’ il motivo per cui andiamo in analisi: per diventare capaci di scoprire i nostri lati oscuri e il dolore che causiamo agli altri, ma non è un processo facile. Le persone preferiscono seguire storie che li facciano stare bene anche se non sono vere. Guardi cosa accadde quando venne inventata la stampa a caratteri mobili: il libro più letto del secolo non è stato certo quello di Copernico, che pure ha cambiato il mondo gettando le basi per la scienza moderna; con tutte quelle equazioni matematiche era davvero troppo complicato… Il libro più letto è stato il Malleus Maleficarum di Heinrich Kramer, un manuale per la caccia alle streghe che ebbe un enorme successo. Il motivo è evidente: era facile da capire ed era appassionante con tutte queste storie meravigliose di streghe, peni rubati agli uomini, celebrazioni sataniche. Le orge, inventate, sono molto più appassionanti delle equazioni copernicane. Lo stesso capita oggi con i video di Tik Tok, la nostra natura non è cambiata”.
Quello che cambia è però la scala: con Internet la diffusione di informazioni fuorvianti è molto più veloce e pervasiva e i danni possono essere molto maggiori. La caccia alle streghe del resto causò migliaia di vittime innocenti.
“Ovviamente sì, la situazione è potenzialmente più pericolosa. Con la stampa potevi fare libri ma non potevi fare video per esempio. Inoltre libri e video finora erano repliche delle idee di esseri umani, adesso possono essere il frutto di elaborazioni autonome di intelligenze artificiali fuori dal nostro controllo. L’intelligenza artificiale non è solo uno strumento ma un vero agente in grado di inventare e diffondere nuove teorie su complotti per governare il mondo, fake news, propaganda. L’accelerazione a cui stiamo assistendo dipende dall’arrivo dell’intelligenza artificiale generativa, la prima tecnologia in grado di creare storie. Ma l’intelligenza artificiale era già nelle nostre vite e gli effetti perversi di alcuni suoi meccanismi li abbiamo già visti all’opera”.
Il “lato oscuro di Internet” che Negroponte non vedeva: tipo la strage dei rohingya in Myanmar sobillata dagli algoritmi di Facebook di cui lei parla in Nexus. Quello è un esempio lampante dei pericoli dell’intelligenza artificiale.
“In quel caso i dirigenti di Facebook mica hanno scritto algoritmi per incitare la popolazione a prendersela con la minoranza musulmana, ma hanno soltanto chiesto di premiare i contenuti che avessero il massimo di engagement, che provocassero delle reazioni degli utenti. Gli algoritmi hanno scoperto che i post che facevano riferimento ad una cospirazione dei rohingya scatenavano gli utenti – la rabbia è il sentimento più facile per alzare l’engagement – e hanno mostrato quei post ad un maggior numero di persone. Dire che i dirigenti di Facebook o gli algoritmi non hanno colpe di quello che è accaduto dopo perché mica li hanno scritti loro i post fasulli sulla cospirazione dei rohingya, equivale a dire che il direttore di un giornale non è responsabile di quello che mette in prima pagina perché mica li ha scritti lui gli articoli. E’ un enorme potere decidere cosa vedranno gli utenti e quel potere implica una responsabilità. Nel caso del Myanmar è importante notare che l’algoritmo aveva come obiettivo aumentare l’engagement degli utenti e l’obiettivo è stato centrato”.
Questa vicenda ricorda un racconto di fantascienza del 1902 in cui W. W: Jacobs racconta di una zampa di scimmia in grado di esaudire tre desideri, Un tale chiede di avere 200 mila sterline e la mattina seguente bussano alla sua porta con una busta con 200 mila sterline quale indennizzo per la morte del figlio in fabbrica. Desiderio esaudito.
“Esatto. Gli algoritmi di Facebook ovviamente non erano programmati per incoraggiare una strage ma per aumentare il traffico sul sito. E hanno deciso da soli come arrivare a quell’obiettivo. Adesso la situazione è ancora più complessa perché l’intelligenza artificiale generativa non si limita a promuovere i contenuti scritti da esseri umani che incitano la nostra rabbia, li può direttamente creare”.
E questo può portare alla fine del mondo? Ogni passo avanti della tecnologia è stato accompagnato dal timore di una apocalisse. Una volta Walter Benjamin, commentando un quadro di Paul Klee, l’Angelo della Storia, disse: “Questa tempesta è quello che chiamiamo progresso”. O no?
“Se guardiamo alla storia dell’umanità troviamo ottime ragioni per preoccuparci dell’arrivo di nuove tecnologie. La storia, si sa, è scritta da vincitori e quindi anche noi guardiamo alle catastrofi del passato in questa prospettiva. La verità è che ogni salto in avanti tecnologico ha causato immensi problemi prima che le persone imparassero ad usare i nuovi strumenti in maniera corretta. Prendiamo l’invenzione della scrittura, mica fu inventata per scrivere poesie ma per tenere un registro delle tasse e se tu eri un contadino in Mesopotamia o nell’antico Egitto, la scrittura voleva dire che il re aveva su di te un potere ancora maggiore. Se poi guardiamo alla rivoluzione industriale, con tutti gli scenari apocalittici che la accompagnarono, dobbiamo riconoscere che molti erano fondati: l’imperialismo europeo venne motivato e armato dalla nascente industria e se vivevi in Congo o in Somalia nel 19esimo secolo, allora sì che la rivoluzione industriale per te fu una apocalisse. E lo stesso capitò quando l’Unione Sovietica provò a costruire una società industriale perfetta. Ci sono voluti decenni per capire che l’imperialismo coloniale e il comunismo sovietico erano pessime idee. Ora arriva l’intelligenza artificiale: servirà un altro ciclo di errori, di dolori, di guerre, prima di imparare a gestirla? Sulla strada di una società migliore possono esserci centinaia di migliaia di vittime”.
Ancora per qualche anno il futuro è nelle nostre mani, scrive nel libro e fa un esempio: all’inizio degli anni Trenta i tedeschi non sono tutti impazziti eppure votarono in maggioranza per Hitler; nello stesso periodo, durante la medesima crisi economica, in America ci fu il New Deal di Roosevelt. Dipende da noi che strada prendere.
“Dipende da noi. Prenda l’elezione del presidente degli Stati Uniti: Kamala Harris o Donald Trump, non so come finirà ma so che qualche migliaio di elettori in Pennsylvania possono decidere fra due visioni del futuro molto diverse”.
Lei scrive: “Sono le storie a fare la Storia”, le storie a cui decidiamo di credere. In questo caso Trump sembrava avere una storia molto convincente da raccontare, Make America Great Again; poi è arrivata la Harris e improvvisamente Trump è apparso come un candidato senza nulla da dire.
“Lo vedremo il 4 novembre. Il problema di Trump è che la sua strategia puntava sul fatto che Biden era vecchio e non più nel pieno delle sue facoltà, ma poi Biden, dimostrando una generosità rara per un politico, si è fatto da parte, e il candidato vecchio e non più nel pieno delle sue facoltà mentali è diventato Trump. Alla fine il vincitore, come sempre, sarà il candidato che avrà la migliore storia da raccontare perché sono le storie a connettere le persone, non i fatti, non i numeri: le storie. Le statistiche sono importanti certo ma non servono a cambiare il mondo o a vincere le elezioni se non riesci ad impacchettarle dentro una storia convincente”.
E’ questo il motivo per cui la sfida del cambiamento climatico non riesce a decollare? Perché è troppo legata ad un numero, il famoso grado e mezzo di aumento delle temperature, e non è diventata una storia, una visione?
“Non solo per questo ma perché dal punto di vista delle emozioni la nostra mente funziona ancora come nell’Età della Pietra e quindi l’immigrazione ci appare una minaccia più grande di quello che è realmente perché per milioni di anni i nostri antenati si sono dovuti difendere da stranieri invasori, mentre non si sono mai dovuti preoccupare del fatto che accendere un fuoco avrebbe aumentato le emissioni di anidride carbonica e contribuito ad alterare il clima. Questo spiega anche perché Hollywood abbia fatto così pochi film sul cambiamento climatico e non ci siano canzoni per la Terra: manca una storia. Prenda Netflix, le serie su Netflix, quelle che hanno successo hanno una trama che segue il comportamento delle nostre emozioni secondo il copione dell’evoluzione. Ha visto Succession? E’ una bellissima serie ed è un dramma “biologico”, voglio dire ci sono due fratelli, e una rivalità per l’amore del padre. Questo è uno schema che i lupi conoscono bene, ma anche le giraffe. E’ facile per noi capire che accade. Mentre è molto difficile fare una bella serie sul cambiamento climatico, o la burocrazia o i veri rischi dell’IA, perché non c’è un copione da seguire che viene dall’evoluzione della specie. E’ complicato spiegare il dramma. Prendiamo la questione forse più importante per un paese, quella che influenza di più la vita dei cittadini: l’approvazione della legge di bilancio. Quand’è che ha visto una serie tv su questo tema? Se volesse farne una dovrebbe essere una cosa tipo su un dirigente del Tesoro che si innamora di una donna al ministero dell’Istruzione e si amano mentre si discute di quali tagli fare alla scuola e lui non vuole dirglielo; ma, ecco, sarebbe una storia d’amore non una storia della legge di bilancio. E’ molto complicato spiegare all’opinione pubblica come funzionano queste cose ed è il motivo per cui fioriscono tutte queste teorie cospirazioniste”.
E’ ancora così importante il modo in cui eravamo nell’Età della Pietra?
“Sì, perché la nostra mente ancora funziona in quel modo. Viviamo nell’era del silicio, ma dal punto di vista delle emozioni siamo sempre quelli che eravamo nell’Età della Pietra. Lì si trovano le spiegazioni di molti nostri comportamenti”.
La sua affermazione per cui i fatti e i numeri non servono a nulla è sconcertante: vuol dire che il fact-checking non batterà mai le fake news?
“Noi abbiamo assolutamente bisogno di controllare la veridicità dei fatti come società; ma è come una cosa che accade nella cucina di un ristorante: al cliente non interessa che accade, vuole soltanto mangiare bene. Con questo voglio dire che in cucina devi essere perfetto ma mica vuoi portare ogni cliente a vedere come si preparano i suoi piatti. E quindi i giornalisti e gli scienziati devono fare un sacco di fact checking ma farlo in pubblico non funziona. Elencare ogni volta le cinquanta cose false che Trump ha affermato in un comizio non è una storia interessante. Ti serve altro se vuoi battere Trump: una storia migliore e possibilmente vera. Anche perché le storie false, anche se ne dimostri la fallacità, non muoiono mai, tornano: uno può pensare che la caccia alle streghe sia finita nel 16esimo secolo, ma cosa sono adesso tutte le teorie cospirazioniste di QAnon sui seguaci di Satana che rapiscono i bambini per fare delle orge, che negli Stati Uniti hanno molto seguito? Una nuova caccia alle streghe. Quindi la domanda da farsi, per cambiare il mondo, è: abbiamo una storia migliore da raccontare?”.
L’intelligenza artificiale una storia da raccontare ce l’ha ed è apocalittica: lo si è visto in molti film hollywoodiani, come Terminator.
“Sì ma si tratta di storie che alla fine spostano la nostra attenzione sullo scenario sbagliato. Quello in cui i robot nelle strade si ribellano agli esseri umani. Non è di questo che dovremmo preoccuparci. Dovremmo temere di più la burocrazia dell’IA per cui tu chiedi un prestito, o fai domanda per un lavoro o per un posto all’università e ti vengono negati per ragioni che non capisci, che nessuno capisce, solo un computer. Una storia alla Kafka insomma”.
Capisco che a livello personale una cosa del genere possa essere una tragedia ma in che modo può diventare “la fine dell’umanità”?
“Il problema con l’IA è che alcuni scenari sono facili da immaginare tipo, un dittatore che affida ad una IA il controllo di un arsenale nucleare; o un gruppo terroristico che si fa aiutare nel creare un virus che causerà una pandemia. Facile. Più complicato è immaginare una IA che causa un disastro finanziario come quello del 2007/2008: prima crea dei nuovi strumenti finanziari che nessuno capisce, all’inizio va tutto bene, ma poi la bolla esplode e nessuno sa davvero perchè. E’ lo scenario dell’apocalisse burocratica dell’IA ed è molto più pericoloso. Può alimentare un nuovo razzismo, discriminando certe categorie di persone per motivi che ci sono ignoti. Il problema, dal punto di vista della storia, è che non c’è un singolo computer cattivo che vuole controllare il mondo ma milioni e milioni di agenti informatici ai quali stiamo dando sempre più potere di prendere decisioni per noi nelle banche, nelle università, nelle aziende”.
Il rischio è che in un mondo interconnesso gli algoritmi di sistemi diversi possano prendere il sopravvento. La perdita di controllo?
“Stiamo già perdendo il controllo. Sempre più decisioni sulle nostre vite non sono prese da esseri umani ma da algoritmi. E questo alimenta le teorie cospirazioniste per cui per contrastare le élite globali che governerebbero il mondo dobbiamo smantellare istituzioni come l’Unione Europea”.
Il problema è quindi che le decisioni verranno prese da agenti non umani? A me pare che certe decisioni di esseri umani siano prive di umanità. Penso all’Ucraina o a Gaza.
“Esempio perfetto. Gli obiettivi militari a Gaza vengono scelti da una intelligenza artificiale. E’ una delle prime guerre della storia in cui una casa viene bombardata perché una intelligenza artificiale ha detto di farlo. Ma se tu sei un arabo che vive in quella casa, per te questa è già una apocalisse”.
In realtà si dice che la decisione finale su ogni bombardamento poi venga presa da esseri umani. Il dito sul grilletto è nostro o no?
“E’ una bella domanda. Ho parlato con moltissime persone che lavorano negli apparati di sicurezza israeliani e ho riscontrato che c’è un enorme dibattito sul tema. Non ci sono ancora conclusioni definitive ma tutti concordano sul fatto che siamo arrivati al punto in cui una IA decide quale casa bombardare. A quel punto tocca gli umani e che fanno? Molti mi dicono che trascorsi al massimo venti secondi danno l’ok al bombardamento. Nessuno va a ricontrollare le informazioni analizzate dagli algoritmi, nessuno: l’IA dice che dobbiamo bombardare quella casa? Ok bombardiamola. Altri mi dicono che no, che c’è un controllo obiettivo per obiettivo. Io non posso dire chi dica la verità ma certamente questa è una delle prima guerre della storia in una una IA può decidere chi uccidere. Per chi vive a Gaza, è una apocalisse dell’IA”.
In “Nexus” lei immagina una grande alleanza fra democrazie e regimi autoritari per gestire lo sviluppo dell’IA: pensa ad una sorta di trattato come quelli sulle armi nucleari?
“Penso che in qualche campo in questo momento è impossibile: come fermare la produzione e utilizzo di droni militari con la guerra in Ucraina in corso? Ma ci sono molti altri aspetti in cui gli interessi delle grandi potenze potrebbero convergere. Una IA fuori controllo è una minaccia sia per la Cina che per gli Usa e l’EU. E se si trova una buona soluzione per contenerla sarebbe bene scambiarsi le informazioni utili”.
Facciamo un passo indietro, agli albori dell’IA. Negli anni ‘50 un pioniere del campo, Frank Rosenblatt, venne fuori con una macchina, il Mark I Perceptron, che prometteva di fare “quasi tutto quello che gli umani sanno fare”. Un giornalista gli chiese cosa non poteva fare, e lui disse: “Amare, soffrire, emozionarsi. Tutto ciò che ci rende umani. Una frase bellissima, ma è davvero così? Chi ha un cane a casa può confermare che quel cane prova dei sentimenti. E allora cosa ci rende umani e diversi da una IA?”.
“Il fatto di avere una coscienza. Il fatto di provare delle emozioni e delle capacità emotive che nessun essere vivente ha, nemmeno i nostri animali domestici”.
L’amore, la gratitudine, la paura: sono alcuni dei sentimenti che un animale domestico in un certo modo esprime però.
“Ma ad un altro livello di complessità. Io non sono sicuro che un cane provi la nostra stessa gamma di emozioni, e gli animali non hanno un linguaggio complesso e articolato come il nostro che ci consente di esprimere anche concetti astratti. E ho forti dubbi sulla loro spiritualità: i cani si fanno domande sul senso dell’’universo? o pensano al significato della morte? Non credo. E’ questo che ci rende umani, la coscienza e i sentimenti che albergano in essa. Rosenlbatt aveva ragione”.
E l’Intelligenza artificiale non ha coscienza? Di questo siamo sicuri?
“Per ora non ce l’ha. Ma non sappiamo se sarà così per sempre. C’è un grande dibattito sulla possibilità di avere una coscienza non organica: una entità digitale basata sul silicio, e non sul carbonio come noi, può ad un certo punto evolvere fino a provare sentimenti? Nessuno ha una risposta certa, è un campo che ancora non conosciamo. Sappiamo che un cervello basato sul carbonio evolvendo diventa capace di generare sentimenti e una coscienza, del resto non siamo certi, ma è una cosa che scopriremo presto”.
Cambiamo argomento: che ne pensa del fatto che strumenti potenti e versatili come Chat GPT abbiano delle allucinazioni? A volte inventino delle risposte spacciandole per verità?. Qualche giorno fa ho chiesto: “Come sta la regina d’Inghilterra?”. La risposta è stata: “Benissimo! Ha dormito nel castello di Windsor”. Ma una IA che dice le bugie a che ci serve?
“Questo ci riporta alla domanda fondamentale: cos’è l’informazione? Se noi pensiamo che coincida con la verità, possiamo considerare incomprensibili certe risposte, ma l’informazione non coincide con la verità, anzi, la maggior parte delle informazioni non sono vere. Se ci ricordiamo di questa premessa, non ci sorprenderà scoprire che l’IA genera risposte fantasiose; in un certo senso si tratta di un tratto molto umano perché noi umani continuamente ce ne veniamo fuori con risposte inventate e bugie, noi produciamo spessissimo allucinazioni. Del resto la vera funzione dell’informazione è stabilire connessioni fra le persone e molto spesso le fantasie ci connettono molto più dei fatti. L’IA semplicemente ha capito che può soddisfare le nostre richieste molto meglio in questo modo”.
C’è un bellissimo racconto breve di Isaac Asimov, “La risposta”, in cui un super computer ad una domanda difficilissima ogni volta risponde: “Mi dispiace ma non dispongo delle informazioni necessarie per dare una risposta adeguata”. Bellissimo. Questa sarebbe la risposta perfetta di una IA utile: ammettere, a volte, di non sapere. All’algoritmo servirebbe un po’ di onestà intellettuale.
“Dobbiamo insegnare alle IA a dubitare di loro stesse, questa è una delle sfide più importanti. Voglio dire che una macchina intelligente che non è capace di dubitare delle proprie capacità e di riconoscere i propri errori può diventare molto pericolosa. Come umani noi possiamo dubitare, se lei mi chiede qualche che conosco molto bene mi sento sicuro nella risposta, altrimenti premetto di non saperne abbastanza. Il rischio più grande nel mondo c’è quando le persone sono troppo sicure, è in quel momento che si commettono gli errori più grandi. Putin per esempio era molto sicuro di vincere la guerra in pochi giorni quando ha invaso l’Ucraina…”
Ho una curiosità sul giornalismo nell’era dell’IA. Se è vero, come lei dimostra, che viviamo in una società basata sulle informazioni, come si spiega la crisi, di reputazione e di ruolo, di coloro che dovrebbero essere i sacerdoti dell’informazione, quelli che la padroneggiano meglio di tutti? Mi riferisco ai giornalisti.
“Perchè al giornalismo sta capitando quello che accadeva ai sacerdoti nel passato quando arrivava una nuova religione. Quando arrivò il Cristianesimo nell’Antica Roma, i sacerdoti pagani vennero emarginati…”
Ma noi dovremmo essere i più bravi di tutti nell’arte dell’informazione: dal reperimento delle notizie, alla verifica dei fatti fino alla capacità di raccontare storie. E invece per molti un influencer di Tik Tok vale di più.
“Questo dipende dal fatto che nelle democrazie la conversazione pubblica è entrata in crisi per una ragione molto precisa che ha a che fare con visione ingenua dell’informazione di cui parlavamo all’inizio. Quella per cui maggiore è il consumo di informazioni, migliori saranno le cose che le persone fanno. Questa visione ci fa commettere un errore enorme. Quello che conta infatti non sono le informazioni in sè, ma la fonte da cui provengono. Ma quella fonte è continuamente screditata dai populisti che continuano a dire “non credete ai giornalisti, fanno parte delle élite, come i giudici, gli scienziati del clima e i medici, e vi mentono. Cercate da soli le vostre verità”. Allora le persone vanno su Tik Tok, guardano dei video fatti da altri utenti e pensano che siano più affidabili. Ma se questo trend proseguirà, porterà al collasso delle nostre società perché senza istituzioni forti nessuna società può funzionare”.
Una volta Barack Obama disse: tutti hanno diritto alla proprie opinioni, ma non ai propri fatti. I fatti sono gli stessi per tutti. Ma ora contestiamo i fatti.
“Esatto. E la cosa strana è che in questa partita c’è una combinazione di fattori che provengono dall’estrema sinistra e dall’estrema destra; perchè inizialmente questo tipo di critiche alle elite e alla libera stampa venivano da Karl Marx, per il quale i giornalisti erano al servizio del capitalismo per ingannare le masse. E adesso Donald Trump dice che stesse cose che diceva Marx senza per questo considerarsi marxista visto che non ha affatto idee di sinistra sulle tasse e lo Stato sociale… Ma replica un certo modo di raccontare la storia del mondo per il quale c’è una continua battaglia fra le élite corrotte e il popolo buono e oppresso. Ma questa sfiducia sistematica nelle istituzioni è molto pericolosa, perchéin ogni lavoro noi abbiamo bisogno che ci siano degli esperti, persone che hanno studiato per anni e hanno esperienza. Se lei adesso cerca un chirurgo vuole il migliore di tutti, non uno che posta video su Tik Tok. Il problema è che a volte gli esperti, quando acquisiscono potere iniziano a servire i propri interessi più che quelli dei cittadini, ma il fatto che alcuni sbaglino non vuol dire che possiamo fare a meno dei più bravi. La corruzione esiste in ogni istituzione, ma esistono anche dei meccanismi correttivi per cui non dovremmo mai arrivare alla conclusione che non ci si può fidare delle istituzioni perché questo conduce al collasso di una democrazia.
Vorrei essere molto diretto: c’è un futuro nel giornalismo nell’era dell’IA?
“Assolutamente sì: quando ci fu la rivoluzione della stampa accadde lo stesso, per un po’ stamparono di tutto, ci fu un diluvio di informazioni e tutto fu molto caotico, ma poi le persone hanno creato delle istituzioni – i giornali – per curare l’informazione, per far sì che fosse corretta. Succederà anche questa volta”.
Un’assistente del professore si affaccia per ricordarci che il tempo a disposizione, sessanta minuti esatti, sta scadendo. Raffica finale, tre domande.
La prima: la democrazia in crisi ha ancora una storia convincente da raccontare? “Io penso che sia ancora la storia migliore che c’è, anche se è una storia complessa; epperò è il sistema migliore per identificare e correggere gli errori che si fanno. La crisi che le democrazie stanno vivendo dipende dalla tecnologia dell’informazione attuale, che altera la conversazione fra le persone favorendo i post che scatenano la rabbia per favorire l’engagement come abbiamo visto. Oggi non abbiamo più motivi per dividerci di quanti non ce ne fossero negli anni ‘60, ma oggi quei motivi sembrano più grandi perché gli algoritmi li ingrandiscono. La soluzione non è censurare i post che spacciano disinformazione per alimentare la rabbia: è smetterla di raccomandarli. Questo dovrebbero fare Facebook, Instagram e Tik Tok invece di dire che non è un loro problema”.
La seconda. E l’Unione Europea? Con questa storia di essere la patria delle regole non rischia di allontanarsi dalle persone?
“Si dice che le regole facciano male al business ma non è vero. Prendete il settore farmaceutico dove le regole sono strettissime. Quando c’è stato il Covid abbiamo scelto il vaccino tedesco o quello russo? Il primo, perché le regole garantiscono che sia stata seguita una procedura corretta, in Russia chissà. La strada presa dell’Unione Europea è giusta ma servirebbe una bella serie su Netflix per raccontarla”.
Ultima domanda: è felice? Com’è cambiato il concetto di felicità nella storia dell’umanità? (mi rendo conto che ci vorrebbe un’altra ora di intervista per parlare della storia della felicità. Per fortuna Harari si limita alla propria).
“E’ uno dei periodi più felici della mia vita e non perché sta uscendo un mio libro ma per le persone che ho attorno e per la mia pratica di meditazione. Credo che ci sia una regola molto semplice ed importante per essere felici: investire tempo e attenzione nelle cose davvero importanti, più lo fai e migliori saranno i risultati. Se pensi che una cosa ti faccia felice e non ci dedichi del tempo non sarai mai felice. La felicità è investire nelle persone e nelle cose che rendono la nostra vita migliore”.