Toronto

Intervista al professor Paolo Granata: “Responsabilità individuale e collettiva per governare l’IA”

TORONTO – “L’IA non ci toglie il volante dalle mani. Siamo noi a decidere se tenerlo o lasciarlo andare”. È con uno spirito di ottimismo, accompagnato dalle necessarie cautele, che il professor Paolo Granata guarda allo sviluppo dell’Intelligenza Artificiale e alle sue innumerevoli implicazioni. E proprio su questo tema il docente dell’Università di Toronto ha pubblicato un libro, Generative Knowledge: Think, Learn, Create with AI, che sarà presentato mercoledì 11 febbraio a Toronto (ore 5:30 pm, alla Rotman School of Management, University of Toronto).

Qual è la differenza tra conoscenza e conoscenza generativa?

“La conoscenza, nella sua forma più comune, conserva e preserva ciò che è già noto. Accumula informazioni, custodisce i saperi, li trasmette. La conoscenza generativa possiede invece una qualità peculiare. Come suggerisce la parola stessa, genera nuova conoscenza, si autopropaga, si espande, ci consente di creare nuovo sapere. Mentre la conoscenza custodisce il sapere, la conoscenza generativa lo moltiplica. Per capire meglio la differenza possiamo pensare al fatto che ogni nuova intuizione germoglia da saperi precedenti, ogni scoperta si innesta su strutture intellettuali esistenti, ovvero ciò che nel libro chiamo il principio iterativo della conoscenza generativa: ci vuole conoscenza per generare nuova conoscenza. Questa qualità intrinseca, questa generatività del sapere ha di fatto alimentato l’intera evoluzione intellettuale della nostra specie, ben prima dell’avvento dell’intelligenza artificiale. Ciò che oggi cambia sono le condizioni in cui questa generatività si manifesta. L’IA amplifica i processi della conoscenza e accelera la produzione di nuove forme del sapere in modi che stiamo appena iniziando a comprendere. Ed è forse proprio questa la ragione che mi ha spinto a scrivere questo libro”.

Lei nel suo libro fa riferimento alla rivoluzione portata dall’invenzione della stampa a caratteri mobili, introdotta da Johannes Gutenberg. Un punto di rottura nella storia che facilita e accelera l’Umanesimo, il Rinascimento, i passi avanti della Scienza e alimenta il lento processo di democratizzazione del sapere. Con l’intelligenza artificiale siamo di fronte a un qualche cosa di simile, a un cambiamento cioè del paradigma di tale portata?

“Assolutamente sì, e nel libro lo affermo in modo esplicito. L’intelligenza artificiale rappresenta per il ventunesimo secolo ciò che il torchio di Gutenberg ha rappresentato per l’età moderna. La stampa a caratteri mobili ha riconfigurato l’intero ecosistema della conoscenza in Europa nella prima età moderna. Ha reso i testi uniformi, riproducibili e accessibili, ha favorito il confronto critico tra le idee, ha creato le condizioni materiali per la Riforma, la Rivoluzione scientifica, l’Illuminismo. Ha ridefinito concetti fondamentali come autorialità, validazione, autorità intellettuale. Insomma, ha reso più maturo il processo di creazione di conoscenza. Ha rappresentato ciò che io definisco una tecnologia epistemica, cioè uno strumento che ha cambiato il modo stesso in cui la conoscenza veniva prodotta, legittimata e diffusa. Il prodotto principe della stampa, il libro, è tutt’oggi uno strumento meraviglioso per pensare. In questo momento l’IA sta innescando qualcosa di altrettanto profondo. Ridisegna le modalità con cui creiamo, strutturiamo e diffondiamo il sapere, riscrive le mappe della conoscenza. Per questo nel libro propongo il concetto di Galassia Turing, in analogia con la Galassia Gutenberg di Marshall McLuhan. Come la stampa ha generato un nuovo ambiente cognitivo nell’Europa moderna, l’IA sta dando forma a un nuovo ambiente epistemico in cui siamo già profondamente immersi. Di fatto, non “usiamo” l’intelligenza artificiale: ci viviamo dentro, è il nostro nuovo habitat. E come ogni habitat, plasma il nostro modo di pensare, di porre domande, di stabilire cosa vale la pena conoscere, in quale direzione procedere. Insomma, la Galassia Gutenberg ha cambiato il modo in cui leggevamo il mondo. La Galassia Turing sta cambiando il modo in cui lo pensiamo.

Agli albori del 2000 Umberto Galimberti in ’’Psiche e techne’’ ci descrive il mutamento della tecnica che da mero strumento diventa soggetto, con l’uomo che perde la centralità e si lascia trascinare dall’apparato tecnologico. La tecnica quasi gli sfugge di mano. Non pensa che con l’intelligenza artificiale questo rischio aumenti esponenzialmente?

“La questione sollevata da Galimberti si inserisce in una lunga tradizione filosofica, da Heidegger a Marcuse, che ha visto nella tecnica una forza autonoma, deterministica, capace di sottrarre centralità all’essere umano. Con l’intelligenza artificiale questo rischio sembrerebbe amplificarsi, per la potenza e la pervasività con cui si è insediata nelle pratiche quotidiane. Tuttavia, nel mio libro propongo una lettura diversa, che parte da un dato fondamentale: ciò che è artificiale è umano. La parola stessa “artificio” viene dal latino ars e factum, cioè creato con perizia umana. Ogni tecnologia, ogni strumento nasce di fatto da aspirazioni, limiti e sensibilità morali intrinsecamente umane, e le incorpora. La riflessione sulla cosiddetta autonomia della tecnica rischia dunque di farci interpretare la direzione attuale dello sviluppo tecnologico come se fosse l’unica direzione possibile. Ma la tecnica non segue un destino proprio. È il risultato di scelte progettuali, interessi sociali, rapporti di potere, tutti fattori profondamente umani, e dunque modificabili. La tecnica resta sempre il prodotto di decisioni umane, e può sempre essere ripensata, rinegoziata, ridisegnata. Tutto ciò si applica all’intelligenza artificiale, che non è un’entità aliena calata dall’alto, non agisce da sola. Siamo noi a premere il pulsante. Quindi il vero rischio non è che questa ci sfugga di mano, ma che noi rinunciamo a governarla, per inerzia, per pigrizia intellettuale, per la tentazione di delegare senza comprendere, o per pura speculazione economica. Per questo nell’epilogo del libro lancio un appello alla cura epistemica, cioè alla responsabilità, individuale e collettiva, di vigilare sulle condizioni che rendono possibile un utilizzo consapevole di questa tecnologia, a tutti i livelli. Insomma. l’IA non ci toglie il volante dalle mani. Siamo noi a decidere se tenerlo o lasciarlo andare”.

Lei cita Lewis Mumford che ritiene che la tecnica non è e non può essere un elemento neutro, passivo. L’intelligenza artificiale non rischia di marginalizzare ancora di più l’uomo e il suo ruolo?

“Mumford aveva ragione: nessuna tecnologia è neutra perché ogni strumento nasce da scelte progettuali precise, cosa includere, cosa escludere, quali problemi risolvere, per chi, e queste scelte incorporano valori, interessi, gerarchie. L’IA non fa eccezione. Il rischio di marginalizzazione esiste, soprattutto quando si delega alla macchina senza mantenere consapevolezza critica. Ma tutto dipende da come scegliamo di progettare, regolare e impiegare questi strumenti. L’IA per esempio amplifica, moltiplica ciò che le portiamo. Se le portiamo curiosità, competenza, pensiero critico, ne usciamo potenziati. Se le portiamo passività e inerzia, ne usciamo indeboliti. Non è l’individuo a essere marginalizzato dall’IA. È l’individuo che si marginalizza da solo, quando smette di coltivare le proprie virtù intellettuali”.

Secondo lei, la capacità delle macchine di creare nuovi contenuti può essere considerata vera conoscenza? Non manca l’aspetto etico, insieme a quello emotivo?

“Nel libro sono molto chiaro su questo punto: l’IA non è intelligente, in senso umano. Le macchine generano contenuti attraverso meccanismi statistico-probabilistici straordinariamente sofisticati, simulano molti aspetti della cognizione umana, ma non possiedono intenzionalità, consapevolezza, né esperienza vissuta. I contenuti che producono sono però un prezioso materiale grezzo che può diventare conoscenza quando una mente umana competente lo interpreta, lo valuta criticamente e lo integra in un quadro di senso. Per il modo in cui producono contenuti, il potenziale è straordinario. Questo va detto chiaramente. Tra rischi e opportunità, le opportunità sono sicuramente maggiori.

L’aspetto etico ed emotivo che lei evoca è però altrettanto fondamentale. Già negli anni Sessanta, il teorico dei sistemi C. West Churchman mostrava che ogni sistema orientato alla produzione di sapere porta con sé un bias epistemologico: il modo in cui si sceglie di conoscere determina il tipo di conoscenza che si produce. Le macchine non hanno coscienza di questi vincoli. Noi sì, o almeno dovremmo. Per questo nel libro insisto sulla creatività intellettuale come virtù epistemica: una pratica consapevole del contesto, sensibile all’evidenza e orientata dalla responsabilità etica. La conoscenza autenticamente generativa richiede qualcosa che nessuna macchina possiede: la cura per le conseguenze di ciò che si conosce e si crea. In una parola: responsabilità. Le macchine possono anche generare tanti contenuti. Ma sta agli esseri umani assumersi la responsabilità di ciò che con quei contenuti si fa, di distinguere ciò che ha valore da ciò che ne ha solo l’apparenza. È lì che si gioca la differenza tra contenuti e conoscenza. Generare è facile. Conoscere richiede cura”.

Oggi in pochi secondi chiunque può tradurre l’Odissea in tedesco, creare musica e poesia, afferrare i principi base della fisica quantistica e conoscere le linee guida del pensiero di tutti i filosofi della Scuola di Francoforte. Possiamo ancora parlare di democratizzazione del sapere o siamo di fronte a una scorciatoia che in realtà non si traduce in vera conoscenza?

“È una scorciatoia se ci si ferma lì. Tradurre l’Odissea in pochi secondi non significa comprenderla. Accedere a un riassunto della Scuola di Francoforte non equivale a padroneggiarne il pensiero. L’IA democratizza l’accesso all’informazione, questo è innegabile. E lo sarà sempre di più con i modelli open source creati da istituzioni pubbliche, non per profitto ma come servizio pubblico. Ma la conoscenza generativa, quella che produce ulteriore sapere, richiede molto di più: competenza, curiosità, impegno critico, disponibilità ad apprendere e disapprendere. Nel libro insisto su un principio fondamentale: ci vuole conoscenza per generare nuova conoscenza. Senza quel bagaglio intellettuale di partenza, l’IA rischia di offrire un’illusione di sapere, fluente, istantanea, ma sterile. L’IA ci spalanca le porte del sapere. Ma comprendere, capire, pensare spetta ancora a noi”.

Le faccio la tipica obiezione dell’uomo di strada: ’’Con l’intelligenza artificiale smettiamo di pensare, evitiamo i processi impegnativi ma necessari della ricerca critica e del ragionamento, abbiamo un piatto bello e pronto senza alcuna fatica’’. Non è un rischio?

“Sì, è un rischio concreto e nel libro lo affronto con franchezza. Lo chiamo inerzia intellettuale: la tentazione di accettare passivamente ciò che la macchina produce, rinunciando allo sforzo del pensiero autonomo. E lo sforzo conta, perché il percorso di ricerca, il ragionamento faticoso, l’errore da cui si impara sono componenti essenziali del sapere. I greci lo chiamavano pathei mathos, patire per capire, il destino imposto ai comuni mortali. Ma la sua obiezione dell’uomo di strada coglie una parte interessantissima della questione. Sembra l’obiezione che si è ripetuta a ogni svolta tecnologica. La scrittura avrebbe ucciso la memoria, e lo scriveva uno come Platone. La stampa avrebbe destabilizzato la società. La calcolatrice avrebbe atrofizzato la capacità di calcolo. In ciascun caso, la paura era la stessa: lo strumento che aiuta finisce per impoverire. E in ciascun caso, la realtà si è rivelata più complessa. Nel libro descrivo l’interazione con l’IA come un pensare armeggiando, in inglese tinkering. Si fornisce un input, il modello genera un output, si riaggiusta, si corregge, si rilancia. In questo scambio il pensiero fiorisce. Ma a una condizione precisa, e cioè che chi interagisce con la macchina porti con sé competenza, spirito critico, curiosità. Senza questo bagaglio, sì, il rischio è reale. L’IA potrebbe diventare solo un distributore automatico di risposte preconfezionate. Quindi è vero, il piatto pronto esiste. Chi si limita a consumarlo senza tentare di capire com’è stato fatto, non imparerà mai a cucinare, e soprattutto, non saprà mai distinguerne la qualità. Chi invece usa quel piatto come punto di partenza, per analizzarlo, capirlo, migliorarlo, finirà per cucinare meglio di prima. E questo è valido anche con l’IA”.

Nel suo libro delinea la sottile differenza che intercorre tra intelligenza artificiale e IA.

Sì, uso intelligenza artificiale, per esteso, per indicare il vasto dominio di ricerca scientifica e ingegneristica che da decenni alimenta questo campo, matematica, informatica, statistica, neuroscienze, linguistica. Uso invece l’acronimo IA per riferirmi alle implementazioni concrete, ai prodotti e ai sistemi che utilizziamo quotidianamente. Questa distinzione serve a ricordare qualcosa che spesso si dimentica. Ogni sistema di IA che oggi ci sorprende, ci aiuta, ci rende più efficienti, e che allo stesso tempo ci preoccupa, ci rende perplessi, è il frutto di decenni di ricerca umana, di ingegno, di creatività intellettuale. Dietro la macchina c’è sempre l’intelligenza umana che l’ha concepita, costruita e addestrata. L’IA, in fin dei conti, è un artificio dell’intelligenza umana. Dietro ogni intelligenza artificiale c’è sempre, e prima di tutto, un’intelligenza umana, quella di chi l’ha sviluppata e quella di chi la usa.

Qual è il ruolo dell’intelligenza artificiale nel futuro della conoscenza? L’uomo non rischia di recitare un ruolo sempre più marginale?

“Da storico dei media e della tecnologia, ho imparato a misurare i cambiamenti sociali col calendario, e non con l’orologio, osservando cioè il lungo termine anziché gli effetti immediati. E una cosa è certa: il ruolo dell’IA nel futuro della conoscenza dipende interamente da come scegliamo di impiegarla. Nel libro la definisco una tecnologia epistemica, cioè uno strumento che media i nostri processi di conoscenza, che si colloca nella lunga traiettoria che va dalla scrittura alla stampa fino ai sistemi computazionali in generale. Ognuna di queste tecnologie ha ridefinito il modo in cui il sapere viene prodotto e condiviso, senza però rendere l’essere umano marginale. Anzi, il contrario. Il rischio di marginalizzazione nasce quando si confonde efficienza con conoscenza, confidenza con competenza, quando si delega il pensiero anziché coltivarlo. Per questo ho sottolineato che la conoscenza, per essere generativa, ha bisogno di competenza umana, curiosità, creatività intellettuale. L’IA può amplificare e moltiplicare enormemente tante facoltà cognitive umane. È quello che nel libro descrivo come l’Effetto Lee Sedol, il campione mondiale di Go che pur essendo stato battuto da un sistema di IA è riuscito a superare i suoi stessi limiti e giocare meglio di prima. Insomma, stimolati dall’interazione con la macchina, possiamo raggiungere vette intellettuali altrimenti inaccessibili.

Nel suo libro emerge un ottimismo di fondo sul ruolo dell’intelligenza artificiale. Eppure, la rivoluzione apportata dall’IA ha aumentato e di tanto la percezione di insicurezza in numerosi settori lavorativi, con il taglio dei posti di lavoro e l’aumento della precarietà. Riusciremo a conviverci con l’IA, riusciremo a trovare un nuovo equilibrio?

“L’ottimismo che emerge dal libro è basato sul disincanto, e cioè sulla voglia di capire cosa c’è dietro questa rivoluzione tecnologica. La percezione di insicurezza è comprensibile, ma il quadro reale è più articolato di quanto il dibattito pubblico lasci intendere. L’IA sta eliminando alcune mansioni, questo è vero, ma ne sta creando moltissime altre.  In passato altre tecnologie hanno eliminato lavori usuranti, pericolosi, monotoni, e squalificanti nei confronti della dignità umana — mi vengono in mente i minatori, i migranti italiani che proprio qui in Canada si sono sottoposti in passato a lavori davvero massacranti — e quei lavori per fortuna non esistono più; e i figli di quei lavoratori oggi fanno lavori più dignitosi dei loro padri. Anzi, lavorare in miniera oggi richiede come minimo un titolo di studio specialistico. Allo stesso modo una tecnologia così impattante come l’IA richiede nuove competenze. E il problema e quasi l’opposto. Dati alla mano, l’IA non ruba il lavoro. Il vero problema è la mancanza di chi può svolgere i nuovi lavori che l’IA sta creando. In altri termini, la domanda di competenze legate all’IA, dalla progettazione di sistemi alla gestione dei dati, dall’integrazione nei processi produttivi alla cura epistemica dei contenuti generati, cresce a un ritmo che l’offerta formativa fatica a sostenere. In molti settori mancano professionisti qualificati, non posti di lavoro. La vera questione, dunque, non è la scomparsa del lavoro ma il cambio di competenze che questa rivoluzione esige. Ed è qui che il libro insiste con forza: nel principio della learnability, letteralmente l’abilità di imparare, ma anche la disponibilità ad apprendere, disapprendere e riapprendere, un ciclo che nutre la nostra vita intellettuale. Le competenze che ieri erano sufficienti oggi non bastano più, e quelle richieste domani forse ancora devono emergere. L’equilibrio che cerchiamo passa attraverso un investimento massiccio nella formazione, nella capacità di adattamento e nel pensiero critico-generativo. Chi saprà aggiornare le proprie mappe intellettuali troverà nell’IA un’alleata. Chi resterà fermo rischierà davvero di restare ai margini. Perché l’IA non ruba il lavoro a chi sa pensare. Lo ruba a chi smette di farlo”.

Breve biografia: Paolo Granata è professore di cultura del libro e dei media presso l’Università di Toronto, dove si occupa di ecologia dei media, intelligenza artificiale e semiotica della cultura. In Italia ha pubblicato, tra l’altro, Ecologia dei Media (Franco Angeli, 2015). Dal 2019 dirige il Media Ethics Lab dell’Università di Toronto. Dal 2018 è membro della Commissione Canadese per Unesco. Nel 2011 è stato nominato Marshall McLuhan Centenary Fellow presso la Faculty of Information dell’Università di Toronto. Il suo ultimo libro s’intitola Generative Knowledge: Think, Learn, Create with AI (Wiley, 2026)

 

IL LIBRO

In Generative Knowledge: Think, Learn, Create with AI, Paolo Granata esamina le implicazioni dell’intelligenza artificiale sui processi della conoscenza e sulle forme di produzione del sapere.

Integrando prospettive disciplinari differenti, dalla filosofia alle scienze cognitive, dallo studio dei media alle più recenti ricerche sull’IA, il libro introduce l’idea di conoscenza generativa, mostrando cosa significa oggi pensare, apprendere e soprattutto creare nuova conoscenza alla luce delle trasformazioni che l’intelligenza artificiale ha introdotto in ogni ambito del sapere.

Con uno sguardo critico ma ottimista sull’ecosistema della conoscenza in rapida evoluzione, Paolo Granata offre una lettura dell’IA come partner epistemico, un’interfaccia capace di rimodellare il nostro modo di produrre conoscenza, dove creatività umana e intelligenza artificiale si stimolano a vicenda.

Conoscenza generativa è un saggio concettualmente denso ma ricco di indicazioni pratiche per chiunque desidera comprendere in profondità l’impatto dell’IA sulla vita intellettuale e trovare una bussola pratica per orientarsi tra le sue implicazioni.

More Articles by the Same Author: