Intervista
20 Gennaio 2026 10:48:00
«L’intelligenza artificiale può essere un nostro alleato, a scuola e sul lavoro, ma solo a patto che sia governata».
Ne è convinto Guido Saracco, rettore del Politecnico di Torino dal 2018 al 2024 e dallo scorso maggio presidente del consorzio Astiss, che si occupa del polo universitario astigiano, chiamato a mettere a frutto la sua esperienza nel territorio in cui affondano le sue origini.
Lo scrive chiaramente nel suo ultimo libro, intitolato “Alleati digitali. La nostra IA personale” (Laterza), che uscirà il 23 gennaio nelle librerie di tutta Italia e sarà presentato lunedì 26 gennaio alle 18 al Teatro Alfieri (ingresso libero dalle 17.30 fino ad esaurimento posti).
Presidente, come è nato il libro?
Quando ero ancora rettore del Politecnico di Torino e uscì Chat GPT, questo software fantastico a disposizione di tutti, mi resi conto che avrebbe cambiato profondamente il modo in cui avremmo insegnato agli studenti.
Da questi studi è quindi nato "Alleati digitali"..
Sì. Intitolato “Alleati digitali. La nostra IA personale” e pubblicato da Laterza, uscirà il 23 gennaio, accompagnato da una serie di eventi, il primo dei quali al Teatro Alfieri di Asti, che mi vedranno sul palco con una sorta di monologo teatrale.
L’invito è esteso a tutti. Penso, infatti, che i temi trattati siano talmente affascinanti, forieri di stupore, realistici e vicini a noi che interessino tutte le generazioni.
Quindi è possibile governare l’intelligenza artificiale...
Ciò che ho scoperto nei miei studi è che è possibile concepire software e servizi che siano aderenti alle linee dell’AI Act europeo, cioè al corpus legislativo che l’Europa si è data per regolare la questione, e siano di grande utilità per i nostri studenti.
L’utilità forse maggiore è quella del “tutor socratico”. Ovvero, questi strumenti possono far vedere ciò che non si vede o proporre un altro modo di giudicare le cose, per rafforzare il proprio punto di vista o magari indurre a cambiare idea (da qui il riferimento al filosofo greco Socrate). In sostanza, possono aiutare ad irrobustire il senso critico, non contribuire ad annichilirlo come succede quando ci si affida solo alle risposte di Chat GPT.
Facciamo un esempio di come potrebbe essere utilizzata l’intelligenza artificiale durante una lezione con gli studenti...
Al termine di una spiegazione il professore domanda agli studenti qual è il loro punto di vista sul tema. Dopodiché, insieme, si apre Chat GPT per vedere cosa propone, per poi scegliere se cambiare o mantenere la propria opinione, autonomamente.
Questo utilizzo può essere fatto secondo lei anche prima dell’adolescenza?
Sì, ma a patto che sia svolto in classe e guidato dall’insegnante.
Lo studente può utilizzare l’intelligenza artificiale da solo, sempre che gli sia stato insegnato al meglio in precedenza, preferibilmente dai 16 - 17 anni, quando il cervello sviluppa le interconnessioni che consentono una visione olistica, complessiva dei problemi, e quindi il ragazzo acquisisce lo spirito critico necessario ad inquadrare le risposte di Chat GPT.
Considerazioni che mi portano ad affermare nel libro che questo alleato digitale dovrebbe essere considerato anche per riformare la didattica.
Questi software vanno governati anche per evitare rischi molto elevati per la società in generale...
Sì, perché non può essere consentito ad una multinazionale di “manipolare” i cittadini - di cui, grazie a questi software, conosce tutto (interessi, dubbi, lacune) - perché a rischio è la loro indipendenza, essendo tecnologie guidate da obiettivi economici.
Attenzione. Considerando poi che la corsa a sviluppare queste tecnologie è svolta principalmente da Stati Uniti e Cina, il rischio è che si perdano l’indipendenza e i valori ancora radicati in Europa. Dobbiamo impegnarci a sviluppare i nostri modelli.
C’è anche tanta preoccupazione per i rischi nel mondo del lavoro...
Anche in questo caso l’intelligenza artificiale va governata in modo che diventi uno strumento di potenziamento: magari ci consentirà di lavorare meno o ci semplificherà alcuni compiti (ad esempio annotando ciò che non siamo in grado di ricordare), ma dovremo essere sempre noi a scegliere la via da percorrere.
La mera sostituzione a livello cognitivo, al contrario, sarebbe un danno gravissimo.
Aut. Tribunale di Asti n. 61 del 25/09/1953
Direttore Fulvio Lavina
f.lavina@lanuovaprovincia.it
Società editrice Editrice OMNIA S.r.l.
via Monsignor Rossi 3 -14100 Asti
P.Iva 00080200058