Cerca

Cara IA, le domande qui le facciamo noi

Il proibizionismo nei confronti di ChatGPT è inutile, non possiamo ignorare il suo ruolo presente e futuro nell’apprendimento. Possiamo però coltivare una cultura digitale capace di cogliere questa opportunità, perché la macchina intelligente favorisce un’azione intelligente, ma non sostituisce la capacità critica. Urge riprogrammarci

AI, artificial intelligence: in principio era soltanto una sigla e il titolo dell’omonimo film di Steven Spielberg, nato nel 2001 da un progetto di Stanley Kubrick. C’era il bambino robot programmato con l’imprinting ad amare una madre umana, costretto a mille peripezie attraverso secoli e millenni per ritrovarla dopo averla perduta; c’erano foreste popolate da altri robot antropomorfi, e universi crudeli in cui programmazione poteva voler dire dannazione. Ma, in quell’inizio, sullo schermo e fuori, non si parlava di intelligenza artificiale come se ne parla oggi, cioè come di uno strumento che scrive e chatta, assembla e riproduce, scandaglia e restituisce al mondo parole e pensieri umani, oggi ordinatamente persi negli infiniti cassetti immateriali del web. È l’intelligenza artificiale da noi chiamata IA, oggi, a scatenare paure e curiosità pari e superiori a quelle che, circa quindici anni fa, accolsero il boom dei social network e, poco dopo, di Whatsapp, la app di messaggistica che ha cambiato vite, abitudini, lessico e tic di ogni singolo possessore di telefonino. Quale sarà l’impatto reale?, si domandavano sgomenti i genitori davanti a figli che oggi, genitori a loro volta, si ritrovano di fronte agli effetti positivi e negativi, su se stessi e sugli adolescenti che hanno in casa, di quelle interazioni ormai diventate parte della quotidianità lavorativa, scolastica e affettiva. Quale sarà il reale impatto?, si domandano, ora, sospesi tra diffidenza, repulsione, desiderio di capire e attrazione, i genitori e i docenti da qualche tempo assaliti dall’esistenza di ChatGPT, il chatbot con intelligenza artificiale di OpenAI capace di raggiungere un livello di “conversazione” e scrittura talmente vicino a quello umano, per sintassi e lessico, da suscitare timori di una possibile sostituzione uomo-macchina nell’insegnamento e ansie da scambio di identità uomo-macchina negli elaborati degli studenti. Che siano soltanto fantasmi che pendono sulle teste della comunità accademica o rischi reali, negli Usa, all’inizio del 2023, varie scuole e università hanno cominciato a vietare agli studenti l’uso di ChatGPT. La Cnn registrava allora la voce del Dipartimento dell’educazione di New York: «A causa delle preoccupazioni per l’impatto negativo sull’apprendimento degli studenti e per la sicurezza e l’accuratezza dei contenuti, l’accesso a ChatGPT è vietato alle reti e ai dispositivi delle scuole pubbliche di NY». A Los Angeles, invece, si cominciava a dibattere, come raccontava Wired, di «protezione dell’onestà accademica» e di «valutazione rischi-benefici» di ChatGPT. E a San Diego, durante un evento ASU+GSV sul digital learning, alcuni partecipanti chiedevano a Bill Gates se, a suo avviso, l’IA avrebbe potuto sostituire in futuro i docenti. Risposta di Gates: faciliterà l’apprendimento della lettura e della scrittura nei bambini, migliorerà le competenze degli studenti e diventerà complementare ai docenti, coloro che avranno il compito di “governarla”. Non bloccare, quindi, ma guidare e integrare, era la strada indicata da Gates. Non così la pensano, però, le università australiane riunite nel “Group of eight”: per contrastare il dilagare di ChatGPT presso gli studenti, infatti, hanno deciso di tornare agli esami con carta e penna e di aggiornare il regolamento degli atenei, definendo “illegittimo” l’uso dell’intelligenza artificiale in testi d’esame e articoli accademici. Anche tra gli studenti ci sono stati casi di interventi proibizionisti: a Princeton è stato creato da un ragazzo GPTZero, applicazione-antidoto che permette di capire se un testo sia stato scritto attraverso il ricorso all’intelligenza artificiale oppure no.

Ma il proibizionismo funziona? In Italia, qualche mese fa, il ministro dell’Istruzione Giuseppe Valditara, intervistato da Maria Latella, a proposito del Piano di semplificazione, alludeva a un uso strumentale più che intellettuale della IA, per accelerare le chiamate di titolari e supplenti a inizio anno scolastico e per rendere più fluido il percorso di chi va in pensione e i pagamenti per le supplenze temporanee. Neanche troppo sottotraccia, però, in molte scuole e università italiane l’IA esiste già, tanto che, nell’ultimo anno, sono nati corsi di formazione sul tema per insegnanti che non abbiano competenze informatiche di base, ma vogliano cominciare a usare l’intelligenza artificiale in classe. All’Università di Nizza, intanto, racconta un docente, si sperimenta la capacità di scrittura ed elaborazione di ChatGPT durante i corsi, come pietra di paragone rispetto al testo umano e spunto di riflessione sul tipo di domande che vengono rivolte all’IA e sul modo di affinare l’interazione uomo-macchina per poter supportare l’apprendimento. «Cambierà tutto, ma servono collaborazioni e regole»: questa la frase guida uscita dall’Italian Tech Week di Torino, a proposito di impiego della IA. Il docente di Filosofia teoretica Maurizio Ferraris, intervistato da Repubblica, sottolineava l’inutilità del temere la perdita di centralità della componente umana: «La tecnologia non può sostituire l’uomo. Dobbiamo avere fiducia nella scienza, ma le domande le facciamo noi: non sono le macchine i responsabili della morte di Cesare, ma i congiurati». Sulla IA è intervenuto anche Papa Francesco, a proposito dello “tsunami tecnologico” e della necessità di coniugare l’intelligenza artificiale alla “sapienza del cuore”. E della IA si comincia a parlare anche a livello di enti locali, per esempio nella Regione Lazio, dove un paio di settimane fa la consigliera regionale Pd Eleonora Mattia ha depositato una proposta di legge per un “piano triennale di conciliazione tra risorse umane e IA”.

Ma nel mondo accademico persiste un altro timore, quello che, con l’IA, si arrivi a soppiantare, quanto a non-autenticità, il già diffuso dilagare di copia-incolla nella produzione di tesi e tesine. Chiedendo ai diretti interessati, docenti che con l’intelligenza artificiale già lavorano nei nostri atenei, emerge però anche e forse soprattutto un quadro di curiosità, sfida e capacità di rimettersi in gioco, più che un paesaggio di censura e chiusura, come se prevalesse lo sguardo realista: ChatGPT è già tra noi, dilaga, com’è stato con Whatsapp nei luoghi di lavoro, prima e dopo la pandemia. Che cosa vogliamo fare? Riprogrammarci o sbarrare porte e finestre? Nicola Mazzocca, docente di Sistemi di elaborazione, esperto di IA, machine learning e big data all’Università Federico II di Napoli e capo dipartimento Transizione ecologica e digitale della Scuola nazionale di amministrazione, si sofferma su un aspetto: «La mancanza, in Italia, di una vera cultura digitale», dice. E la cosa diventa un problema quando ci si trova davanti alla necessità di fare innovazione sia nelle PA sia nella formazione in generale.

«Confondiamo conoscenze e competenze», dice Mazzocca, «e davanti all’intelligenza artificiale questa confusione diventa tanto più evidente. Per alcune scelte che implicano la volontà nulla può l’algoritmo, anche se la capacità di disporre di sistemi di calcolo potentissimi ha reso possibile ciò che prima sembrava impossibile». Nella “formazione” di ChatGPT, per usare termini profani, si usano tantissimi dati, dopodiché l’uso dei dati pone altri interrogativi. «L’affidabilità degli stessi», dice Mazzocca, e, guardando verso il futuro, «l’imputabilità per così dire del software in caso di errori e incidenti. Un conto è saper usare, un conto è come usiamo. In Italia c’è un uso importante della IA nella cyber-security, e nuove frontiere si stanno aprendo nel campo della ricerca medica, economica, bioinformatica. Quando nasce uno strumento nuovo, però, bisogna chiedersi: quanto di questo uso è davvero consapevole, riflessivo, e quanto inconsapevole? Ecco perché ci serve un approfondimento della cultura digitale, anche a livello di pianificazione delle strategia nella PA, cosa di cui ci si sta occupando nella Sna. Ed è anche importante che si lavori per colmare il divario di fruizione maschile-femminile dei corsi di laurea Stem: le ragazze nei corsi di laurea Stem sono ancora troppo poche, attorno al venti per cento, e questo, rispetto alla IA, potrebbe in teoria creare un’abitudine a un ‘uso maschile’ dei dati. Altro problema culturale». A livello scolastico c’è più prosaicamente chi teme che gli studenti a un certo punto arrivino a non saper più fare un riassunto. «Non possiamo fermare la realtà», dice Mazzocca «e anche senza IA chi vuole copiare, parlo per esempio del latino e del greco, trova già la versione in rete. Qui si tratta di comprendere l’opportunità che offre l’intelligenza artificiale, e questo è un tema di nuovo culturale, non tecnologico. La macchina intelligente favorisce un’azione intelligente, ma non può sostituire la capacità critica. Cosa c’è dietro il dato, è la domanda da porre, senza timore di cedere sovranità mentale». Durante l’Italian Tech Week, il rettore del Politecnico di Torino Guido Saracco parlava di tecnosofia: «I tecnologi», diceva a Repubblica, «nascono per creare qualcosa, ma in una società sempre più complessa ci si deve porre il dubbio sulle conseguenze collettive». Interpellato dal Foglio sulla frontiera uomo-macchina spostata sempre più avanti da ChatGPT, Saracco invita a soffermarsi intanto sul fatto che le tecnologie che surrogano capacità umane, come ChatGPT, «possono generare narrazioni credibili ma non si sa quanto esatte. Ed è per questo che agli studenti dobbiamo far conoscere lo strumento, uno strumento che usato in modo critico può essere un valido supporto, ma anche far capire l’inutilità dell’aderenza totale allo stesso, e l’importanza dell’inferire idee proprie sulla base di un risultato artificiale. Siamo noi che sbagliamo, insomma, se ci fermiamo al ‘che cosa può fare ChatGPT’. Ricordo i primi tempi di vita di Altavista, motore di ricerca inizialmente percepito come ‘intelligente’. Se ne parlava come di una piccola rivoluzione, come oggi con ChatGPT, e, come con Altavista, trarrà più vantaggio dal nuovo strumento chi prima degli altri saprà sviluppare capacità di uso critico». A Torino, dice Saracco, il nuovo strumento «ha già cambiato per molti docenti il modo di fare lezione, ma il concetto è sempre quello di stimolare lo studente a ragionare sui dati a disposizione. È questa capacità a fare la differenza. La diffusione di ChatGPT è inevitabile, serve consapevolezza per adattare pedagogia e sistema di valutazione. Non ci si può arroccare sul nulla, la paura non serve. È una bella sfida, guardiamo avanti. Sapendo che sì, forse ChatGPT potrà sostituire l’uomo in alcune mansioni, ma saranno quelle che resteranno a formare lo specchio in cui guardarci».

ChatGPT è “addestrato” con informazioni che arrivano fino al 2021, motivo per cui le sue conoscenze possono essere imperfette, e le risposte potrebbero non essere sempre aggiornate. Non le si può chiedere: fammi una ricerca sulle elezioni politiche del 2022, per esempio, perché i limiti dell’intelligenza umanoide emergerebbero immediatamente. Su altri argomenti, però, il discrimine tra vero, falso e verosimile è più sottile. Il teologo francescano, esperto di etica, bioetica ed etica delle tecnologie Paolo Benanti insegna alla Pontificia Università Gregoriana. Negli ultimi anni ha studiato a lungo l’impatto educativo dello “strumento” IA: «Strumento tra i più interessanti a cui guardare, conoscendone limiti e pericoli», dice: «D’altronde siamo una specie che da 70.000 anni abita il mondo trasformandolo, e la condizione umana è una condizione tecno-umana. L’uomo delle caverne, davanti a una noce di cocco, si è trovato di fronte al problema del suo uso come utensile o come arma contundente. ChatGPT ha generato molte aspettative e ha avuto un grande successo iniziale, e c’è anche chi si è stupito dell’inesattezza delle risposte, vedendolo come un normale motore di ricerca. Ci sarà bisogno di studio delle capacità del mezzo e anche di educazione al mezzo. I ragazzi hanno capito subito che ChatGPT ha dei limiti come fonte di informazione, e c’è stato chi si divertiva a usarlo sulle app di incontri. Della serie: tirami fuori un testo romantico da scrivere alla ragazza. Non conosciamo ancora tutte le sue potenzialità, anche se se ne intuisce per esempio l’utilità per la PA, nel semplificare e fluidificare testi scritti in ‘legalese’. È un mezzo da capire e governare. Se si vogliono evitare danni da eccessiva ingenuità, bisogna insomma investire in formazione». Il professor Giuseppe Italiano, ordinario di Sistemi di elaborazione dell’informazione all’Università Luiss Guido Carli, ha condotto diversi seminari sul tema dell’intelligenza artificiale. E se è vero che ci sono state inizialmente preoccupazioni su un possibile uso deviato, nel senso di possibilità per lo studente di presentare un testo artificialmente prodotto, è anche vero che lo stesso può essere guidato verso un uso consapevole: «A lezione dico sempre: non fatevi dare risposte da ChatGPT», dice Italiano, che anzi stimola i ragazzi a «fare domande a ChatGPT con l’intento di affinare le proprie conoscenze e, attraverso le risposte artificiali, capire l’eventuale errore proprio e quello della macchina e confrontarli, in un processo di autoriprogrammazione delle conoscenze e, per quanto riguarda i docenti, del modello educativo. Detto questo non possiamo escludere l’IA da un corso universitario, se non vogliamo che gli studenti, quando escono, non siano preparati a un mondo lavorativo che la userà sempre di più». I docenti, dice Italiano, più che rifiutare, «dovrebbero domandarsi: che cosa offro io di più rispetto a ChatGPT? Siamo noi che guidiamo la macchina, noi che dobbiamo portarla nella direzione desiderata. Noi che possiamo incuriosire lo studente a mettersi alla prova con la macchina, facendo domande per prepararsi prima dell’esame, per esempio, verificando la propria preparazione, come con un tutor, senza la barriera emotiva dell’ansia da prestazione. Quanto al timore del docente sulla possibilità che la macchina faccia il lavoro dello studente, chiediamoci: se pongo quesiti a cui può rispondere la macchina, forse chi sbaglia sono io. E questo è un tema che ci si pone tanto più nel mondo anglosassone, dove la maggior parte degli esami sono quiz a risposta multipla».

Dal Politecnico di Milano, il vicerettore per la Didattica Stefano Ronchi racconta l’evoluzione di questi anni, nell’ateneo, rispetto all’applicazione dell’IA. «Abbiamo da tempo introdotto l’IA a livello amministrativo – abbiamo un chatbot per rispondere agli studenti su aspetti organizzativi, come fosse uno sportello permanente della segreteria – e anche a livello di studio delle prestazioni accademiche, per monitorare il tasso di drop-out ed eventualmente intervenire con un sistema di tutorship. Sui contenuti, a parte naturalmente studiare il mezzo nel suo funzionamento e capacità, ci siamo posti il problema, a livello di didattica e valutazione, di come cogliere l’occasione della possibile ‘concorrenza’ artificiale per rendere l’insegnamento e di conseguenza l’esame meno nozionistico. In un Politecnico questo problema non si pone per molte materie, vista la necessità di progettare: l’IA ancora non arriva, oggi, dove può arrivare la capacità creativa dell’uomo, ma può essere un valido supporto alla progettazione con la sua velocità nel fornire dati. Diverso è il discorso per discipline più mnemoniche e nelle facoltà umanistiche, ma penso che la conoscenza e la capacità critica possano fare da argine. Uno strumento di lavoro nuovo non può essere vissuto come una minaccia». Tommaso Di Noia, ordinario di Sistemi di Elaborazione dell’Informazione al Politecnico di Bari, ha vissuto dall’interno l’inserimento di ChatGPT nel quadro didattico. «Lo strumento è ancora allo studio», dice Di Noia, «ma è interessante riflettere su alcuni problemi che pone, per esempio quello delle cosiddette ‘allucinazioni’. Faccio un esempio: è successo che, chiedendo a ChatGPT se pesasse più un chilo di ferro o due chili di piume, la risposta premiasse le piume e non il ferro. Non per niente questi strumenti sono stati definiti ‘pappagalli stocastici’, addestrati cioè a lavorare su base stocastica. La sequenza di parole generate da ChatGPT su nostro quesito può dare insomma una risposta plausibile ma anche grottesca o errata. Ma, man mano che si conoscerà il mezzo, e si affineranno domande e risposte, credo sarà possibile introdurlo con successo nella cassetta degli attrezzi per il processo didattico. È un cavallo da corsa che corre in una prateria: deve ancora essere imbrigliato». Si possono poi porre problemi di “fairness”, dice Di Noia: «C’è il pericolo di codificare dei pregiudizi attraverso una sorta di ‘attacco’ al sistema. Per questo serve ancora molto studio e sperimentazione. Dobbiamo ancora capire quale ricaduta avrà la IA a livello sociale, nel quotidiano, sui processi decisionali, e dobbiamo ancora capire quale sia la sua mappa di conoscenza, che cosa ha realmente imparato il sistema, e come evitare che la credenza per così dire popolare ma magari errata su un certo argomento diventi parte del patrimonio conoscitivo dello strumento. In questa fase non si può avere fiducia cieca, è l’uomo a dover discernere». La professoressa Azzurra Ragone, già ricercatrice in IA e machine learning al Politecnico di Bari, torna sulla questione delle “allucinazioni”: «A volte il sistema dà risposte credibili ma sbagliatissime, e a volte le motiva rendendole credibili. Altro problema: chiedo a ChatGPT delle referenze e se le inventa. Possiamo fidarci? La strada è l’uso critico: è come se chatGPT avesse studiato ma non tutto. È come se fosse uno studente non sempre preparato ma onesto che, all’80 per cento delle probabilità, risponde correttamente. Per questo agli studenti propongo di sperimentare: è anche un modo per verificare le proprie conoscenze e per ‘aiutare’ ChatGPT a non sbagliare in futuro, attraverso il sistema di feedback: dando una risposta ‘ok’ o ‘non ok’, cliccando sull’icona del pollice o del pollice verso, e specificando perché ho messo il pollice verso, se la giudico sbagliata: perché non è vera o perché non è utile?».

Sono passati più di vent’anni da quando il bambino-robot di Spielberg si perdeva nella foresta. Oggi uomo e macchina possono idealmente prendersi per mano per arrivare insieme a destinazione?

Marianna Rizzini (Roma), è giornalista del Foglio. Si occupa soprattutto di politica.