Antonio Lieto e l’approccio olistico all’intelligenza artificiale

Cara Irene, Antonio Lieto è stato mio studente nella classe più bella che ho avuto all’Università di Salerno e anche dopo, ed è bello vederlo oggi Professore Associato di Informatica presso l’Università di Salerno (DISPC), Ricercatore associato presso l’ICAR-CNR (Istituto di Calcolo e Reti ad Alte Prestazioni) di Palermo e tante altre cose ancora, come puoi leggere alla fine. Sia chiaro, io c’entro poco, il suo maestro è stato il grande Roberto Cordeschi, insieme al logico Marcello Frixione, però Antonio per me non è mai stato uno dei tanti, e neanche io per lui, perciò sono stato e sono felice dei centimetri che ha conquistato, e di quelli che so che conquisterà, mentre alla voce daimon l’ho conosciuto che stava già a posto, anche a 20 anni aveva il piglio e l’approccio giusto, insomma il codice dell’anima, la “streppegna”, era di quelli giusti, si vedeva chiaramente.
Antonio, studia, fa ricerca e insegna Intelligenza Artificiale, ed è da tanto che pensavo di fare una chiacchiera con lui e di raccontarlo. Poi, una decina di giorni fa, rispondendo a una domanda di un giornalista ha parlato del bisogno di affrontare il tema Intelligenza Artificiale con approccio olistico e lì ho capito che il momento di parlargli era adesso.
Lo sai amica mia, è tutta una vita che predico, nel senso in cui si usa la parola qui a Caselle in Pittari, intorno al valore della diversità, alla necessità di mettere insieme più punti di vista, conoscenze, competenze, intorno allo stesso tema, alla fine uno dei miei tanti sogni da realizzare, il Serendipity Lab, nasce qui, insomma l’approccio olistico è il mio punto di partenza sulle strade del “Fare è Pensare”, del rifiuto della tecnica come punto di vista iperspecialistico che, come abbiamo imparato da Hanna Arendt, ci fa stare concentrati solo sul “cosa” dobbiamo fare e ci fa perdere di vista il “perché”. Per non farla lunga ho cercato Antonio e gli ho proposto di rispondere a un po’ di domande.  Te lo dico subito, la conversazione che ne è venuta fuori è parecchio lunga, però secondo me il tempo che ci vuole per leggerla lo vale tutto. Detto questo, sai tu che fare.

L’APPROCCIO
Vincenzo: Che dici Antonio, se sei d’accordo partirei dall’approccio, dalla tua filosofia rispetto all’intelligenza artificiale, naturalmente con la consapevolezza che siamo tutti nani sulle spalle dei giganti. Ecco, nel contesto del tuo approccio filosofico, vorrei che provassi a far emergere il valore che ci aggiungi tu con le tue idee, le tue ricerche, il tuo lavoro.
Antonio: Per me va bene, cominciamo dall’approccio. Direi innanzitutto che il mio approccio è quello storico, quello dell’intelligenza artificiale delle origini. L’intelligenza artificiale che nasce nella conferenza di Dartmouth del 1956 è una disciplina tecnica che tiene assieme filosofi, informatici, ingegneri, neuroscenziati, e psicologi del tempo.
V.: Confesso che la cosa mi sorprende abbastanza.
A.: Lo immagino. Nella comunità di studiosi dell’intelligenza artificiale questo tipo di approccio, che per l’appunto mette assieme competenze di diversi ambiti per studiare lo stesso fenomeno sia in sistemi biologici che in sistemi artificiali, è ultraminoritario. Oggi, a prevalere nettamente, è l’ipertecnicismo.
V.: Puoi fare qualche esempio?
A.: Certo. Chi fa visione artificiale, chi scrive un software per il riconoscimento facciale, non sa quasi niente (a parte concetti di base) degli sviluppi tecnici che riguardano, poniamo, i sistemi di ragionamento automatico: non sa quasi niente di quella sotto area dell’intelligenza artificiale (e viceversa, naturalmente). Inoltre, sempre rimanendo nell’esempio della visione artificiale, un altro aspetto importante riguarda il fatto che, nella grande maggioranza dei casi, questo approccio non prende più spunto da quello che sappiamo dagli studi rispetto alla visione di altre entità biologiche come per esempi noi umani o anche gli animali. E questo vale non solo per la visione ma per tutti gli ambiti: percezione, azione, ragionamento e anche linguaggio naturale, come è evidente oggi con ChatGPT e altri modelli generativi di questo tipo. È importante sottolineare che il modo con cui rispondono questi sistemi non ha nulla a che fare con il modo in cui noi umani generiamo risposte usando la nostra competenza linguistica.
V.: Perché è importante sottolinearlo?
A.: Per molte ragioni, a partire dal fatto che se questi sistemi, per risolvere gli stessi problemi, fanno le cose in modo completamente diverso dal quello che usiamo noi umani, il che significa che non si possono trasferire in automatico delle capacità che spiegano i nostri meccanismi a livello biologico anche per spiegare i meccanismi diversi che sono alla base dello stesso output prodotto dai sistemi artificiali.
Il fatto che un sistema generi parole, e che poi queste parole, messe insieme, possano formare una frase, un paragrafo, un libro o altro, non vuol dire che quel sistema abbia una comprensione semantica delle parole che ha generato. Sono sistemi, compreso Chat GPT, che hanno una funzione un po’ di autocompletamento, una forma molto più avanzata (e che funziona in modo diverso) ma comunque del tipo quella che c’era e c’è anche in programmi di videoscrittura come word.
V.: Per favore puoi fare anche qui un esempio?
A.: Se io dico “il cane insegue il …” la parola che viene dopo dal punto di vista probabilistico è “gatto”, ed è quello che in pratica fanno questi sistemi, mentre in realtà il cane potrebbe inseguire tante altre cose.
V.: Come direbbe Corrado Guzzanti nella versione “Quelo”, e tu che dici?
A.: Dico che bisogna adottare un approccio diverso, olistico per l’appunto, perché se vogliamo superare i limiti di questi sistemi o, in altra ipotesi (quella che a me interessa di più), utilizzarli a scopo simulativo, cioè per capire come funziona la nostra mente, allora dobbiamo progettarli fin dall’inizio prendendo spunto e trasformando in algoritmi i meccanismi che conosciamo rispetto al come ragioniamo, come vediamo, come prendiamo decisioni, come gestiamo l’incertezza, ecc. Non possiamo lasciare fuori dal nostro lavoro il fatto che siamo esseri che si muovono, gestiscono continuamente situazioni complesse, operiamo in ambienti incerti, non abbiamo informazioni complete e così via discorrendo.

LA RAZIONALITÀ È LIMITATA
V.: Insomma che agiamo in condizioni di razionalità limitata.
A.: Appunto. E nonostante ciò riusciamo a fare queste cose in modo rapido, continuo, al contrario dei sistemi artificiali, che invece hanno grosse difficoltà. È una variante del paradosso di Moravec, che semplificherei in questo modo: le cose facili per gli umani sono complicate per i sistemi artificiali e viceversa. Nel caso delle macchine basta pensare a un’equazione da risolvere a memoria, o anche a un calcolo che viene molto più semplice da fare con una comune calcolatrice che con carta e penna.
V.: Scusa Antonio, ma perché l’approccio olistico, quello che prova a mettere insieme più discipline per costruire un sistema artificiale, non è maggioritario.
A.: Non è maggioritario perché è più difficile. È più difficile perché studiare lo stesso problema da tanti punti di vista comporta che la quantità di dati e di variabili che devi conoscere e considerare prima di progettare è decisamente superiore a quello con cui si deve misurare chi affronta e risolve un problema specifico, che riguardi un software o un robot.
V.: In pratica conviene di più l’approccio verticale.
A.: Volendo si può dire anche così. Intendiamoci, anche questo tipo di approccio serve, è, nel suo ambito, importante; se oggi abbiamo tante applicazioni sui nostri smartphones e su tanti altri strumenti digitali che usano l’intelligenza artificiale è anche grazie a questa suddivisione ingegneristica dei compiti che permette di risolvere singoli e specifici problemi.
Il punto è che il problema generale, se si può dire così, non si risolve risolvendo in modo disconnesso l’uno dall’altro i singoli problemi particolari.

INVERTIRE LA TENDENZA
V.: Ma come si cambia questa cosa, come si inverte la tendenza?
A.: Si cambia mettendo in evidenza i limiti di questi sistemi nonostante facciano meglio di quelli della generazione precedente. Certo, progrediscono, però a un certo punto si si scontrano con i loro limiti e si fermano, vale per tutti i sistemi basati su queste architetture transformer, compresa ChatGPT. Si tratta di reti neurali che fanno delle cose molto meglio dei sistemi precedenti però sono state allenate, addestrate, su tutto quello che è stato già scritto, che è già disponibile. Naturalmente hanno una mole di conoscenza che non è confrontabile con quella di un singolo essere umano, Einstein compreso, o anche il più sapiente di ogni tempo, ma rimangono limitati.
V.: Lo so, sono scocciante, ma fammi anche qui un esempio.
A.: Uno dei problemi di questi sistemi, dato che non hanno la comprensione di ciò che fanno, è che generano anche tante cose false. Pensa all’informazione, dove sono e saranno sempre più utilizzati: è del tutto plausibile immaginare che diventeranno sempre più dei diffusori automatici di fake news. Di fatto potranno essere diffuse una quantità di notizie verosimili, ma non per questo vere, anche su argomenti strategici come l’ambiente, l’economia, la politica. In generale questi sistemi facilitano la generazione di notizie, che però in gran parte non sono accurate come sarebbe necessario, non sono del tutto vere, sono in parte e a volte anche completamente false.
L’aspetto decisivo è che questi sistemi non sanno ciò che producono, producono testo in base alla probabilità di occorrenza della parola successiva in quella frase, è questo quello che fanno. A una prima lettura puoi pure trovare sorprendente che riescono a produrre cose sensate, però se approfondisci, o sei una persona esperta di quel tema, ti accorgi che da una parte una cosa è sbagliata, da un’altra parte è imprecisa e così via discorrendo. E questa roba qui ha delle conseguenze, e prima che me lo chiedi tu ti faccio un altro esempio. Se non sei esperto di genetica, il modo in cui è formulato un testo su quel tema può sembrarti plausibile e quindi ti convinci che quella determinata cosa è vera, mentre magari non ha nessun fondamento.
V.: In pratica è tutto un azzeccacarbugli; tecnologico, di un certo livello, però pur sempre un azzeccacarblugli. E dunque ti ripeto la domanda: come si fa a cambiare paradigna?
A.: E io ti ripeto la risposta: mostrando alla comunità scientifica quali sono i limiti di questi sistemi. Limiti che spesso sono una variante più evoluta di quelli classici dei sistemi precedenti, perché di sistemi tipo chat bot in grado di dialogare e anche di confondere gli essere umani non esistono certo da oggi.

ELIZA
Per esempio già negli anni 60 c’era il primo Eliza, un chatterbot scritto da Weizenbaum che doveva simulare di essere uno psicoterapeuta e alcune persone pensavano che stavano dialogando davvero con uno psicoterapeuta. In realtà Eliza usava tutta una serie di trucchi, a partire dalle ripetizioni. In pratica faceva parlare sempre l’utente e dai suoi discorsi estrapolava alcune affermazioni di conferma. Era una tecnica basata sull’ascolto delle persone che, parlando, avevano l’impressione di dialogare con un’entità intelligente mentre il chatbot si limitava a ricombinare e riformulare le parole dette dal cliente. Per esempio c’era un paziente che diceva che aveva avuto problemi con la sua ragazza e il sistema rispondeva “ah, ma tu hai avuto problemi con la ragazza?”. In pratica faceva il parroting, il pappagallo. Chiedeva le stesse cose che l’utente aveva già detto. Combinando diverse tecniche il sistema dava all’utente l’impressione che stesse parlando con uno psicoterapeuta umano. Ecco, già negli anni 60 diverse persone erano state, diciamo così, ingannate, in questo modo.
V.: Questa è bella Antonio. Non so se al tempo te l’ho mai raccontato, ma quando sono nate le prime televisioni locali, “libere”, le chiamavano allora, mi divertiva seguire i maghi e loro usavano proprio il metodo che hai appena ricordato tu. Prima si facevano raccontare dall’utente che la moglie l’aveva lasciato, per esempio, e poi giravano, sempre per esempio, la donna di picche e gli dicevano che avevano problemi di cuore. Ricordo che chi telefonava era contentissimo, probabilmente l’unica cosa che per lui contava davvero era essere compreso, condividere il suo problema. Ma adesso torniamo a noi.

QUESTIONI DI CONSAPEVOLEZZA
A
.: Sì, torniamo a noi. Come ti dicevo il punto è dimostrare quali sono i limiti di questi sistemi, sulla parte relativa al ragionamento, sul fatto che generano notizie false, eccetera. Adesso per esempio sono stati integrati nei motori di ricerca, dunque si può fare sia una ricerca normale che una ricerca tramite chat GPT, in modo dialogico.
Il punto è che non di rado le referenze che mettono quando chiedi una cosa a un motore di ricerca sono completamente inventate. Naturalmente se la ricerca riguarda Leonaro Da Vinci non accade, perché i testi che lo riguardano sono talmente tanti, la conoscenza è così sedimentata che è difficile sbagliare. Però appena si va su autori e personaggi minori della storia di qualunque disciplina ecco che vengono fuori cose false e cose inventate. È per questo che è indispensabile un utilizzo consapevole di questo tipo di sistemi.
V.: Mentre con un approccio olistico si possono superare questi limiti, dico bene?
A.: Dici bene. Il punto è che lo devi far vedere, lo devi dimostrare, in primo luogo alla comunità scientifica, con dei lavori, con dei sistemi che fanno meglio utilizzando un approccio diverso. Magari ci arrivi un po’ più tardi però fai vedere che riesci a fare più cose e che riesci a farle complessivamente meglio. Magari su un singolo compito puoi avere una performance leggermente più bassa però se un sistema costruito con questo approccio riesce a fare più cose, questo è un segno di intelligenza. Integrare più capacità è un aspetto importante quando parliamo di intelligenza, non solo artificiale. Una persona che sa giocare solo a sudoku, o solo a scacchi, non è che impressiona più di tanto, non è che va molto lontano nella vita reale.
V.: Siam tanti, come ha scritto Pablo Neruda nella sua bellissima poesia.
A.: Esatto. E tutto questo mi porta a dire che dato che questi sistemi, per il modo in cui sono progettati, hanno tutta una serie di limiti (noti oramai alla comunità scientifica). Una cosa importante da sottolineare alla luce dei tanti discorsi sui rischi esistenziali dell’intelligenza artificiale che – secondo alcune visioni fantascientifiche – potrebbe prendere il “controllo” sugli esseri umani è che non hanno una intenzionalità, non sono in grado di decidere intenzionalmente se fare o non fare una determinata azione, se è giusto o non giusto farla. In generale non affiderei loro il controllo di cose critiche.

COPIA E INCOLLA
I sistemi di intelligenza artificiale attuali non hanno proprio i concetti, le categorie concettuali, per gestire il controllo di cose strategiche. Sono sistemi che replicano, come dicevi tu copiano, ricombinandoli, dati, notizie, informazioni, testi, immagini, audio, video che già esistono. Sono capaci di processarne a milioni, talvolta miliardi, ma sono comunque tutte cose che esistono già.
Fanno una sorta di copia e incolla furbo e avanzato, ma questo è. È per questo che è molto rischioso pensare di lasciare a loro il controllo di aspetti critici. Come dicevo non hanno intenzionalità, non sono in grado di decidere e di scegliere i propri scopi (che di per sé non è un aspetto negativo). Ma questo significa che gli scopi vengono dati loro sempre da un umano. Il rischio alla fine è che ci sia sempre una qualche elite che sta dietro a questi sistemi che ha le risorse per decidere per tutti.
V.: Anche questa è una storia vecchia, il mito del “tutti possiamo” mentre la storia ci insegna che ad avere davvero il potere di fare sono ogni volta in pochi, e quelli che prendono le decisioni più strategiche per le nostre vite pochi pochi pochi. Comunque, torniamo per un attimo sulla storia del copia e incolla, quando ci siamo sentiti nei giorni scorsi hai accennato a qualcosa che riguarda il NYT.
A.: Sì. A dicembre 2023 il NYT ha citato in giudizio OpenIA, la società che controlla ChatGPT, perché sostiene che molti testi “generati”, molto tra virgolette, da ChatGPT sono un vero e proprio copia e incolla di articoli del NYT. Sono esempi che, se ricordo bene, riguardavano il Vietnam. Giustamente il giornale ha messo in evidenza il lavoro che c’è dietro quegli articoli, i costi per gli inviati, per l’attività sul campo, il lavoro della redazione e tutto il resto per un periodo non breve, dopo di che tu arrivi con la tua intelligenza artificiale e ti prendi parti interi del mio lavoro senza neanche una citazione.
V.: Altro che A.I., a me verrebbe da dire che questa è opera di A.L., Arsenio Lupin, però ritiro subito la battuta e cito invece Noam Chomsky, Ian Roberts e Jeffrey Watumull che in un editoriale pubblicato dal New York Times l’8 marzo 2023 scrivono: “La mente umana non è, come ChatGPT e i suoi simili, un goffo motore statistico per la corrispondenza di modelli, che si rimpinza di centinaia di terabyte di dati ed estrapola la risposta più probabile a una conversazione o la risposta più probabile a una domanda scientifica. Al contrario, la mente umana è un sistema sorprendentemente efficiente e perfino elegante che opera con piccole quantità di informazioni; non cerca di inferire correlazioni brute tra i dati ma di creare spiegazioni.”
A.: Quello che fanno sostanzialmente non è proprio una copia però in parte sì, una copia ricombinata di alcuni pezzi che prendono dai vari elementi su cui sono stati addestrati per produrre qualche cosa che, messo insieme in un modo sapiente, può sembrare nuovo. Può sembrare nuovo ma può essere anche falso. Difficile non essere d’accordo con Chomsky, Roberts e Watumull. Nel caso specifico decideranno i giudici, però il problema c’è, ed è serio.

COOPERAZIONE TRA UMANI E MACCHINE
V.: Che ne dici di introdurre il tema della cooperazione tra umani e macchine?
A.: Mi sembra una buona idea, è sicuramente un altro aspetto importante della questione. Per cominciare ritornerei al paradosso di Moravec per dire che visto che ci sono cose che facciamo meglio noi umani e altre che fanno meglio i sistemi artificiali, trovare degli spazi di cooperazione dovrebbe essere un’urgenza, un imperativo categorico kantiano.
Intendiamoci, in ambito scientifico esiste già da tempo questa sinergia tra scienziati e sistemi che fanno meglio cose che per noi sarebbero molto più lunghe, onerose, complicate da fare. Per esempio, la ricerca dei vaccini nel periodo più critico del Covid19 è stata fortemente sostenuta dalla capacità combinatoria tra l’intelligenza umana e quella artificiale. Detto questo, nonostante tutto il gran parlare che si fa di intelligenza artificiale nella sostanza, come comunità scientifica nei momenti importanti continuiamo a farci trovare impreparati su tante cose, anche da questo punto di vista l’emergenza Covid ci dice parecchie cose. Per esempio che non siamo stati in grado di avere sistemi artificiali, per esempio robot, che facessero da aiutanti agli infermieri. Non ci siamo riusciti neanche nella nostra parte di mondo, quella che usiamo definire tecnologicamente avanzata. Non abbiamo avuto neanche un sistema in grado di interpretare, di capire, quello che i pazienti in difficoltà con la maschera dell’ossigeno stavano cercando di dire, o per andare a prendere i farmaci o altre cose di questo tipo, cosicché ci siamo ritrovati in situazioni molto critiche, con infermieri e medici ammalati, pazienti abbandonati a se stessi e tanto altro ancora senza che dai sistemi artificiali ci venisse l’aiuto che sarebbe stato necessario, e forse anche possibile. Alla fine parecchie delle cose che leggiamo sono più marketing che scienza.
V.: Penso di capire che cosa intendi dire. L’idea che mi sono fatto io è che nonostante la retorica, persino nel lavoro di predizione dei tassi di diffusione del virus, dove obiettivamente la ricerca è più avanti, penso al lavoro di Vespignani e altri, per molti versi non siamo riusciti a fare tutto quello che poteva essere fatto. Ma secondo te ce la possiamo fare?

CIBERNETICA, SPECIE NATURALI E SISTEMI ARTIFICIALI INTELLIGENTI
A.: Io penso di sì. Alla fine l’idea che per costruire un sistema artificiale intelligente devi prendere spunto da quelle che sono le specie naturali intelligenti che conosciamo è, storicamente, l’idea di fondo della cibernetica, che è un filone che nasce prima dell’intelligenza artificiale e che non a caso ha influenzato fortemente l’intelligenza artificiale degli inizi.
Lo scopo della cibernetica era proprio quello di capire quali sono i meccanismi unificanti per spiegare che cos’è l’intelligenza in modo uniforme tra esseri biologici e macchine. È uno scopo scientifico di altissimo livello e per questo molto difficile da raggiungere.
V.: E poi cosa è successo?
A.: È successo che a partire dalla metà degli anni ’80 la grande maggioranza degli studiosi di intelligenza artificiale hanno deciso che le cose che non sappiamoci sono troppe, che tenere insieme tutto il quadro è troppo complicato e che è meglio lavorare allo sviluppo di sistemi specifici come la traduzione automatica, il riconoscimento facciale e altre cose di questo tipo. Parliamo di tutti sistemi singoli, non integrati, mentre noi umani siamo invece sistemi intelligenti complessi, in grado di fare più cose contemporaneamente. Ribadisco che i sistemi singoli, non integrati, vanno a risolvere specifici problemi, però non considerano i meccanismi e il modo in cui lo facciamo noi, che poi è quello che ci consente di essere delle “macchine” generali di risoluzione di problemi.
V.: Se fai ancora un esempio, io, le nostre lettrici e i nostri lettori siamo contenti.
A.: ChatGPT che riesce in vario modo a combinare e gestire il linguaggio naturale però non sono in grado di comprenderne il senso o l’autenticità, di percepire un ostacolo, di gestire attività motorie. Noi abbiamo un’unica architettura cognitiva che ci permette di fare tutte queste cose, magari prima una e poi un’altra, ma utilizzando sempre la stessa architettura. Invece questi sistemi utilizzano architetture intelligenti che sono diverse tra di loro e che non è possibile integrare, altrimenti avremmo già avuto una super intelligenza artificiale che invece non c’è.
V.: Questione di integrazione.
A.: Proprio così, il punto è l’integrazione, non a caso l’idea dell’approccio olistico viene proprio da Simon e Newell che sono stati i primi che hanno capito che se vogliamo avere un sistema generale artificiale in grado di svolgere gli stessi nostri compiti, utilizzando un unico tipo di architettura, dobbiamo considerare anche i limiti, nel nostro caso biologici, nel caso dei computer di risorse computazionali. E li dobbiamo considerare dall’inizio, già nel design, nella progettazione del sistema. Se non facciamo questo, abbiamo un sistema che fa benissimo la traduzione automatica, per esempio, ma fa solo quello, invece io penso che tutto questo andrebbe trasferito anche in altri ambiti. Naturalmente non ho nessuna ricetta pronta, però mi chiedo come si fa a diventare migliori sceneggiatori utilizzando l’intelligenza artificiale. Non lo so, magari nei prossimi 10 anni si saprà. Quello che intendo dire in buona sostanza è che va bene liberarsi dal peso di alcune cose, ma l’obiettivo vero dev’essere inventare modi per essere davvero creativi. Anche noi umani spesso ci siamo cullati nell’idea che ricombinare in maniera diversa cose vecchie producesse parole, concetti, contenuti, cose nuove.

ANDARE OLTRE
V.: Già, dare nomi nuove a cose vecchie non le fa diventare di per sé cose nuove. E invece diventa sempre più difficile resistere al fascino del «nuovismo», al dominio di modelli culturali nei quali l’aggettivo «nuovo» tende a perdere il proprio significato, a farsi indipendente dall’evento, dal fatto, dalla cosa a cui è associato, per diventare una promessa «a prescindere» di esiti, approdi, risultati migliori di quelli precedenti. Senza tener conto che in realtà la durata è un valore, ma ancora una volta è meglio restare sul punto.
A.: Aggiungerei che proprio perché abbiamo sistemi artificiali che fanno in maniera molto più veloce cose che una volta facevamo noi umani, dobbiamo completare l’opera mettendoci qualcosa in più, andare oltre ciò che è “facile”, naturalmente tra virgolette. Io sono convinto una integrazione basata sulla cooperazione tra umani-macchine sia possibile e cerco di dimostrarlo con la mia ricerca e il mio lavoro. Certo, tutto questo richiede, da parte nostra, un impegno maggiore, una capacità di astrazione maggiore, però ce la possiamo fare. Se ti ricordi a suo tempo tutta questa parte l’abbiamo fatta con Cordeschi e con te. Alla fine la mia impostazione filosofica è quella lì.
V.: Certo che mi ricordo. Mi ricordo anche che abbiamo continuato a lavorarci un pochino e a pensarci su anche dopo, ai tempi di NòvaLab su Il Sole 24 Ore. Comunque, nel mio piccolo, il mio lavoro di una vita dice che in ogni campo della conoscenza non possiamo fare a meno dell’interdisciplinarietà, della molteplicità dei punti di vista e delle prospettive, e così ancora una volta torniamo al punto: secondo te, alla voce “intelligenza artificiale”, che cosa dovrebbe accadere per fare in modo che la prospettiva alla quale lavori tu, quella “olistica”, possa uscire da questa condizione ultraminoritaria e diventare competitiva, giocare la partita con qualche possibilità di vincere.
Potrei dirlo anche in un altro modo: Come si a mettere in comunicazione comunicazione biologico e artificiale? Comunicare non solo su un piano tecnico ma anche di pensiero, mettendo insieme quello dove siamo più bravi noi umani e quello dove sono più brave le macchine.

ANCORA SU CHATGPT
Fammi tornare per un attimo a ChatGPT e al fatto che alla fine fa qualcosa che è molto vicino al copia e incolla. Ma cosa serve tutto questo? Va bene, a risparmiare tempo a fare prima, più in fretta. Ma più in fretta per fare cosa? Con quale senso? Perché? Come vedi torniamo sempre là. Invece di copiare non avrebbe più senso , come hai detto tu, creare, aggiungere valore? L’intelligenza artificiale che aggiunge valore all’intelligenza umana e viceversa?
Nella vita vera mentre corriamo appresso all’intelligenza artificiale non riusciamo neanche a fare la manutenzione predittiva ordinaria delle macchinette automatiche dei biglietti nelle stazioni. E a onta delle cose fantasmagoriche che già 40 anni fa si leggevano sulla telemedicina chi ha bisogno di un esame o di un intervento specialistico ospedaliero deve aspettare mesi e mesi, anche in caso di malattie molto gravi.
Questa relativa al rapporto tra scienza e società, non solo dal versante scienziato – scoperta, anche da quello consapevolezza – cittadino è un’altra questione decisiva. A cosa serve e a chi serve veramente la scienza se non sappiamo e non possiamo maneggiarla? E sia chiaro che anche qui non vale solo per una tecnologia del futuro come l’intelligenza artificiale, vale anche per una tecnologia che viene dal passato come il coltello, perché pure per maneggiare un coltello ci vuole consapevolezza. La consapevolezza che ci puoi tagliare il pane e che ti puoi anche tagliare un dito o persino ammazzare una persona. Funziona propria così. Alla voce intelligenza artificiale ci vuole di più consapevolezza perché sono maggiori le opportunità e dunque anche i rischi, ma vale anche per il coltello e il martello, che se lo batti sul chiodo fa quello che deve fare ma se lo batti sul dito fa male, non so se mi spiego.

ANTONIO RACCONTA IL SUO LAVORO
Detto questo, direi che è venuto il momento che ci racconti un po’ il tuo lavoro. Quello che fai ogni giorno nel campo della didattica e che quello che fai nell’ambito della ricerca scientifica. Insieme a quello che fai, anche un po’ delle risposte, dei feedback che ti vengono dal tuo lavoro.
A.: Va bene, comincerei dal fatto che sono arrivato qui, all’Università di Salerno, a Ottobre 2023, proveniente dall’Università di Torino, dipartimento di informatica.
A Dicembre ho fondato un laboratorio che si chiama “Laboratorio di Tecnologie Intelligenti, della Cognizione e dell’Interazione”, in inglese “Cognition, Interaction and Intelligent Technology” (CIIT Lab). Lo scopo di questo laboratorio è appunto creare, progettare, fare dei sistemi mettendo insieme diversi tipi di competenze, psicologiche, linguistiche, logiche, filosofiche e naturalmente informatiche, perché poi le cose bisogna farle, come dicevo prima bisogna far vedere che i sistemi che utilizzano questo approccio possono essere migliori degli altri.
Nella mia ricerca mi occupo sostanzialmente di sistemi che sono in grado di ragionare automaticamente, dunque basati su conoscenza e che fanno uso di logica, sistemi che possono essere sia interamente software che sistemi cablati all’interno di robot. La parte legata alla robotica è fatta principalmente in collaborazione con il gruppo di robotica cognitiva dell’ Istituto di Calcolo e Reti ad Alte Prestazioni (ICAR) del CNR di Palermo. È una collaborazione che ho già da più di 10 anni.
Perché è importante aggiungere questa parte cognitiva di più alto livello? Perché solitamente chi fa robotica si occupa più di problemi legati alla percezione. In primo luogo il robot deve mantenersi in piedi, non deve cadere, in pratica deve lottare con le leggi della fisica; però poi c’è anche la parte relativa al dialogo, all’interazione, al ragionamento, che va integrata.
Questo è interessante perché una parola chiave dell’approccio olistico, quello che porto avanti anche io, è proprio integrazione. Per integrare più facoltà, tipo un robot che deve fare più cose, c’è bisogno di studiare quelle che sono le architetture cognitive, cioè delle varianti software, diciamo così, che in parte provano ad emulare il funzionamento del nostro cervello, della nostra mente, che magari sono sub-ottimali su alcuni compiti specifici, però complessivamente riescono a portare avanti diversi tipi di attività come facciamo noi esseri intelligenti biologici, non solo gli esseri umani ma anche altre specie intelligenti, dai bonobo, ai polpi, ai delfini. Ci sono diverse specie che dal punto di vista dell’etologia riescono a risolvere dei problemi e mostrano un grado di intelligenza che altre specie animali non hanno.
Dal punto di vista della didattica a Torino ero a Informatica, dove insegnavo intelligenza artificiale sia al dottorato che alla specialistica. Intelligenza artificiale a dei tecnici; in pratica spiegavo sia la parte tecnica che la parte epistemologica, la cosa che dicevi tu, filosofica, che rappresentava il background che a loro mancava completamente. E qui alla voce feedback delle diverse classi posso dirti che per loro è stato molto utile; per avere un’idea più complessiva di quello che fanno, di quello su cui lavoreranno nelle aziende che li assumeranno, hanno bisogno anche di questo tipo di formazione.
Qui a Salerno, dove sono incardinato come professore di Informatica anche se insegno in un dipartimento umanistico, Scienze della Comunicazione, sto seguendo nella sostanza lo stesso tipo di approccio: anche qui devono imparare anche la parte informatica, non ne possono fare a meno. L’idea in fondo è la stessa sulla quale sono stato formato anche io, l’idea di Cordeschi, di formare scienzati cognitivi cibernetici. Ho cominciato come ti dicevo ad Ottobre, vediamo come va, ma è questo che sto facendo, formare scienziati che hanno competenze sia in ambito cognitivo che informatico.
Alla fine io sono questo animale un po’ strano che nasce dalla visione cibernetica di Cordeschi, infatti ho fatto corsi tecnici, corsi più filosofici, corsi sull’organizzazione e la decisione. Poi naturalmente nella mia carriera ho dovuto ristudiare tutto daccapo, sono dovuto diventare un informatico, uno che realizza le cose che studia e di cui parla e scrive. Però avere questo tipo di background mi ha aiutato sia nella ricerca che nella parte di proposta didattica. Come ti dicevo quello che cerco di fare è formare degli umanisti digitali, persone che hanno un background umanistico però sono anche in grado sia di capire come funzionano le diverse tecniche e i diversi paradigmi di intelligenza artificiale sia di usarli, alla fine del percorso. Chi magari continua sarà anche capace di progettare qualche programma che è in grado di risolvere qualche tipo di problema che ha sempre qualche connessione con i processi decisionali, la parte cognitiva, ecc.
Devo dire che anche qui fino ad ora i feedback sono stati abbastanza positivi, anche se sono relativi dato il poco tempo a disposizione. Tra l’altro adesso bisognerà cambiare un po’ le cose, non sono più i tempi di quando insegnava Cordeschi, bisogna dare a chi studia più competenze dal versante dell’analisi e dello studio della comprensione delle tecnologie digitali. Non basta più essere in grado di usarle, devono essere anche in grado di progettarle. Sapendo che loro, a differenza di un tecnico, possono utilizzare anche quella parte di background più umanistica o comunque più legata al mondo delle scienze cognitive. Tutte cose molto importanti per progettare sistemi davvero intelligenti, sistemi in grado di aiutarci, di cooperare con noi umani in un contesto interattivo.
La società ibrida è la società in cui già siamo e quella verso la quale andremo sempre di più, la società fatta di sistemi misti persone-automi. Per essere non soltanto consumatori ma anche utenti consapevoli e progettisti, bisogna sapere come funzionano queste tecnologie, perché sapere come funzionano permette poi di intervenire su ciò che non ci piace come funziona e ci permette di avere più consapevolezza e più potere rispetto al mondo in cui viviamo.

DA MAESTRO AD ALLIEVO
V.: In un piccolo articolo che ho intitolato “Appunti per una Didattica Artigiana” quelli che tu chiami utenti consapevoli e progettisti li ho definiti autori. L’idea che mi sono fatto io, sempre in quanto nano sulle spalle dei giganti, è che ogni corso è un racconto, ogni classe un’organizzazione che apprende e ogni studente è un autore. Qui per la verità si aprirebbe un altro capitolo molto lungo sulla questione educativa, su come anche le donne e gli uomini che fanno altro, che non frequentano i tuoi corsi, i cittadini, le persone normali, possano acquisire gli strumenti per sviluppare un proprio livello di consapevolezza e una propria capacità di usare e progettare la tecnologia. E ti dico subito che per quanto mi riguarda il prossimo anno vorrei seguire un tuo corso. Non so se ci riesco, l’età e la logistica non mi aiutano, ma l’idea mi affascina non solo dal punto di vista narrativo, il vecchio professore che va che diventa studente del suo ex studente, ma anche, direi soprattutto, da quello delle conoscenze e delle competenze che potrei acquisire e che sicuramente mi permetterebbeo di fare meglio quello che già faccio e di fare più cose nuove.
A.: Per me sarà un piacere. E ti dico che anche se i ragazzi all’inizio sono presi da un poco, talvolta parecchia, ansia, perché devono imparare cose tecniche come per esempio Python, con il tempo si appassionano, diventano consapevoli dell’importanza, per loro, di maneggiare conoscenze e competenze di questo tipo, di averle nella loro cassetta degli attrezzi. Per questo ho istituito anche un corso in cui alla fine devono fare un progetto, devono sviluppare qualche cosa. In questo senso direi che sono, come dicevi tu, autori, nel caso specifico autori di un software. Ovviamente di norma ci mettono più tempo di quello che ci mette un informatico, però quest’ultimo ha più difficoltà nella parte teorica, nell’approccio olistico. Alla fine non ci sono grosse differenze nel grado di difficoltà, sono piuttosto difficoltà su aspetti diversi e che però sono comunque colmabili. Vale in ogni campo, dalla fisica alla biologia alla filosofia, se decidi ti metti, studi, ti applichi e raggiungi l’obiettivo. Ci puoi mettere più o meno tempo, ma lo fai. Questa spinta all’ipersettorialità è fuorviante, in realtà possiamo fare tutto, naturalmente a partire da quello che ci piace fare.
A proposito, ultimamente è successa una cosa curiosa che ancora non ti ho detto. Ti ricordi che ci facesti studiare George Siemens?
V.: Certo che mi ricordo. Il connettivismo è un altro filone di ricerca molto interessante, ha parecchio a che fare con le cose di cui stiamo discutendo.
A.: Infatti, ultimamente ha citato il mio libro, “Cognitive Design for Artificial Minds” in cui parlo, in modo più tecnico, di alcune delle cose di cui abbiamo discusso. È stato bellissimo.
V. Che bella cosa, ma del resto tu sei speciale, mi dispiace solo che Cordeschi non c’è più, sai come sarebbe stato contento nel vedere quello che pensi e che fai.

ROBERTO CORDESCHI
A.: Già. Comunque a ottobre organizzo una giornata in suo onore nel decimo anniversario della scomparsa. Lui è stato, è, con la sua opera, davvero un grande. Pensa che recentemente c’è stata l’assemblea nazionale dell’associazione dell’intelligenza artificiale (AI*IA) dove, in un intervento ad invito tenuto dalla Prof. Luigina Carlucci Aiello, sì è fatta un po’ la storia della disciplina in Italia e Cordeschi c’era. Era citato lì, in prima linea.
Lui è stato uno che da filosofo cibernetico ha avuto un grosso impatto sulla comunità scientifica (anzi sulle comunità scientifiche di molti settori diversi). Io stesso devo tanto a lui e al percorso che ho fatto con lui. Il concetto di comunicazione che aveva in testa lui era proprio comunicazione in senso cibernetico. La parola cibernetica sta per controllo e comunicazione negli animali e nelle macchine. L’idea era proprio comunicazione non soltanto tra esseri umani (dove si doveva studiare sintassi, semantica, etc.) ma anche tra esseri umani e macchine e atra macchine e macchine. Questo vuol dire fare un percorso dove dalla semantica dei linguaggi naturali poi vai alla semantica dei linguaggi formali e con la semantica dei linguaggi formali puoi far comunicare macchine diverse, persone e macchine, ecc. Questa era la sua idea di scienze della comunicazione, che nasce proprio come un filone della cibernetica. Ha avuto un’idea fantastica; lo ripeto, se non ci fosse stato lui, non avrei potuto prendere la strada che ho preso, non avrei avuto le conoscenze che servono per fare il percorso che ho fatto.
V.: Su Cordeschi ho anche io un piccolo aneddoto da raccontare, riguarda l’uomo non il cibernetico, su quello non sono in grado di dire, ma mi fa piacere ricordarlo.
Il mio primo anno a Salerno è stato il 2002 – 2003, da voi a Scienze della Comunicazione, a Sociologia sono passato l’anno dopo, o forse due, adesso non ricordo. Presentai la domanda come professore a contratto di sociologia industriale, poi a sociologia ho insegnato sociologia dell’organizzazione, e prima di mettere mano, come direbbe mio padre, il mio maestro, il professor Casillo, mi portò a parlare con lui. Non ti nascondo che nonostante l’età e l’esperienza ero emozionato, ma lui fu gentilissimo, mi disse che per qualunque cosa avrei potuto contare su di lui, e quando ci stringemmo la mano per salutarci fu quasi come se fossimo amici, tutto cose semplici, eppure tutte cose belle, e soprattutto non scontate. Naturalmente aiutò anche il rapporto di stima e amicizia che c’era tra lui e Casillo, ma era fatto proprio così, come direbbe Totò faceva parte degli uomini non dei caporali, che ce n’erano tanti anche 20 anni fa.

RACCONTACI UN PO’ DI TE, CARO PROF.
V.:Direi che a questo punto bisogna che ci racconti qualcosa di te, sei pronto?
A.: Pronto. Sono sposato con Paola e abbiamo una figlia, Francesca, di 4 anni. Mi piace molto l’atletica leggera, la pallanuoto, che ho praticato a livello nazionale giovanile con il Volturno, che al tempo era una squadra molto competitiva, contendeva lo scudetto al Posillipo, non so se mi spiego. Comunque seguo molto la pallanuoto. Poi mi piacciono le moto, in particolare le Moto GP, sono stato un fan di Valentino Rossi. A livello calcistico tifo per il Napoli ma non sono un tifoso sfegatato, diciamo un tifoso tranquillo, in generale il calcio mi prende sempre di meno.
Ancora. Pur non essendo un esperto d’arte ho un pittore preferito, Caravaggio. La sua maestria tra luci e ombre mi affascina moltissimo. A Torino quando c’era una sua mostra andavo sempre, adesso qui a Napoli ci sono tante cose sue molto belle, le ho viste quasi tutte ma quando posso vado volentieri a rivederle.
V.: Luci e ombre è un poco come zero e uno.
A.: Sì, è un poco come zero e uno, esatto. Però penso che un Caravaggio artificiale sia assai difficile da immaginare (ride, ndr.). Si può fare la copia, non di più. Inventarsi uno stile come ha fatto lui è una cosa propria dell’umano, della creatività umana.
Avrei anche un film da segnalare, forse non è quello che mi è piaciuto di più, però è quello che più mi ha colpito. È un film di Kathryn Bigelow, del 2012, si intitola Zero Dark Thirty, racconta la cattura di Osama Bin Laden. Viene fuori la strategia dell’Intelligence, la sua organizzazione ma anche la disorganizzazione, e questo è interessante. Alla fine riescono a prendere Bin Laden soltanto per l’intuito di una donna, una singola agente osteggiata da tutti, colleghi e capi. Il fiuto, la serendipity, l’ostinazione di una donna nel seguire la sua pista che batte gli algoritmi e il sistema di comando della CIA, anche questo mi sembra un punto sul quale riflettere.

V. Ottimo Antonio, direi che ci possiamo fermare qui, a beneficio delle nostre lettrici e dei nostri lettori aggiungo solo una tua breve bio e qualche link, compreso quello relativo alla storia che ho raccontato qualche tempo fa di Luigi Congedo, un giovane imprenditore seriale, come si definisce lui, penso che può incuriosire anche te.

UNA BREVE BIO
Antonio Lieto è Professore Associato di Informatica presso l’Università di Salerno (DISPC), e Ricercatore associato presso l’ICAR-CNR (Istituto di Calcolo e Reti ad Alte Prestazioni) di Palermo. È, da gennaio 2024, membro del direttivo scientifico dell’Associazione Italiana per l’Intelligenza Artificiale (AI*IA) ed è stato Vice-Presidente dell’Associazione Italiana di Scienze Cognitive (AISC, 2017-2022) e vincitore del premio “Outstanding BICA Research Award” dalla Biologically Inspired Cognitive Architecture Society (USA). Dal 2020 è stato nominato ACM Distinguished Speaker sui temi di Intelligenza Artificiale di ispirazione cognitiva.
In precedenza (2012-2023), è stato ricercatore senior e junior (RTDB/RTDA), assegnista e borsista di ricerca post-doc in Informatica presso il Dipartimento di Informatica dell’Università di Torino. È stato anche (2016-2017) “Research Associate” e consulente scientifico presso il MEPhI (National Research Nuclear University, Moscow, Russia) e “Visiting Researcher” presso l’Università di Haifa (Israele, Department of Management of Information Systems), la Carnegie Mellon University (USA, School of Computer Science & Dept. of Psychology) e la Lund University (Svezia, Department of Cognitive Science).
Ha svolto incarichi di insegnamento su temi di logica, intelligenza artificiale, ragionamento automatico, sistemi basati su conoscenza e sistemi cognitivi artificiali presso l’Università di Torino, l’Università di Genova e la Open University of Cyprus (Cipro).
I suoi interessi di ricerca sono all’intersezione di Intelligenza Artificiale, Scienze Cognitive e Interazione-Uomo Macchina (HCI) e si focalizzano sulle seguenti aree: Rappresentazione della Conoscenza e Ragionamento Automatico, Ragionamento di senso comune, Tecnologie Semantiche e del Linguaggio, Sistemi e Architetture Cognitive per agenti interattivi (inclusi robot), Tecnologie Persuasive.
Su questi temi ha pubblicato oltre 100 articoli scientifici peer-reviewed in riviste, libri e conferenze internazionali. Ha inoltre pubblicato il libro “Cognitive Design for Artificial Minds” (2021) edito da Routledge/Taylor & Francis e inserito – dalla piattaforma Book Authority – nella lista dei 20 migliori libri di sempre nel settore della progettazione di sistemi intelligenti.
Dal 2015 è un membro dell’ “IEEE Technical Committee on Cognitive Robotics”. È regolarmente membro del comitato di programma delle principali conferenze internazionali di Intelligenza Artificiale, Scienze Cognitive computazionali e HCI (es. IJCAI, ECAI, AAAI, COGSCI, ACL, AAMAS, UMAP).

LEGGI ANCHE
Sono solo parole ChatGPT: anatomia e raccomandazioni per l’uso
Luigi Congedo, l’Intelligenza Artificiale e Data Masters

  • Marcello Ravesi |

    Chapeau! 🙂

  • Vincenzo Moretti |

    Grazie per la precisazione Marcello Ravesi, ho inserito i link e corretto gli errori, che c’erano. Non ero risalito alla fonte originale e mi ero fidato di una traduzione, e quando si sbaglia la cosa più giusta da fare è riconoscerlo e, nei limiti del possibile, porre rimedio.

  • Marcello Ravesi |

    Ho letto e apprezzato l’articolo di Chomsky (che, peraltro, è un editoriale, non un’intervista: cfr. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html). Tuttavia, non capisco perché chiunque in rete vi faccia riferimento riporti il brano “Smettiamola di chiamarla […] nativi americani.” come se fossero parole di Chomsky: nell’articolo questo passo non c’è!

  Post Precedente
Post Successivo