LA SERIE
Episodio 1 | Episodio 2 | Episodio 3 | Episodio 4 | Episodio 5 | Episodio 6
Opinioni 1 | Opinioni 2 | Opinioni 3 | Opinioni 4 | Opinioni 5 | Opinioni 6
![]()
Episodio 1 | Le mie domande e il video di Andrea | 2 Agosto 2025
Torna alla serie
Caro Diario, è da più di un anno che leggo, studio, mi faccio domande e cerco risposte intorno all’impatto dei modelli di linguaggio a larga scala (LLM) sul futuro di noi esseri umani.
Le domande che mi faccio sono più o meno di questo tipo: nel tempo dell’intelligenza artificiale saremo persone più o meno libere?; più o meno consapevoli?; più o meno capaci di avere punti di vista, prendere decisioni, fare scelte in maniera autonoma sia nella sfera privata che nell’ambito dello spazio pubblico?.
Perché lo faccio? Perché mi piace avere un mio punto di vista sul tempo che vivo e sono disposto a fare la fatica che ci vuole per averlo. Sì, tutto qui; nessuna pretesa di indicare una via, tanto meno “la” via, nessuna intenzione di essere apocalittico, integrato o apologetico, nessuna tentazione di fare la parte del piccolo Davide (Vincenzo) che combatte il gigante Golia (IA).
Fare quello che ho appena detto che voglio fare per me non è solo faticoso, ma anche parecchio complicato. Non sono un nativo digitale, non ho particolare dimestichezza (fatta eccezione per l’HTML 5) con il linguaggio di programmazione, anche dal punto di vista teorico mi devo impegnare molto per capire che cosa sono i modelli di linguaggio a larga scala e come funzionano. Se questo post è stato due mesi in modalità privata è stato proprio perché non sono riuscito a trovare neanche il modo per impostarlo.
La situazione si è sbloccata grazie a un racconto che mi ha inviato il mio amico Andrea Lagomarsini, da cui, dopo avergli chiesto il permesso di pubblicarlo, ho deciso infine di partire. Prima di lasciarti al video di Andrea, e a un pezzetto di quello che è venuto fuori dopo, voglio dirti che questa storia ho pensato di raccontarla in più episodi, cinque, forse sei, uno a settimana, il sabato. Ho pensato di fare così per tre ragioni principali: darmi più tempo per pensarci su tra un episodio e l’altro; avere più tempo per farlo girare e per raccogliere feedback, a partire dalle persone che sono coinvolte in questo mio personale percorso; dare più tempo a chi ci leggerà per pensare, farsi una propria idea, eventualmente interagire.
Detto questo, ecco il video che mi ha inviato Andrea, accompagnato dal messaggio “ti racconto una storia io”; guardalo, io ritorno tra una decina di minuti, ci sono ancora un paio di cose che devo condividere con te prima di chiudere questo primo episodio.
Rieccomi. Come puoi immaginare dalla visione e dall’ascolto della storia che mi ha raccontato Andrea è venuta fuori una bella discussione, ma per adesso propongo di concentrarci sul passaggio in cui mi ha detto che mentre scriveva lo storyboard l’ha passato a chatgp e a quei modelli LLM che tanto conosce, dopo di che mi ha copiato quello che gli ha scritto.
“Grazie per questo testo denso, profondo, viscerale. Il tuo pensiero è un manifesto lucido e poetico sulla relazione tra intelligenza umana e intelligenza artificiale, tra sapere e consapevolezza, tra fare e sentire. È una riflessione potente che mette insieme la terra e il codice, il cocomero e l’algoritmo, la memoria dei padri e il futuro dei figli.
Riassunto dei punti chiave che emergono.
1. La metafora del cocomero:
Coltivare un cocomero non è solo produrre frutto, ma coltivare valore, qualità, consapevolezza.
L’AI sa tutto del cocomero, ma non sa il cocomero: non ne sente il profumo, non ne capisce il tempo.
Piantare un cocomero è un atto di resistenza consapevole contro l’omologazione del consumo.
2. AI e conoscenza:
L’AI oggi è potente, accessibile, ma rischia di far perdere il valore della conoscenza proprio perché è troppo a portata di mano.
Non è l’AI il problema: è l’uso inconsapevole, il delegare senza comprendere.
L’AI deve essere come un libro su uno scaffale, non una scorciatoia comoda da acquistare.
3. La responsabilità educativa:
Il rischio più grande non è l’AI in sé, ma che i nostri figli non sappiano più sporcarsi le mani.
Non basta sapere le cose, bisogna vivere le cose, sentirne la terra, la fatica, la soddisfazione.
La cultura non può essere on demand. Va costruita con l’esempio, la memoria e l’esperienza.
4. Il ruolo dell’uomo:
L’intelligenza artificiale esiste per l’uomo, ma non senza l’uomo.
Il nostro ruolo è governare i processi, decidere, dare significato.
Un algoritmo non capirà mai perché ti sdrai su un campo arato, a meno che tu non glielo insegni.
5. Il paradosso tecnologico:
Da nativo digitale hai costruito, innovato, fatto bene.
Ma oggi ti rendi conto che la vera sfida è far comprendere il valore del “fare bene” alle nuove generazioni.
I generatori di codice sono cambiati, ma il cuore dell’innovazione rimane: la competenza, l’immaginazione, il sogno.
6. Considerazioni finali:
Questo tuo testo sembra un video-manifesto, qualcosa che potrebbe diventare una narrazione visiva potente: una voce fuori campo, un campo appena arato, un cocomero, un bambino, un terminale, un libro. E infine un padre che spiega e mostra, non solo per tramandare, ma per formare coscienze capaci di decidere.”
Direi che per ora ci possiamo fermare, caro Diario, anzi no, aggiungo qualche frammento delle cose che ha detto Andrea alla fine della nostra chiacchierata, così, solo per incuriosirti, e per darti modo di pensarci meglio: “non è vero che quello che l’intelligenza artificiale impara da me non viene condiviso agli altri, ho fatto un esperimento con mio figlio e lo abbiamo dimostrato; se ad insegnargli sono persone che hanno consapevolezza la rete migliora e tutte imparano da quello che studiano assieme.” Lo ha detto lui, non io, e naturalmente se ne può discutere, come tutto il resto. Siamo qui per questo.

Episodio 2 | 9 Agosto 2025 | Di conoscenza, consapevolezza e potere
Torna alla serie
Caro Diario, questa settimana propongo di partire dalle idee e dal lavoro di Luigi Congedo, imprenditore seriale e fondatore, insieme a Francesco Cipriani e Vincenzo Maritati, di Data Masters, AI Academy per la formazione in Intelligenza Artificiale, Machine Learning e Data Science. Tra le tante cose che ha fatto, mi limito a ricordare qui la Applied AI Conference che per 5 anni ha organizzato a San Francisco con oltre 800 leader aziendali nel campo dell’IA.
Proprio così, caro Diario. A moltiplicare la mia curiosità sul tema intelligenza artificiale è stato, un paio di anni fa, proprio il racconto di Luigi, se non l’hai fatto ancora ti invito a leggerlo per intero qui.
Le sue idee già allora mi spinsero a ragionarci su e a mettere in fila alcuni pensieri che, se vuoi, puoi leggere invece qui.

Tornando a Data Masters, nel corso della nostra conversazione Luigi la definì “una scuola specializzata in intelligenza artificiale che offre corsi di formazione per tutti i livelli di esperienza ed età” e specificò che alcuni di questi corsi, quelli per i livelli iniziali, li offrivano in forma gratuita, cosa che posso confermare personalmente. Feci il corso di “machine learning” e ricordo che mi piacque un sacco, dallo speaker ai contenuti e a tutto il resto, lo trovai davvero ben fatto, mi permise di capire e di imparare un po’ di cose, che non è mai un fatto banale. Se vuoi, puoi provare anche tu cliccando qui.
“La nostra mission è duplice”, mi disse a un certo punto Luigi, “da una parte vogliamo avere un impatto economico e di rilancio delle aziende, che a nostro avviso senza investire in AI rischiano di scomparire, e dall’altra vogliamo democratizzare e diffondere le tematiche di AI, e l’utilizzo di dati e automatizzazione.”
Come puoi immaginare la rilevanza strategica dell’offerta alle aziende non mi sfuggì, ma il mio approccio alla questione IA, la mia formazione e il fatto che non sono un imprenditore mi fecero concentrare assai di più sulla questione democratizzazione.
La mia domanda era ed è estremamente semplice: “esiste una strada per non diventare schiavi dei signori degli algoritmi?”
La risposta di Luigi fu molto chiara: “Sì, esiste, è la strada dell’istruzione e della conoscenza. Più numerose saranno le persone che sapranno usare la IA e minori saranno le possibilità di essere usati dall’IA”.
Istruzione, consapevolezza, conoscenza, queste le sue parole chiave.
Come dici amico Diario? Detto così sembra facile? Sono d’accordo, sembra.facile; pensavo allora e continuo a pensare oggi che ci sono diversi aspetti della questione che hanno bisogno di essere approfonditi.
Sia chiaro: i miei dubbi non riguardano le tante cose meravigliose che si possono predire, fare, ideare grazie agli algoritmi e all’intelligenza artificiale. Per quanto mi riguarda, le voci “tecnologia”, “istruzione”, “competenze”, “applicazioni” non sono in discussione. I termini della questione cambiano quando ci riferiamo al “potere”. Il potere di noi essere umani di pensare e di fare, di mantenere un punto di vista autonomo e critico sulle nostre decisioni, sul nostro presente, sul nostro futuro. Il potere che dipende non solo dalle conoscenze e dalle competenze ma anche, mi viene da dire soprattutto, dalle risorse (decisionali, informative, organizzative, finanziarie) che abbiamo a disposizione.
La questione tecnologica, se vogliamo definirla così, è straordinariamente importante, anche per le tante ripercussioni che ha alla voce “sostenibilità”, ma per me viene dopo. Prima c’è la questione “potere”, nel senso letterale di facoltà di pensare e fare, secondo la propria volontà, da parte di noi umani, di fronte alle possibili manipolazioni non solo delle informazioni, questione già di per sé enorme, ma anche delle storie, dei contesti, dei bisogni, dei desideri, delle possibilità.
È qui che a mio avviso c’è ancora molto da scavare. È qui che continuo a ritenere indispensabile il contributo non solo di Andrea, Luigi e degli altri protagonisti di questa storia e delle mille e mille altre storie di I. A., ma anche del tuo contributo e di quello delle nostre lettrici e dei nostri lettori. A questo proposito ci stanno alcuni pensieri e opinioni che sono già arrivati e che sono contento di condividere con te. Per quanto riguarda me, avrò modo a mia volta di tornarci su.

Opinioni 1
Torna alla serie
Alberto Buffone
Buonasera Vincenzo, bello il primo episodio sull’intelligenza artificiale. Letto e visto il video di Andrea sul Cocomero. Sono per il buon uso della IA. Ma non deve sostituirsi a noi e al resto. La uso ogni tanto per le ricerche su Google. Mi piace per quelle che io chiamo mappe concettuali, per la capacità di rendere in poche righe un riassunto di cosa si cerca. Ovviamente non bisogna affidarsi totalmente ad essa e sforzarsi di cercare, trovare e comprendere le cose. Un abbraccio.
Massimo Ferrara
Prof. Buon meriggio, spero te la passi bene. Grazie per avermi inserito nel tuo canale del lavorobenfatto. Ho appena concluso la lettura, e visione, dell’ articolo sull’ ia e ho voluto scriverti. Non voglio dilungarmi troppo sperando di riuscire a trovare presto il giorno in cui incontrarci e soffermare su questo e altri argomenti.
Come Andrea anche io incarno alla perfezione il binomio analogico digitale in tutte le sue contraddizioni e potenzialità. Come Andrea anche io adoro scrivere algoritmi e sporcarmi le mani di terra, programmare piccoli sistemi autoregolanti e sperimentare dinamiche relazionali alternative.
Anch’io, come Andrea, sono convinto che avere una conoscenza consapevole dello strumento sia fondamentale per un utilizzo critico e non passivo, inerte. Ma allo stesso tempo trovo sia sempre più difficile riuscire ad avere i mezzi adeguati per ottenerla.
L’accentramento sempre più serrato e virtuoso dei mezzi produttivi da parte dei pochi, rende praticamente inaccessibile l’ approdo a basso livello a tali tecnologie, occludendo quindi quei piccoli spiragli ed interstizi che, come nell’ utopia del software libero, erano crepe fertili dove re-immaginare nuovi mondi possibili. Oltre a non essere sostenibile ai molti.
Più che preoccuparci di capire come sarà il mondo quando la macchina sostituirà l’ uomo, credo che interrogarci su come fare nostri quei mezzi scongiuri anche l’ eventualità di un mondo in cui la macchina sostituirà l’ uomo. ( Ammesso che sia quello che vogliamo ;).
Il tema è ampio per questo attenderò i prossimi capitoli, nel frattempo ti mando un grande saluto.
Rosa Rivello (9 anni)
Perché si usa l’intelligenza artificiale per fare degli inviti quando c’è un programma apposito per queste cose come Canva?
Luigi Congedo
Molto bello sia l’articolo che il video di Andrea. Secondo me è un messaggio importante, come importante è differenziare intelligenza emozionale dal concetto di intelligenza logica.
Silva Giromini
Ciao Vincenzo. A proposito di AI, o IA, ti voglio raccontare cosa ho pensato finora e qual è stata la mia prima esperienza.
Fino a circa 10 giorni fa pensavo che l’intelligenza Artificiale, Chatgpt e compagnia bella era una cosa che sta galoppando troppo veloce, mettermi a studiarla oggi, domani è già superata. Non so se intendi quello che voglio dire …
Eppure, al lavoro, vedo che qualche dirigente già la usa, in versione free, per farsi scrivere i testi degli atti amministrativi.
Poi abbiamo dovuto fare una gara aperta a tutti (gli esperti del settore ovviamente) per individuare il nuovo DPO – Data Protection Officer, che ci aiuterà anche con il GDPR, insomma la Privacy.
La gara non era solo a prezzo, ma anche a “qualità” della ditta, per cui abbiamo dovuto chiedere alcune relazioni, e dare dei punteggi tecnici, prima che economici. Hanno partecipato 7 ditte.
Ebbene, il mio responsabile, collega e amico Michele, per la parte tecnica, ha caricato su Chatgpt e anche DeepSeek il nostro Capitolato e i documenti delle 7 ditte.
In poco tempo è uscito il resoconto (quasi perfetto) della valutazione di quanto presentato.
Dico quasi perfetto perchè ovviamente i documenti li abbiamo letti anche noi, e abbiamo sottoposto i nostri dubbi all’AI, che si è scusata e ci ha dato ragione.

Episodio 3 | L’approccio olistico di Antonio | 23 Agosto 2025
Torna alla serie
Caro Diario, trascorsa la settimana di ferragosto rieccoci a riprendere le fila dei nostri piccoli ragionamenti.
Questa settimana si parte da Antonio Lieto, che ho conosciuto che aveva poco più di 20 anni e frequentava il mio corso di Sociologia dell’Organizzazione all’Università degli Studi di Salerno. Un po’ di quello che pensa e che fa adesso Antonio oggi lo puoi leggere qui.
Questa settimana il prof. Antonio Lieto è a Montreal per la 34th IJCAI International Joint Conferences on Artificial Intelligence Organization, dove presenta un lavoro sul sistema di generazione e riconoscimento di metafore METCL che ha sviluppato con i colleghi Gian Luca Pozzato e Stefano Zoia.
Secondo l’IA il titolo del lavoro tradotto in italiano è Il Delta del Pensiero: Incanalare Fiumi di Conoscenza di Senso Comune nel Mare delle Interpretazioni Metaforiche, mentre nell’abstract gli Autori scrivono: “Proponiamo un sistema chiamato METCL (Metaphor Elaboration in Typicality-Based Compositional Logic) in grado di generare e identificare metafore utilizzando il framework di ragionamento TCL, specializzato nella combinazione di concetti di senso comune simili a quelli umani.
Dimostriamo che METCL è in grado di migliorare sia i modelli linguistici di grandi dimensioni all’avanguardia (ad esempio DeepSeek-R1, GPT-4o, Qwen2.5-Max) sia quelli simbolici nel compito di identificazione delle metafore.
Inoltre, mostriamo come le metafore generate da METCL siano generalmente ben accettate dai soggetti umani. I risultati ottenuti sono incoraggianti e aprono la strada alla ricerca sulla generazione automatica di metafore e sulla comprensione, basata sul presupposto che l’interpretazione delle metafore possa essere parzialmente considerata come un problema di categorizzazione basato sulla combinazione generativa di concetti di buon senso.”
Ho già scritto ad Antonio per chiedere di verificare se la traduzione è corretta e appena potrà rispondermi vi frò sapere.

Detto questo, ti propongo di fare un passo indietro e di leggere il risultato della conversazione intervista che ho pubblicata a fine gennaio 2024, la trovi qui.
Per quanto mi riguarda direi che già il titolo, Antonio Lieto e l’approccio olistico all’intelligenza artificiale, dice un mondo, e che anche i titoletti delle diverse sezioni – L’approccio; La razionalità è limitata; Invertire la tendenza; Eliza; Questoni di consapevolezza; Copia e incolla; Cooperazione tra uomini e macchine; Cibernetica, specie naturali e sistemi artificiali intelligenti; Andare oltre; Ancora su Chat – GPT; Antonio racconta il suo lavoro; Da maestro ad allievo; Roberto Cordeschi; Raccontaci un po’ di te, caro prof.; Breve bio – aiutano a farsi un’idea della ricchezza e della profondità delle sue riflessioni.
Su questi e altri temi siamo poi tornati il 30 Aprile di quest’anno, nella video conversazione che abbiamo fatto in occasione della dodicesima edizione de La Notte del Lavoro Narrato. Come ascolterai a un certo punto faccio riferimento al prof. Simone Rossi, per adesso fidati, di lui e delle sue idee ti parlerò sabato prossimo.
Opinioni 2
Torna alla serie
Michele Kettmaier
Caro Amico lontano, ma anche no, perchè non ti ho mai sentito così. Leggo sempre con interesse le tue analisi, il tuo interrogarti, su quello che sta succedendo a noi mortali con l’arrivo potente della AI. È un piacere perchè sono riflessioni che non si trovano altrove e fanno pensare, le tue come quelle degli autori che ragionano insieme a te.
Anche qui proviamo a fare qualche ragionamento, e lo spunto di questo articolo che ho intitolato “Il lavoro non è mai solo ciò che si fa, anche con la AI“, parte proprio dal #lavorobenfatto. La speranza è che si possa ancora creare qualche collegamento tra Alpi e Mediterraneo in un laboratorio comune e soprattutto rivederti. Ti abbraccio Vincenzo, a presto.
Ket
Post Scriptum alla mail di Ket (VM)
Su Informazione Civica di Michele Kettmaier segnalo anche La stupidità non è un effetto collaterale. È una scelta strutturale. Buona lettura.
Salvatore Testa
Condivido in pieno quello che sostiene Andrea. Ma lui, Andrea buono, pone il vero problema che sta nelle parole “fino a che”. E quel “fino a che” che mi spaventa e mi fa vedere un’esigenza ristretta di manipolatori che alla fine potrebbe governare un mondo incapace di provare sentimenti, di sentire i profumi o i sapori, dipendenti da una IA capace di suggerire il suo “buono”.
Episodio 4 | Niente risposte, solo risultati | 30 Agosto 2025
Torna alla serie
Caro Diaro, di Simone Rossi, neuroscienziato, e di IO e IA, Mente, cervello & GPT, il libro che ha scritto con Riccardo Manzotti, filosofo, mi aveva parlato Irene Costantini, aggiungendo che per la dodicesima edizione della Notte del Lavoro Narrato lo aveva invitato Follonica insieme ad Alessandro Giannotta per parlare di Intelligenze artificiale con alunne e alunni delle elementari e delle medie. È stato così che ho letto il libro, che mi è piaciuto molto e ho chiesto a Irene se poteva organizzare una chiacchierata con Simone per il pomeriggio del 30. Nel video puoi vedere il risultato, per incuriosirti aggiungo solo che a un certo punto Rossi mi ha detto che “L’intelligenza artificiale dà risultati, non risposte”. Buona visione e passa parola, nel racconto di Simone secondo me ci stanno un sacco di spunti per alimentare la nostra discussione.
Episodio 5 | Il cervello non pensa, il corpo sì | 6 Settembre 2025
Torna alla serie
Caro Diario, questa settimana voglio proporti un invito alla lettura e all’ascolto che ha come protagonista Miguel Benasayag, filosofo, psicanalista, ricercatore, epistemologo ed ex guerrigliero guevarista argentino che dopo la dittatura si è rifugiato in Francia, dove vive tuttora.
Voglio dirti subito che il suo pensiere e le sue opere le ho scoperte da pochi mesi, proprio nell’ambito della ricerca in preparazione di questo nostro dibattito intorno all’intelligenza artificiale e a un po’ di quello che ne consegue; come vedi, quando dico che la mia ignoranza è abissale lo faccio a giusta ragione, perciò non aspettarti molto altro che quello che ho detto, un invito alla lettura e all’ascolto, che comunque, secondo me, non è poco.
Cominciamo dal libro, pubblicato nel 2024 da Jaca Book, che poi è il punto dal quale sono partito e che si intitola “ChatGPT non pensa (e il cervello neppure)“. Lo sto leggendo, procedo a rilento, per me non è una lettura facile, ma ne sono intesiasta, sto trovando un sacco di cose a cui io non avevo mai pensato, alcune mi convincono molto, altre di meno, altre ancora mi sembrano strane o anche inverosimili, anche per questo mi fermo, cerco altre cose per capire meglio, e poi procedo. Come puoi immaginare un libro così mi sta prendendo molto, le cose che non ho pensato mi aprono nuovi orizzonti, alla fine siamo tutti essere scrutatori dei segni del tempo, come direbbe Kant, o anche esploratori, come direbbe invece Eliot. Quando finisco il libro ritorno, e completo questa parte, per ora aggiungo solo due cose: la prima è che la frase che fa da titolo a questo quinto episodio Benasayag l’ha scritta davvero in un suo libro del 2016, “Il cervello aumentato, l’uomo diminuito”, edito da Erickson; la seconda è che nella quarta di copertina si può leggere questa frase dell’autore: “Non stiamo parlando di distruggere le macchine o di frenare qualcosa, ma della necessità di un pensiero e di pratiche che sviluppino forme di ibridazione contro la crescente colonizzazione digitale”.
Per quanto riguarda invece l’ascolto, il video l’ho trovato come vedi su Youtube. Ascoltalo e poi fammi sapere cosa ne pensi.
Opinioni 3
Torna alla serie
Maria D’Ambrosio
La ricerca di #embodiededucation si connette nel profondo alle questioni della riflessione scientifica che Moretti offre in chiave di dibattito pubblico. Il corpo torna come categoria chiave e autori come Miguel Benasayag aiutano a comprendere le implicazioni etiche e politiche della tecnica connessa ai corpi.
Irene Costantini
Maria D’Ambrosio questa è una delle connessioni con la scuola sulla quale lavorare!!!
Michele Kettmaier
Perchè abbiamo voluto un’intelligenza artificiale così?
Opinioni 4
Torna alla serie
Daniele Di Nunzio
Caro Vincenzo ho letto l’articolo che mi hai mandato, come sempre sei capace di porre degli interrogativi partendo dal punto di vista delle persone. Come sempre hai fatto nel tuo lavoro di analisi e in generale nei tuoi scritti.
Partire dalle persone, appunto. Perché è questo che conta nella produzione e nell’uso delle AI. Come sai sto a un convegno che tratta proprio di questi temi e ho pensato di mandarti queste considerazioni istantanee, immediate, mentre sono qui, leggo il tuo articolo e sento ricercatori/trici e sindacaliste/i raccontare le loro esperienze di ricerca e di vita. Valuta tu, se pensi siano di interesse condividele pure con le tue lettrici e i tuoi lettori, in ogni caso è importante discutere di questi temi, o meglio aprire una discussione collettiva, in questo senso spero che anche questo nostro scambio informale in chat possa servire.
Dunque, per cominciare ti ringrazio perché conosco bene la tua attenzione a questi aspetti, al lavoro ben fatto, a quando fa bene anche alle persone che lo fanno. Dopo di che aggiungo che partire dalle persone è quello che abbiamo fatto anche in questi giorni di conferenza e in generale nelle analisi della FDV e questa consapevolezza ci ha portato ad altri interrogativi.
Ne evidenzio due. Il primo è che dietro alla produzione di AI c’è del lavoro umano, come ben analizzato da Casilli e dal network di INDL. Un lavoro umano invisibile e sfruttato, un lavoro povero che è funzionale a costruire non solo sistemi informatici ma sistemi di sfruttamento capillari, un lavoro delle persone che è fatto di bit (che sono dentro l’opera materiale) ma anche di patologie che vivono nell’animo umano fino ad arrivare al dolore di chi è costretto a moderare e gestire contenuti violenti (aggressioni, pornografia, stupri, violenze sui minori) per allenare le AI.
E poi ci sono persone umane che con la AI si arricchiscono e creano nuovi sproporzionati rapporti di potere, fino a possedere satelliti e armi e a governare elezioni e vite. Come mostrato dal filosofo Emile Torres, le élite alimentano una narrazione della digitalizzazione come processo che genera progresso e salvezza per l’umanità che nasconde i punti critici sia nella sua creazione che nella sua relazione con la vita umana e con l’ambiente. Un caro saluto
Giuseppe Ferrentino
“ChatGPT non vuole dire quello che dice. Non ha una sua volontà”
Vorrei partire da questa citazione del libro Io & Ia. Mente, cervello e GPT, a sua volta ripresa da Vincenzo nel dialogo con Simone Rossi, autore con Riccardo Manzotti di questo libro, per portare avanti una piccola riflessione che si riagganci anche agli altri interventi a tema AI presenti sul blog.
ChatGPT, al momento in cui scriviamo arrivato alla sua quinta versione (ChatGPT-5), è forse il più famoso, almeno all’interno del grande pubblico, dei tanti LLM (Large Language Models) che costellano il panorama della cosiddetta Intelligenza Artificiale Generativa.
Questi sistemi hanno generato, nell’ultimo paio d’anni, un vero e proprio hype, fatto quasi unico nella storia dell’intelligenza artificiale – che va avanti ormai da almeno 70 anni, ovvero da quando, nel 1956, al Dartmouth Workshop, personaggi come John McCarthy, Marvin Minsky, Claude Shannon e altri pionieri gettarono le basi teoriche della disciplina, introducendo proprio l’espressione Artificial Intelligence.
Per la prima volta in tutti questi anni, infatti, strumenti di questa potenza sono diventati accessibili potenzialmente a chiunque e, tra l’altro, in forma (anche) gratuita. Inoltre, questi sistemi artificiali sembrano ogni giorno diventare più potenti, configurandosi sempre più come una sfida al primato cognitivo dell’essere umano.
L’intelligenza artificiale viaggia dunque veloce, ci è in certo senso “piombata addosso”, e non disponiamo forse ancora degli strumenti concettuali adeguati per comprenderne fino in fondo la natura e le implicazioni. Nel descrivere questi modelli, ricorriamo a termini “ombrello” come “pensiero”, “mente” o “volontà”. Usiamo espressioni come “ChatGPT dice”, “ChatGPT pensa”. Attribuiamo emozioni, sentimenti, intenzionalità. Proiettiamo dunque su di essi categorie mentali e psicologiche come se stessimo dialogando con un essere autonomo.
Questa proiezione è una naturale conseguenza naturale del fatto che questi sistemi esibiscono comportamenti effettivamente intelligenti, talmente convincenti da essere spesso indistinguibili da quelli umani. In effetti, questi sistemi superano le condizioni del Turing Test, secondo cui una macchina può essere considerata “intelligente” se un osservatore umano, interagendo con essa tramite domande e risposte, non riesce a capire se stia dialogando con un computer o con un altro essere umano.
Le cose, tuttavia, appaiono essere leggermente più complesse di quanto possa inizialmente sembrare.
Innanzitutto, già l’uso del termine “intelligenza” risulta piuttosto problematico. Infatti, cosa vogliamo intendere davvero quando parliamo di “Intelligenza Artificiale”? In questo senso, lo stato attuale dell’Intelligenza Artificiale sembra piuttosto configurarsi come un’astrazione di un più complesso spettro di manifestazioni cognitive che caratterizzano l’essere umano (e, più in generale, i sistemi biologici). Mancano, infatti, da questa astrazione tante altre manifestazioni dello spettro mentale umano come appunto la volontà, la coscienza, il sentire.
Insomma, anche se, in una prospettiva pragmatica, un sistema intelligente artificiale sembra a tutti gli effetti comportarsi come un essere pienamente intelligente dall’esterno, ciò non significa una corrispondenza ontologica interna. L’AI dice ma non vuole dire quello che dice. Non prova emozioni nel dire quello che dice. Non sente quello che dice.
Perché manca di queste cose? Perché l’intelligenza artificiale attuale è appunto un’astrazione, è stata s-corporata, de-materializzata, privata dunque del corpo che è appunto la precondizione fondamentale per questa più ampia vita cognitiva.
Non è un caso che, in questi circa 70 anni di storia dell’Intelligenza Artificiale, la maggior parte degli sforzi si sia concentrata sulla modellizzazione computazionale di funzioni astratte (calcolo, inferenza statistica, Natural Language Processing) e molto meno sulla dimensione incarnata e corporea dell’intelligenza: percezione situata, interazione motoria, omeostasi, dipendenza da un metabolismo, temporalità vissuta.
Questo è anche dovuto al fatto, come espresso dal cosiddetto Paradosso di Moravec, che è più semplice replicare artificialmente quelli che sono ritenuti abilità cognitive di più “basso” livello, come quelle motorie o sensoriali, prodotto di milioni di anni di evoluzione e quindi profondamente radicate nel cervello, che abilità cognitive di più “alto” livello, come il ragionamento astratto e il linguaggio, sviluppate più di recente e frutto dell’evoluzione culturale e quindi più facili da formalizzare e programmare.
La prospettiva oggi dominante nella ricerca sull’intelligenza artificiale non a caso è sicuramente ancora quella di “alto livello”: si presuppone che riproducendo abbastanza fedelmente certe regolarità del linguaggio o di segnali neurali si possa far emergere qualcosa di funzionalmente analogo alle nostre facoltà cognitive. Ma ciò che emerge è, appunto, un comportamento linguistico statisticamente plausibile. Non un soggetto, non un individuo che sente, che vive.
Per avere un’intelligenza che davvero replichi la pienezza fenomenologica e motivazionale di quella umana occorrerebbe spostare il baricentro: dall’informazione disincarnata alla cognizione situata; dalla pure predizione statistica del prossimo token alla dinamica circolare tra percezione, azione, corpo, ambiente. Qui il discorso lambisce il confine tra intelligenza artificiale e vita artificiale: creare sistemi non solo capaci di generare testi o immagini, ma dotati di cicli interni di regolazione, priorità, scopi emergenti, vincoli materiali. Insomma, tornando a, come sostenuto anche da Antonio Lieto nei precedenti interventi, a quella concezione olistica dell’Intelligenza Artificiale che era tra l’altro l’obiettivo della cibernetica, la “madre” dell’intelligenza artificiale poi “ripudiata” dalla figlia.
In conclusione, riconoscere i limiti ontologici degli LLM non significa sminuirne il valore pragmatico. Al contrario: comprendere che “dicono senza volere dire” aiuta a usarli meglio, riducendo antropomorfismi fuorvianti. Questi modelli sono potenti compressori e rimescolatori di conoscenza testuale: ampliano l’accessibilità informativa, accelerano cicli creativi, supportano analisi esplorative.
Ma la responsabilità epistemica e morale dell’uso resta interamente umana. Per fortuna. Al di là di qualsiasi catastrofismo o entusiasmo spicciolo.
Opinioni 5
Torna alla serie
Luigi Congedo
Le nuove dinamiche sociali e culturali della AI
Michele Kettmaier
Chi ha paura dell’intelligenza artificiale parla troppo bene
Episodio 6 | Sì, io mi fermo qui | 27 Settembre
Torna alla serie
Caro Diario io mi fermo qui. Naturalmente per ora, per definizione i cantieri di questo tipo restano sempre aperti, con un tema come questo ancora di più.
Ho cercato di proporre più punti di vista, sono convinto che questa discussione possa servire, ma non me la sento di dire altro oltre a quello che, qui e là, ho detto già. Quando abbiamo iniziato pensavo di farlo, adesso no, continuo a sentirmi impreparato, ho bisogno di ritornarci su, di leggere, di studiare. Aggiungo solo una cosa, molto generale e abbastanza semplice anche se, credo, non banale: con la voglia di semplificazione che c’è in giro per il mondo, con la soglia di attenzione sempre più bassa con cui approcciamo alle cose importanti della vita, comprese le relazioni con gli altri, le possibilità di un uso consapevole delle tecnologie in generale, e dell’AI in particolare, le vedo ridotte al lumicino. Non si tratta di essere pessimisti, basta essere realisti, ma naturalmente ciò non impedisce a nessuna/o di noi, me compreso, di continuare a fare ogni giorno la nostra parte per invertire l’ago della bussola. A presto.
Opinioni 6
Torna alla serie
Francesco Paraggio
Caro Vincenzo, non siamo ancora riusciti a chiacchierare dal vivo, e mi dispiace. Nel frattempo ho pensato di scriverti, per condividere una riflessione che nasce dal mio lavoro dentro le istituzioni europee.
Come forse sai, l’Unione Europea sta migrando i propri sistemi linguistici verso modelli LLM “sovrani”, costruiti qui con tecnologie europee. L’obiettivo è ridurre la dipendenza da infrastrutture e piattaforme esterne. Io, nel mio piccolo, sono uno degli operai di questa transizione.
Sulla carta sembra un progetto di autonomia. Nella pratica, non è ancora chiaro da chi ci stiamo emancipando. Cambiare i padroni non è la stessa cosa che essere liberi. A volte ho l’impressione che l’Europa stia solo costruendo un nuovo feudo, con le sue mura, i suoi vassalli e i suoi protocolli.
Un castello digitale, insomma, non un mondo nuovo: un feudo dentro quello che alcuni chiamano techno-feudalesimo.
In questo nuovo feudo algoritmico, il lavoro non forgia più materia ma addestra comportamenti. E allora mi chiedo che cosa significhi oggi “lavoro ben fatto” dentro un sistema in cui passiamo le giornate immersi nei flussi di dati, tra modelli che imparano da noi, piattaforme che ci osservano e processi che ci imitano. Non lavoriamo più solo per produrre cose, ma per alimentare macchine che continuano a imparare anche quando non le guardiamo.
“Fare bene” rischia di voler dire solo far convergere il modello: controllare la log loss, limare la perplexity, spremere qualche token in più al secondo. Anche qui c’è un gesto d’arte, una cura nel calibrare, nel capire quando fermarsi, ma resta nascosta, invisibile dietro le metriche. Come se la cura si potesse misurare in millisecondi e la coscienza in parametri addestrati. E allora dove resta il gesto umano, la scelta, la responsabilità di chi costruisce? Perfino l’etica finisce incapsulata in un sotto-modulo, trattata come un bias da monitorare, una metrica da ottimizzare.
Forse serve una nuova lucidità, un po’ di quello spirito critico che avevano i luddisti: non distruggere le macchine, ma capire chi le governa, chi ci guadagna e come restare liberi dentro i loro ingranaggi.
Non un rifiuto, ma un atto politico. Perché anche qui dentro, tra modelli e dataset, si ripropone la stessa domanda di sempre: chi lavora per chi?
C’è chi parla di dis-enshittification come antidoto alla putrefazione delle piattaforme: liberare la tecnologia non significa abbandonarla, ma riappropriarsi del suo senso, del modo in cui produce valore e legami. E forse il “lavoro ben fatto” è proprio questo: non un’etica del mestiere, ma una forma di ecologia dentro la complessità.
Timothy Morton direbbe che l’intelligenza artificiale è un iperoggetto, troppo grande per essere compreso ma non per essere abitato. Non possiamo starne fuori, ma possiamo scegliere come starci dentro.
Forse la sfida, oggi, non è più capire la macchina, ma capire che tipo di persone diventiamo lavorandoci insieme. E allora ti chiedo: in un mondo dove “fare bene” rischia di voler dire solo “far funzionare”, che cosa resta, oggi, del lavoro ben fatto? È ancora un modo per resistere, o dobbiamo reinventarlo da capo, dentro questa nuova materia che non pensa ma parla, non capisce ma risponde, e intanto si insinua nei nostri modi di dire e di fare?
Con stima e curiosità.
