top of page

Fantasmi digitali


A volte mi dicono che i miei post sull'AI sono ansiogeni.


Me lo dicono con quel tono di chi sta cercando di essere gentile ma vuole comunicarti che stai esagerando. "Max, va bene informare, ma non dobbiamo terrorizzare la gente."


E mi dispiace sentirmelo dire perché il mio lavoro è di aumentare consapevolezza e non far leva sulla paura per vendere i miei contenuti. Vorrei aiutare il maggior numero di persone possibili ad imparare a guardare negli occhi, non a evitare, i cambiamenti che abbiamo davanti.



Ma quando pure un soggetto come Andrej Karpathy inizia a parlare di fantasmi digitali per definire l'AI... allora mi viene da puntualizzare.


Che problema abbiamo


Abbiamo il grande problema di umanizzare l'AI; noi sappiamo che non è umana ma il nostro cervello fatica ad abituarsi. Perché? Ci parliamo, le chiediamo cose, ci relazioniamo, raccontiamo ai nostri amici quanto è stata brava, manco fosse un figlio... e mi fermo.


Parliamo con ChatGPT e il cervello attiva gli stessi circuiti che usa con le persone. Risposte fluide, tono sicuro, turni di conversazione, tutto ciò che per milioni di anni ha significato "c'è qualcuno dall'altra parte". Il cervello ci crede. Noi no. E questa dissonanza è il cuore del problema.


Abbiamo bisogno di metafore per capire come incastrare l'AI nelle nostre attività e io da un bel po' di tempo uso il concetto di "menti aliene". Non per evocare gli extraterrestri o fare paura. Lo faccio per descrivere un fatto: l'AI assomiglia a una mente, ma funziona in modo radicalmente diverso da una mente umana. È altro, qualcosa di estraneo, come insegna la radice del nome. E ho provato a farlo anche nel rappresentarle come fumetti un po' eterei.



E richiede sforzo per essere compresa. Anche se tutto ciò è un po' ansiogeno.



Prima di immergerci

L'esplosione del fenomeno Clawd / Molt / OpenClaw e MoltBook, di cui ho parlato qui (EN), ha generato milioni di paranoie, spesso strumentali, per cercare di attribuire coscienza, volontà e significato a questi agenti AI. Distogliendo lo sguardo dai problemi enormi di cybersecurity che hanno creato. C'è un prima e un dopo MoltBook.


E una frase dello scienziato Anil Seth mi è risuonata come un gong:


"Se ci confondiamo troppo facilmente con le nostre creazioni meccaniche, non solo le sopravvalutiamo, ma sottovalutiamo anche noi stessi."

La trovate qui, e tra i vari concetti, Seth esprime quello delle "illusioni impenetrabili": illusioni che sappiamo essere false ma non possiamo fare a meno di crederci. Come l'illusione delle linee di Müller-Lyer in cui lo capiamo razionalmente. Ma dobbiamo tornare a guardarci.



Teniamoli a mente e immergiamoci.



Evocazione, non assunzione

Cominciamo con i fantasmi: Andrej Karpathy è uno che di intelligenza artificiale ne capisce, avendo contribuito a costruirla sia in Tesla che in OpenAI.


E dice che dovremmo guardare ai Language Models non come ad animali, frutto di miliardi di anni di evoluzione biologica. Ma come fantasmi.


Fantasmi evocati imitando documenti scritti da esseri umani.


Non li assumiamo (Come racconto io). Li evochiamo.


Un po' inquietante, no?



In estrema sintesi Karpathy dice che questi modelli sono nati leggendo tutto Internet. Wikipedia, Reddit, paper scientifici, romanzi, forum di cucina, discussioni su Star Wars e trattati di filosofia.


Il loro addestramento è una specie di evoluzione compressa e scadente: non separa la conoscenza dei fatti dalla capacità di ragionare. Mescola tutto in un blob fangoso di pattern statistici.


Hanno anche una forma strana di "memoria": mescolano ciò che sanno dall'addestramento, la vostra conversazione attuale e i dati che recuperano al volo dal web. Questi strati si confondono in modi imprevedibili. Quello che hanno letto in un post del 2019 si mescola con quello che gli avete detto cinque minuti fa. E quando non sanno qualcosa, invece di ammetterlo, se la inventano. Con grande sicurezza.


In sostanza, dice, non possiamo paragonarli ad umani, non possiamo paragonarli ad animali... ci restano i fantasmi...


Ovviamente non sono d'accordo.


Lo stagista era una bugia gentile


C'è chi mi sgrida perché uso spesso la metafora dello stagista: umanizzo troppo l'AI, dicono. Ma lo faccio di proposito. Quando pensate a uno stagista, immaginate una persona: non ancora formata, ma che può essere d'aiuto. È un'immagine che funziona perché abbassa le difese e rende l'AI avvicinabile. Se la presentassi per quello che è, un sistema stocastico allineato agli interessi dei suoi creatori, la gente cambierebbe canale.


Ma è una bugia gentile. Uno stagista ha un corpo, una storia, dei limiti biologici.


Ha imparato camminando nel mondo, cadendo, sbucciandosi le ginocchia. La sua intelligenza si è formata nel contatto con la realtà. Questi modelli no. Non hanno mai toccato niente.



Non sono nemmeno animali


E qui torna Karpathy con l'esempio che fa crollare tutto. Una zebra, pochi minuti dopo essere nata, corre già dietro alla madre. Non l'ha imparato. Ce l'ha nel DNA, cablato da milioni di anni di evoluzione.


L'evoluzione biologica separa le cose: ti dà l'hardware, l'istinto, l'algoritmo per imparare. E poi ti butta nel mondo a raccogliere la conoscenza da solo, sbattendo il muso contro la realtà. Il pre-training di un LLM fa il contrario: mescola tutto in un unico passaggio. Intelligenza e memoria, circuiti di ragionamento e fatti. Karpathy lo chiama crappy evolution, evoluzione scadente.


Il risultato è un'entità che sa citarti la termodinamica e la ricetta della carbonara, ma non distingue tra ciò che sa fare e ciò che ricorda di aver letto. Nessun istinto, nessun corpo, nessun mondo fisico contro cui calibrarsi.


Non è un animale. Non è uno stagista. Ma non credo nemmeno sia un fantasma.



Io non credo ai fantasmi

Un fantasma è il 'residuo di qualcuno che ha avuto una vita prima'. Che è stato qualcosa. Questi modelli non hanno un "prima". Non sono mai stati vivi.


Hanno una provenienza, non un passato.


Vengono da qualche parte: dai dati, dalle scelte dei loro creatori, dai valori e dai bias di chi li ha costruiti. Quando interagite con Claude, Gemini o ChatGPT, state interagendo con un sistema che porta con sé tutto questo.


Ne ho parlato riflettendo sulla coscienza dell'AI: non trattatela da umana. Non lo è. Non lo sarà.



Chi sorveglia i fantasmi?


Quando ho iniziato a parlare di agenti AI, ho proposto il ruolo del Pastore di Agenti. Non era retorica. Se questi sistemi possono agire in autonomia, decidere quali strumenti usare, creare codice e eseguirlo... chi li tiene a bada?


La risposta, oggi, è "quasi nessuno."


La mia parola chiave per il 2026 è Contenimento!


Contenimento dell'AI Slop, la spazzatura digitale generata senza supervisione umana. Ma anche contenimento di sé: della FOMO, della FOBO (paura di diventare obsoleti), delle accelerazioni enormi nel mondo agentico. Confesso: è un problema anche per me.


La maggior parte delle aziende sta sperimentando con gli agenti AI senza strutture di governance adeguate. Senza capire veramente con cosa hanno a che fare.



Quindi


Non scrivo queste cose per spaventarvi. Le scrivo perché la consapevolezza è l'unica difesa sensata. E perché è possibile godersi i fantasmi responsabilmente.


La metafora che scegliete cambia come vi comportate. Se pensate a uno stagista, vi fiderete il giusto. Se pensate a un fantasma, starete più in guardia. Se pensate a un alieno (inteso come res aliena), sarete più attenti all'imprevedibilità.


In ognuno di questi casi, vi comporterete meglio di chi non ci pensa affatto. Io continuerò a usare queste approssimazioni, perché tra adulti ci si capisce anche con le metafore imperfette.


Sono strumenti potentissimi. Li uso ogni giorno. Mi hanno cambiato il modo di lavorare. Ma non dimentico mai cosa sono: entità sintetiche, create da pattern statistici, senza vera comprensione del mondo, senza i freni biologici che rendono tali gli esseri umani.


Fantasmi, alieni, stagisti. Sono tutte approssimazioni insufficienti di qualcosa per cui non abbiamo ancora le parole.


Chiamiamoli come vogliamo. Ma prima o poi dovremo chiamarli per quello che sono: intelligenze digitali simulate. Non vere, non false. Non vive, non morte. Simulate.


E quando ci arriveremo, quando avremo finalmente le parole giuste, forse riusciremo anche a trattarle per quello che sono, senza bisogno di metafore.


Ci arriveremo.



Massimiliano



Risorse correlate


 
 
 

Commenti


bottom of page