AI Fluency: quel nodo mai risolto nel rapporto con l'AI
- Massimiliano Turazzini
- 6 giorni fa
- Tempo di lettura: 14 min
Aggiornamento: 17 ore fa
Questo post è una LUNGA riflessione personale sul crescente disagio che ho provato nel mio rapporto in evoluzione con l'AI, un'esplorazione che parte dalla confusione e si muove lentamente verso la chiarezza. Lo condivido qui come un modo per disquisire non solo su ciò che l'AI può fare, ma anche su ciò che fa a noi.

C'era qualcosa nel mio rapporto con l'AI che mi sfuggiva. Non è stato semplice arrivarci e probabilmente ancora non sto vedendo tutto l'orizzonte ma soltanto una piccola porzione.
Ma ho iniziato piano a mettere a fuoco una sensazione che mi accompagnava da molto tempo e vorrei raccontarvi, in questo post che mi rendo conto sia lungo, da dove sono partito e dove sono arrivato.
C'è stato tantissimo, troppo rumore in questi anni e fermarsi per riflettere, a mente sgombra, non è stato, e non è tuttora, per nulla facile.
Nel mezzo di questo entusiasmo generalizzato qualcosa non tornava...
TL;DR
Il rumore e la FOMO sull’AI ci fanno perdere di vista ciò che conta davvero.
Automatizzare è utile, ma il vero salto è “pensare con l’AI”, non solo usarla come martello digitale.
“Sistema 0” è il ponte cognitivo in cui mente umana e AI si scambiano idee, con il rischio di delega mentale.
Per muoversi qui serve “AI Fluency”: saper interagire con l’AI mantenendo controllo e senso critico.
Sei livelli di maturità (da Curioso a Fluente): senza fluency guida l’AI, con fluency guidiamo noi.
Quando l'AI ci sfugge di mano
Copiloti, assistenti sempre più performanti, Sistemi e App basati su AI sono spuntati come funghi (da Gamma a Suno da Elevenlabs ad Heygen, fino a Manus) che alzavano sempre più l'asticella, chiedendo sempre ulteriori conoscenze, generando sempre più FOMO, la paura di restare tagliati fuori, e continuando a cambiare il punto di partenza, creando asticelle sempre più alte ma vendendole come 'risolutive e magiche'.
Ho scritto il libro "Assumere un'AI" proprio con l'obiettivo di trovare un segnale nel rumore assordante di questi anni, concentrandomi da subito sul dare il messaggio di "comprendere" l'AI anziché limitarsi a saperla usare. Che poi, saperla usare, è qualcosa che nessuno, in questo momento, può misurare: basta un cambio di modello e siamo punto a capo.
E ho sempre cercato di sperimentare su di me, in prima persona, ciò che ritenevo più utile ma anche più pericoloso, per rendermi conto, in una specie di percorso accelerato, di dove stavamo andando. Per cercare di unire puntini e creare traiettorie.
Ho dedicato molto tempo a cercare di capire se ero Taker o Giver con l'AI. Ovvero se stavo migliorando le mie capacità cognitive o le stavo dando 'in outsourcing' al modello di turno. E ormai mi viene naturale pensare a questo passaggio ogni volta che utilizzo l'AI Generativa per fare qualcosa di serio. Al termine dedico qualche istante proprio a capire se ho guadagnato o perso qualcosa utilizzandola. (Provateci!)
Con le aziende e i vari progetti realizzati ho cercato di smorzare gli entusiasmi iniziali di chi dà all'AI proprietà magiche e alchemiche cercando di mostrare che non ci sono ricette segrete o passaggi rapidi per poter arrivare a ciò che tutti vogliono: risparmiare, guadagnare più tempo e soldi.Perché alla fine siamo esseri semplici e, al netto di pochi momenti illuminati in cui pensiamo alla nostra evoluzione cognitiva, al nostro benessere, alle nostre responsabilità, la maggior parte del tempo con l'AI la passiamo a cercare soluzioni che ci diano vantaggi.
Tenendo in mente questa equazione
UMANI + AI > UMANI (o AI) DA SOLI
Ma più passava il tempo e più mi rendevo conto che qualcosa non tornava in questa narrazione troppo entusiasta.
L'AI ci serve solo ad automatizzare cose noiose?
E cosa c'è di meglio, ci viene costantemente ripetuto, che dare all'AI da automatizzare compiti ripetitivi e noiosi? Toglierci quelle attività che dobbiamo fare per forza e non hanno valore.
È davvero questo l'obiettivo? È davvero questa la grande possibilità dell'AI?A me sembra estremamente riduttiva.
Con l'arrivo dell'AI Generativa, con la possibilità di fare prompt e spiegarsi a lungo, in modo sempre più articolato, con uno strumento sempre più 'attento' a quanto gli si chiede, in grado di mostrarci punti di vista che non abbiamo mai avuto, accesso a conoscenze che richiedevano comunque molto lavoro, siamo davvero sicuri di voler banalmente fare solo automazione?
Nel mio percorso ho cercato, e con me molti, di capire quale fosse il giusto rapporto con l'AI, quali fossero i ruoli e come fosse 'giusto' o 'meglio' comportarsi con questo strano nuovo strumento dalle proprietà inesplorate e misteriose.
Nel libro "Assumere un'intelligenza artificiale in Azienda" ho scritto un lungo approfondimento sul fatto che l'AI (Generativa) ha implicazioni pratiche sull'organizzazione, sul clima aziendale, sui processi, sul modo in cui prendiamo decisioni. La metafora dello stagista AI di Ethan Mollick è stata ed è tuttora per me un faro in questi ultimi anni per dare un senso alle relazioni che stanno nascendo con questa nuova tecnologia.
Ma il rapporto è sempre stato quello UMANO + STRUMENTO = MIGLIORAMENTO (al netto dei problemi di Delega cognitiva raccontati in un in un altro post)
E la sua capacità di 'replicare' (seppur limitata, non intenzionale, osteggiata da molti filosofi che non la ritengono sufficientemente nobile per poter mettersi in relazione con i nostri preziosi cervelli umani) l'ha resa, piano piano, qualcosa di diverso da un semplice strumento.
E il nodo iniziale del titolo era che mi facevo la domanda sbagliata: non "Cosa farci?" ma "Come ragionarci assieme?".
Pensare con l'AI
Ora credo di essere passato ad uno stato successivo, quello in cui ho capito che non basta usare l'AI, è possibile imparare a pensare e lavorarci assieme. E questo cambia un po' gli equilibri del rapporto.
Il Martello
Mi spiego meglio: con un martello siamo noi a definire scopo e utilizzi: esso è completamente passivo e fa quello che gli chiediamo di fare e basta. (Il massimo del feedback lo otteniamo se ce lo diamo su un dito o sbagliamo la mira.) È una relazione unilaterale nella quale solo noi abbiamo intenzioni, scopi, comprensione.
Lo Smartphone
Con l'avvento degli smartphone e dei PC abbiamo fatto un passo in più: abbiamo ampliato le nostre capacità cognitive con memoria, calcolo e, se la estendiamo ai social, persino modificato la nostra identità. È un passaggio che, se parliamo di estensione cognitiva (Clark & Chalmers, 1998), si potrebbe definire un rapporto di interdipendenza simbiotica. Ovvero, senza di lui ci sembra che ci manchino alcune facoltà (non è questo il luogo in cui parlare anche degli enormi problemi che ciò ha portato al genere umano).
L'AI Generativa
Poi sono arrivati i sistemi basati su AI Generativa.Dai semplici assistenti AI (ChatGPT per capirci) fino a sistemi agentici ben più evoluti (combinazioni di modelli linguistici -LLM- con sistemi informatici tradizionali.) Sistemi che percepiscono la porzione di ambiente circostante che gli diamo a disposizione, i nostri input, sensori, eventi di varia natura, elaborano strategie pianificando strategie, hanno memoria e apprendono dai risultati. Poi eseguono azioni.
Per semplicità mi riferirò a loro in vari modi in questo post, ciascuno ha i suoi limiti e i suoi impatti. Non userò solo "AI Generativa" e nemmeno solo "Agenti" perché entrambi mostrano sfumature diverse.
Pur tenendo presente che gli Agenti simulano soltanto intenzioni, emozioni, preferenze, razionalità, qui non credo possiamo parlare di semplice simbiosi.
Entra in gioco una relazione bilaterale con un sistema che è in grado di reagire, modificarsi e modificare il nostro modo di pensare e di agire.
Ragioniamo con gli agenti, chiediamo consigli, esprimiamo dubbi e cerchiamo di trovare soluzioni ai problemi più disparati.
Talvolta veniamo anche 'attivati' noi da loro in processi 'Human in the Loop' che partono da altri trigger.
E questo ci cambia, modifica il nostro modo di pensare a come risolvere problemi, ci apre a molte prospettive nuove ma apre a molti rischi personali tra cui un'eccessiva delega cognitiva (dare in outsourcing il nostro pensiero critico) che, piano piano, senza che ce ne rendiamo conto, può atrofizzare le nostre capacità di ragionare.
Breve nota sulla memoria atrofizzata
I più evoluti sistemi, come ChatGPT stanno anche iniziando a tenere traccia delle nostre memorie in modo più o meno comprensibile, trasparente, editabile come scrivevo qui.
E stanno fioccando un sacco di applicazioni che, con vari dispositivi, terranno sempre più traccia di ogni nostra interazione quotidiana (Plaud, Limitless, Rewind e altri più o meno invasivi).
E questo è un upgrade del livello di delega che abbiamo già fatto, negli ultimi anni, smettendo di memorizzare i numeri di telefono dopo che sono presenti nei nostri telefoni. Qui l'AI ricorda per noi e non sempre abbiamo accesso a come lo ricorda... Ne parlerò a breve nell'articolo che avevo promesso.
Cosa ho scoperto
In questi anni o iniziato a cercare di comprendere a fondo questi meccanismi e ho trovato parecchi studi, che finalmente iniziano a raccontare un po' di dietro le quinte al netto della fuffa e del marketing dei vari produttori di modelli (che dispensano soluzioni a problemi che prima non avevamo e che spesso hanno creato loro).
E, grazie anche al crescente gruppo di persone con cui sto discutendo sugli usi , gli effetti, i problemi e le opportunità di questa relazione AI sono approdato a due concetti molto importanti e correlati tra loro più di quanto sembri Sistema 0 ed AI Fluency.
Due concetti che vi vorrei raccontare prima in breve e poi approfondirò, anche in post successivi.
Il sistema 0: un nuovo spazio cognitivo condiviso
Il Sistema 0 (Chiriatti et al, 2024) rappresenta una 'zona di scambio' tra la mente umana e le intelligenze artificiali.
In essa c'è un ponte invisibile che collega i nostri pensieri con l'inferenza dell'AI, con quello che lei genera. Come un collega silenzioso, che ci dà idee, proposte, scorciatoie e che a volte lasciamo decidere per noi (volontariamente o involontariamente)
Secondo Chiriatti il concetto di Sistema 0 si inserisce tra i due sistemi di pensiero descritti da Daniel Kahneman (2012):
il Sistema 1 (pensiero intuitivo e veloce)
il Sistema 2 (ragionamento riflessivo e lento).
A differenza degli strumenti fisici o tecnologici tradizionali, gli strumenti di GenAI, si distinguono per l’impatto immediato e intimo sui processi cognitivi, diventando una componente attiva del pensiero stesso, non solo un supporto esterno.

E questo ponte travasa di continuo, in modo fluido, elementi mentali come attenzione, idee, intenzioni, parole, schemi di ragionamento.
Solo che quando queste arrivano alla nostra mente le dobbiamo elaborare.
E quando escono dalla nostra mente vanno verso l'AI e c'è il rischio che non vi rientrino più.
Il flusso è positivo quando ci arrivano nuove capacità e quando è negativo è come un emorragia (Nigel P. Daly, 2024) e riduce la nostra capacità di pensiero, atrofizzando il cervello.

Dando per scontato che, almeno approssimativamente siate d'accordo, come riconoscere questo processo? Come renderci conto se stiamo ricevendo ed evolvendo o dando e regredendo?
Se il Sistema 0 è il nuovo terreno di lavoro, credo serva una nuova abilità per navigarlo, l'AI Fluency.
AI Fluency: la competenza che cambia le cose
AI Fluency può essere definita come la capacità di interagire efficacemente con l'AI, mantenendo al contempo l'autonomia cognitiva.
È un termine che è nato più o meno simultaneamente a partire dal 2020 con significati più o meno diversi e che è stato di recente ripreso e divulgato anche da Anthropic a seguito di uno studio (Dakan & Feller 2025) su ciò che succede mano a mano che utilizziamo l'AI.
Ci sono ancora definizioni diverse, come per il Vibe Coding o gli Agenti AI, poco importa: ciò che conta è che abbiamo un nome di riferimento per esplorare nuovi concetti. E ovviamente anche la mia versione sarà in parte diversa dalle altri, ma va bene perché nell'evoluzione umana, servono molte menti e tempo perché un concetto complesso si perfezioni ed evolva.
AI Fluency è il termine che sto utilizzando da qualche mese nei mei workshop ed è li termine che utilizzerò da ora in poi per ridefinire il concetto di relazione tra umani ed AI.
Ed è un concetto diverso da AI Literacy, che rappresenta solo l’alfabetizzazione: descrive, a livelli diversi, quanto conosciamo uno strumento e quanto siamo in grado di usarlo.
Come dicevo, l’AI non è più – in questa digressione – un semplice strumento passivo. È diventata uno strumento cognitivo: non ha intenzioni, non è perfetta, non è autentica, e certamente non è umana.
Eppure, ci modifica. Più di quanto faccia un simbionte come lo smartphone.
Per questo non basta più parlare di alfabetizzazione.
Quando parliamo di relazioni, tra umani c’è l’intelligenza sociale.
Ma con l’AI serve qualcos’altro: serve AI Fluency. Una forma nuova di 'intelligenza tra specie', se così possiamo chiamarla.
Cercherò di parlarne senza troppi riferimenti accademici che altrimenti richiederebbero lunghi approfondimenti ulteriori.
Ma cosa vuol dire 'interagire efficacemente'?
In sostanza: quando ci relazioniamo tra noi umani abbiamo più o meno alcune aspettative, bias, storie, sensazioni, emozioni che condizionano ciò che possiamo chiedere alla nostra controparte, che ci fanno porre dei limiti nelle richieste e nelle affermazioni, spesso per non 'urtare la sensibilità' della controparte. E questo richiede certi tipi di intelligenza.
Ad esempio, tra umani abbiamo chiaro il concetto di cosa è fattibile. Se chiedo ad un umano di scrivere un libro in un giorno, con tutta la gentilezza e i soldi di questo mondo, probabilmente non otterrò un buon risultato. Quindi, probabilmente il Sistema 1, mi aiuta ad auto-censurarmi e... non lo chiedo perché so che non posso ottenere un risultato.
Siamo efficaci, tra umani, quando siamo specifici nelle richieste e nell'espressione dei nostri bisogni o delle nostre offerte e veniamo corrisposti. Ad esempio un manager che riesce ad ottenere un allineamento con la sua visione da parte dei suoi collaboratori e questi lo seguono, imparando cosa vuole e come lo vuole.
Quando ci relazioniamo con le AI le cose sono diverse.
Noto spesso nei miei workshop - ormai ho incontrato e formato più di mille tra manager, imprenditori, professionisti- che ci rivolgiamo all'AI per richieste che sono molto tarate sulle relazioni umane. La antropomorfizziamo troppo!
Sono, comprensibilmente, molto basate sull'esperienza che abbiamo e poco sul pensiero laterale e sulla comprensione tecnica.
In sostanza, anche a causa di scarsa Alfabetizzazione sull'AI, abbiamo aspettative disallineate tra quanto ci immaginiamo che l'AI possa fare e quanto in realtà fa.
Magari diamo per scontato che sappia riassumere un intero libro cogliendo i punti essenziali per noi (sovrastima, serve più di qualche tecnica e conoscenza specifica per farlo) o le chiediamo semplicemente di correggere un nostro testo (sottostima, è in grado di rifrasarlo in mille toni e modi diversi, spiegandoci anche il perché.)
In sostanza guardiamo all'AI con occhi e strumenti 'vecchi e sbagliati', e questo ci fa vedere solo una minima parte del tutto. E ci fa dare un sacco di giudizi sbagliati.
Avere AI Fluency con l'AI vuol dire comprendere, per ogni modello o sistema con cui ci relazioniamo: cosa è in grado di fare e cosa no e, contemporaneamente, come ci sta cambiando la testa mentre la usiamo. Ed ottenere risposte e proposte in linea con le nostre aspettative.
È un po' come quando impariamo una lingua nuova: all'inizio ripetiamo frasi imparate a memoria, poi iniziamo a capirne la struttura, poi a pensare in quella lingua e la usiamo per esprimere idee complesse, prendere decisioni e, difficilissimo, iniziamo a raccontare barzellette solo quando siamo immersi nella cultura di quella lingua.
Solo che l'AI Fluency non è una lingua ma un'abilità, una skill, che si radica nel nostro cervello (nel sistema 0?) e lo modifica inesorabilmente. Sia in positivo che in negativo .
Una differenza essenziale? Il travaso è verso di noi, non verso l'AI, che non cambia davanti ad interazioni con altri umani.
L'unica eccezione, tema comunque importante, si ha quando nel sistema AI, essa ha accesso a memorie esterne che le permettono di modificare i suoi comportamenti in base anche ai metadati raccolti durante le interazioni con noi.
Perché è importante
Siamo noi a vincere o a perdere.
Siamo noi a migliorare o peggiorare.
E, se abbiamo AI Fluency, abbiamo più controllo.
Come racconto da qualche anno agli studenti: usare l'AI per barare nei compiti o per imparare o migliorare i propri skill richiede più o meno lo stesso sforzo. Sono i risultati a lungo termine ad essere molto diversi.
E sono stato molto felice quando ho trovato conferma di questa visione da parte di diversi paper citati da Ethan Mollick (li trovate in fondo all'articolo) che vanno in questa direzione. confermando il dilemma: l'AI aiuta se usata per apprendere, danneggia se usata per barare perché atrofizza le capacità cognitive. .
Questa capacità di giudizio si manifesta a livelli 'alti di AI Fluency' (che tra un po' proverò a quantificare). E in tutti gli ambiti in cui si applica, compreso e soprattutto quello lavorativo, influisce sui risultati che si ottengono.
Sto rendendomi conto che io stesso ho bassa AI Fluency in alcuni ambiti dell'AI (Nel mondo della grafica, dei video, dell'audio), non so avere le giuste aspettative, cosa che trovo normalmente invertita quando sto raccontando come utilizzo l'AI di tutti i giorni ad un team di lavoro alle prime armi.
E questo ha implicazioni concrete, nella vita, nello studio, nel lavoro.
Se non abbiamo AI Fluency non guidiamo noi, guida lei
Se non abbiamo AI Fluency, non potremo:
capire quando usare o non usare sistemi AI,
affidare con criterio questi strumenti ad altri,
commissionare un progetto basato su AI Generativa con consapevolezza,
riconoscere se state allenando o atrofizzando le nostre capacità cognitive.
Se ce l’abbiamo, invece, potremo:
scegliere con lucidità strumenti e modelli,
ripensare i flussi di lavoro integrando l’AI nel nostro modo di co-creare,
non farci intimidire e non aver paura di provare,
portare l’AI nei processi come membro attivo che ci supporta nelle decisioni, non non come semplice scorciatoia,
creare un nuovo livello di linguaggio nel team, più preciso, condiviso e generativo,
cogliere con chiarezza limiti, rischi, aspetti etici e bias ,
costruire davvero un’organizzazione AI-powered,
leggere costantemente la direzione del flusso cognitivo tra noi e l’AI.
So che sembra quasi un percorso da illuminazione tantrica ma... questa è la mia esperienza fino a questa parte del viaggio.
E non riguarda solo i singoli: si può parlare anche di AI Fluency collettiva.Ho visto molti team fare progressi enormi lavorando insieme sull’AI, anche grazie al framework AI-PLUG che ho descritto nel mio libro. Uno strumento pensato proprio per far crescere l’AI Fluency di un'organizzazione, non solo di una persona.
Avviamoci alla fine, almeno di questo passaggio, cercando di quantificare un po' questa AI Fluency.
I 6 Livelli di maturità
Ho provato a condensare alcuni di questi livelli, probabilmente semplificando troppo, ma vorrei lasciarli come spunto di partenza. Non ho voluto parlare di punteggi o benchmark, probabilmente misurare l'AI Fluency sarà un compito tutt'altro che facile.
In molti ci stanno lavorando e anch'io sto cercando di definirlo al meglio, anche perché un problemuccio non banale è che varia in base ai domini a cui la applichiamo. l'AI Fluency non è assoluta nel mondo AI, ma si applica al vostro dominio di lavoro e all'insieme di strumenti che avete a disposizione e situazioni che dovete risolvere.
Quindi una scala su cui sto lavorando è questa:
Curioso - Fasi iniziali di scoperta e stupore
Attivo - Uso regolare per piccoli task
Sperimentatore - Integrazione nei flussi di lavoro
Riflessivo - Sviluppo pensiero critico
Architetto - Progettazione di processi AI-driven
Fluente - Padronanza completa e guida per altri
Vi riconoscete in qualcuno di questi ?
Il concetto è che fare buoni prompt è diverso da lavorare con l'AI mentre si allena il giudizio. La pura conoscenza tecnica è fantastica, ma con questa tecnologia, per come interagisce con noi, c'è un forte rischio di diventarne dipendenti. Alle abilità tecniche dovremmo quindi aggiungere le competenze e conoscenze che ci permettano di sapere quando usarla e quando no, quando fermarci, quando dubitare.

Sia Anthropic che Ringling, molto più autorevoli di me, stanno lavorando su direzioni diverse che non approfondisco ora. Ma che a mio avviso possono risultare troppo complesse. Quindi tornerò prossimamente sull'argomento della misurazione dell'AI Fluency innestato con i ragionamenti cognitivi sul Sistema 0.
Quindi
Quindi cosa possiamo portare a casa?
Che relazionarsi con l’AI è una questione di mindset, non solo di saper utilizzare strumenti, come facciamo ad esempio con Excel.
Che servono allenamento, consapevolezza, discernimento. E che forse, la vera rivoluzione non è tecnologica, ma cognitiva.
Che, forse, prima di fare grandi progetti, nelle organizzazioni conviene alzare il livello di AI Literacy e di AI Fluency. Un gruppo di persone che sanno collaborare con l'AI anche in attività non ripetitive ma per risolvere le sfide di tutti i giorni è sicuramente un gruppo più interessante di uno che non lo sa fare. Quindi nelle organizzazioni va cercata AI Fluency di gruppo.
Sarei estremamente arrogante se vi dicessi che 'ho trovato la chiave' per relazionarci con i sistemi AI in modo perfetto. E se l'avessi trovata... forse non ve la darei 😀.
Continuerò a ragionare su come migliorare i pensieri dietro l'AI Fluency, sul come misurarla e nel frattempo, a dispetto della FOMO citata all'inizio che viene tenuta alta da un sacco di attori, vi suggerisco di fermarvi un po' e riflettere mentre vi relazionate con l'AI.
Magari tra qualche mese cambierò e cambieremo idea su tutto di nuovo. Non importa.
Per proseguire avrò bisogno di un sacco di feedback e discussioni.
Esiste per voi questa AI Fluency? L'avete sperimentata? Fatemelo sapere, anche in privato.
Andiamo avanti a parlarne o è meglio che mi dedichi a cercare il famigerato ROI dell'AI? 😀
Massimiliano
Riferimenti e ulteriori letture
Clark, A. & Chalmers, D. J. (1998). The Extended Mind. Analysis, 58(1), 7–19.
https://www.alice.id.tue.nl/references/clark-chalmers-1998.pdf
Daly, N. P. (2024). Cognitive bleed: Towards a multidisciplinary mapping of AI fluency & _Educating for AI Fluency: # Educating for AI fluency: Managing cognitive bleed and AI dependency
https://nickpotkalitsky.substack.com/p/educating-for-ai-fluency-managing
Chiriatti, N., Talia, C., & Gerli, D. (2024). The case for human–AI interaction as System 0 thinking. Nature Human Behaviour.
https://www.nature.com/articles/s41562-024-01995-5
Mollick, E. (2024). The current state of research on AI & education. LinkedIn post.
Dakan, K., & Feller, A. (2025). AI Fluency Study (Anthropic).
Comments