top of page

ChatGPT e Memoria: cosa è cambiato

Aggiornamento: 5 giorni fa

Capitolo 2: La differenza tra sperare e sapere


Qualche mese fa vi avevo lasciato con una promessa: "Tra qualche settimana tornerò con più dettagli, osservazioni concrete e, forse, qualche sorpresa su come questa memoria artificiale stia plasmando la mia esperienza digitale e umana."


Se non avete letto il primo articolo, lo trovate qui in italiano e qui in inglese.




Beh, ci ho messo un po' più di qualche settimana. Ma nel frattempo sono successe un sacco di cose più interessanti di un semplice test: tutti gli altri player principali, non solo OpenAI, hanno rilasciato funzionalità dedicate alla gestione della memoria a lungo termine o, come dice qualcuno più esperto di me, a "Soluzioni che arricchiscono automaticamente il contesto".

E io sono pure riuscito a costruirne una tutta per me.

Andiamo per gradi.


Il blob fangoso della memoria di ChatGPT, mesi dopo


Ricordate il "blob fangoso" di cui parlavo? Quella massa informe di ricordi che ChatGPT accumula senza che voi possiate capire cosa ci sia dentro?


Dopo mesi di utilizzo della memoria estesa, posso confermare: è esattamente così.


Cosa ho scoperto:


  • Ricorda di dimenticare - Ho chiesto a ChatGPT di dimenticare una conversazione inutile su un personaggio di un libro che stavo scrivendo, Gigi. Risultato? Puntualmente torna a dirmi "come il personaggio, GIGI, che mi hai chiesto di dimenticare." Grazie, molto utile. Nei workshop faccio l'esempio che mi piace il pane al cioccolato. Bene, ricorda che lo memorizzo e poi lo cancello (lo legge dalle conversazioni) e non riesce più a dimenticarlo.


  • Non ricorda quello che serve - Quando ho chiesto di una conversazione specifica sui "Paraprosdokians" (figure retoriche che adoro, perchè sono le uniche situazioni nelle quali l'AI mi fa ridere), non se la ricordava affatto. Sparita nel nulla. Ma se la cerco nell'elenco conversazioni la trovo. Questo significa che o non indicizza tutto o non funziona bene.


  • Riassume per elementi generici - Non memorizza dettagli, fa un "riassuntone" secondo criteri che solo gli algoritmi del provider conoscono. E che voi non potete ispezionare. Almeno Claude e Gemini fanno ricerche nelle conversazioni, se proprio non volete che si ricordino qualcosa 'basta' cancellare quella specifica conversazione.


  • Timeline bucate - Gli ho chiesto una timeline dei nostri scambi: ricorda qualcosa ad agosto 2023, poi salta direttamente a settembre 2024. Mesi interi evaporati.


La sensazione è quella di avere un collega che "forse" si ricorda delle cose, ma non siete mai sicuri di cosa. E le sue priorità sono definite fuori dall'ambiente di lavoro che interessa a voi (Frase criptica, lo so, rileggetela).



Il mercato oggi: chi ricorda cosa e come


Mentre ChatGPT sperimentava con il suo blob fangoso, tutti gli altri player si sono mossi. E ognuno ha scelto una strada diversa.


Ho fatto una ricerca approfondita su come i principali provider (OpenAI, Anthropic, Google, Perplexity, Microsoft, Meta, xAI) gestiscono la memoria e la continuità.


Il risultato? Non esiste un approccio standard.


Alcuni automatizzano tutto (ChatGPT), altri ti danno controllo manuale (Claude), altri ancora si integrano con i tuoi dati social (Meta) o aziendali (Copilot). Le finestre di contesto vanno da 128k token a 2 milioni. Le funzionalità di ricerca sono completamente diverse. Le filosofie pure.


Ho raccolto tutto in un Notebook interattivo dove potete:

- Esplorare le caratteristiche di ogni provider

- Confrontare approcci "opachi" vs "trasparenti"

- Trovare risorse e link di approfondimento

- Giocare con i dati per capire quale soluzione fa per voi


Tenete conto che ci troverete qualche imprecisione, proprio per problemi di memoria, perchè non riesce a non ricordare un fatto errato (ovvero che Anthropic di default non usa i vostri dati di memoria per fare training di nuovi modelli).


La domanda che emerge è sempre la stessa: quale di questi approcci ci dà davvero il controllo?



Il problema di fondo: memoria opaca vs memoria visibile


Il problema non è che l'AI abbia memoria. Anzi, è utilissima e sarà sempre più fondamentale. Il problema è che non sapete cosa ricorda, perché, e se quella memoria tornerà al momento giusto.


Pensateci:


  • Informazioni fantasma - L'AI cita un dato che "ricorda" da una conversazione passata. Peccato che quel dato fosse sbagliato già allora, e ora lo ripete come fosse vero.


  • Contaminazione tra progetti - Avete parlato di due clienti diversi in chat separate. L'AI mescola i dettagli dell'uno con l'altro. Voi non ve ne accorgete. Se vi va bene fate solo una figuraccia.


  • Confidenza senza fondamento - Vi risponde con sicurezza usando "quello che sa di voi". Ma non potete verificare cosa sa, da dove l'ha preso, se è aggiornato. (Vedi articolo precedente)


  • Il bias silenzioso - Ha "imparato" che preferite un certo stile. Ma l'ha imparato da una conversazione in cui stavate scherzando. Ora lo applica sempre. E smette di sfidarvi, di portarvi fuori dal comfort. E lo ha propagato in cinquanta conversazioni sparse che usa come base della memoria e che ci metterà mesi, forse, a dimenticare.


Quando sbaglia, lo fa con la stessa sicurezza di quando ha ragione. Vi trovate a sperare che ricordi, invece di sapere con certezza cosa sa.



Memoria Opaca

Memoria Visibile 

Cosa contiene

Non lo sapete

Lo vedete in file che controllate

Come modificarla

Cancellate e sperate

Editate direttamente

Chi decide cosa è importante

L'algoritmo del fornitore

Voi

Quando viene usata 

Quando l'AI decide

Quando voi la richiamate

Errori

Invisibili, persistenti

Individuabili, correggibili



La soluzione su cui sto lavorando: miniMe


Nel frattempo che testavo il blob fangoso di ChatGPT, stavo costruendo qualcos'altro.


Si chiama miniMe, è il mio assistente personale, ho raccontato la teoria che sta dietro poco tempo fa. E ricorda tutto quello che gli ho detto di ricordare. Ma in modo completamente trasparente. Lo trovate qui | Read it here


Come funziona? Banalizzando memorizza tutto in cartelle che controllo e con file markdown (.md).


In quei file c'è scritto chi sono, come lavoro, quali sono le mie regole, dove stanno i miei progetti, qual è il mio tono di voce, libri, post, tutto. Tutto in chiaro. Tutto modificabile. Tutto sotto il mio controllo.


Quando miniMe lavora con me: - Sa già il contesto - Non devo rispiegare chi sono ad ogni conversazione - Accede ai miei file - Legge e scrive direttamente sul mio computer - Segue le mie regole - Quelle che ho scritto io, non quelle di un algoritmo - Impara quello che decido io - Se voglio che dimentichi qualcosa, lo tolgo dal file. Fine.


È come avere un collega con cui condividete una cartella. Non dovete spiegargli il contesto ogni volta. Sa già tutto. Dovete solo ripartire da dove eravate rimasti ieri.


Che poi è un po' più complesso (Per chi vuole entrare un po' di più nel tecnico).

Ogni volta che semplifico troppo, come ho fatto in questo post, qualche ingegnere nel mondo inizia a soffrire, lo so. Chiedo scusa.


Lavorare con agenti di ricerca richiede parecchi approfondimenti tecnici che non sono oggetto di questo post. in miniMe ci sono agenti e skill dedicati che cercano documenti all'interno del progetto, nell'hard drive del mio computer e nelle cartelle di rete connesse, nelle conversazioni fatte con lui, o in un database vettoriale, e mi restituisce frammenti di memoria che posso decidere di usare o no.


Per chi non lo sapesse, un database vettoriale è un archivio che trasforma i testi in numeri (vettori) che rappresentano il loro significato. Quando cerco qualcosa, non cerca parole esatte ma concetti simili: se chiedo "come gestire un team difficile" trova anche documenti che parlano di "leadership in situazioni complesse" anche se non contengono quelle parole. È come avere un bibliotecario che capisce cosa intendete, non solo cosa dite.


Ultimo, ma non meno importante, miniMe utilizza il protocollo MCP (Model Context Protocol) che gli permette di dialogare con altre applicazioni (ad esempio CRM o ERP o nella vostra posta elettronica). Connettendo -non senza rischi- questi sistemi alla vostra AI preferita avrete la possibilità di avere il controllo completo di quello che vi serve, all'80%.


La differenza fondamentale rispetto ad usare ChatGPT? Non spero che ricordi. So cosa sa e come porta a galla le informazioni. E se qualcosa non mi torna posso immediatamente verificarlo.


È perfetto? No.


Quindi

La memoria delle AI non è un problema, anzi è una feature potentissima che ha cambiato per sempre la qualità delle risposte e dei casi d'uso in cui si può applicare.


Le memorie chiare le potete usare senza problemi. Sono file, cartelle, documenti. Li vedete, li modificate, li organizzate come volete. Li potete condividere, versionare, cancellare. Sono vostri.


Le memorie opache possono crearvi problemi problemi. Non sapete cosa contengono. Non sapete quando intervengono. Non sapete se stanno introducendo bias nelle risposte. E quando sbagliano, non sapete nemmeno che hanno sbagliato.


Il problema è chi la controlla e come influenza il modo di lavorare con gli Assistenti..


Se usate assistenti AI con la memoria attiva, fatelo consapevolmente: - Periodicamente controllate cosa ha memorizzato (Impostazioni → Personalizzazione → Memoria) - Cancellate le conversazioni che potrebbero deviarlo - Non date per scontato che "sa" qualcosa solo perché gliel'avete detto una volta - Accendete e spegnete la memoria tra le conversazioni a seconda del fatto che possa servirvi o no. e siate consapevoli, quando è attiva, che potrebbe sbagliare e non poco.


Ma se volete fare il salto, se volete passare dallo "sperare" al "sapere", la strada è un'altra: costruirvi o utilizzare un ambiente dove la memoria la controllate voi.


Non è per tutti, richiede un po' di setup iniziale. Ma una volta fatto, il cambio di paradigma è radicale.


miniMe è la prova che si può fare. E che funziona.


E la domanda finale appunto è: volete sperare o volete sapere? E credo ci terrà impegnati per i prossimi anni.



Enjoy AI Responsibly!

Max


bottom of page