Ovvero: come ottenere risultati migliori con i propri prompt.
Sempre più persone stanno usando i Chat-AI come GPT, Bard, Claude. Sempre più persone mi raccontano quanto sono contente dei risultati che stanno ottenendo.
Molte di loro però sono perplesse, a volte arrabbiate, perché non riescono ad ottenere ESATTAMENTE quello che vogliono.
E spesso se la prendono con l’AI, la prendono in giro, la sminuiscono, difendendo il primato umano.
È un problema di aspettative? Di nostre competenze o dell’AI?
Di cosa hanno bisogno da noi le GAI?
Le GAI (Generative Artificial Intelligence) ci stanno abituando ad interfacce sempre più semplici. Ora basta saper scrivere per azionarle.
Ma ricordiamoci che sono pur sempre dei software:
Hanno quindi bisogno di essere conosciute.
Hanno bisogno che noi comprendiamo i loro limiti perché loro non lo sanno fare.
Hanno bisogno che raccontiamo loro le cose in modo chiaro e preciso, che descriviamo minuziosamente i risultati che ci attendiamo da loro.
Hanno bisogno, in sostanza, di OTTIMI PROMPT!
A prima vista sembra facile: siamo abituati ad eseguire cose in sequenza in base alla nostra esperienza ogni volta che produciamo qualcosa: un testo, un’immagine, un codice, una relazione e pure una mail o un messaggio whatsapp.
Ma il processo attraverso il quale la nostra intuizione diventa un’azione è solitamente mentale, non dichiarato. È la nostra mente che elabora i concetti, poi il nostro corpo esegue ciò che la mente gli dice di fare.
Ma, se ci ragionate bene, noi non pensiamo mai a voce alta ai singoli passaggi.
Quando ci arriva un messaggio con scritto
“Ciao, sono Riccardo, mi puoi girare la presentazione sul prodotto XY che hai fatto la scorsa settimana al team Marketing?”,
sappiamo esattamente come cliccare su RISPONDI e allegargli il documento richiesto, magari inserendo una nota, che ci ricordiamo di fare finché componiamo la mail, per ringraziarlo della richiesta. Tutto in automatico senza troppo pensare.
Ma con un’AGI dovremo pensare a tutte le azioni da compiere, descriverle minuziosamente, preoccuparci all’inizio di tutto ciò che dovrà fare e poi spiegarglielo. Qualcosa tipo:
“Recupera la presentazione fatta Mercoledì 7 luglio alle 14.45, salvala in PDF, manda il PDF in allegato via e-Mail, poi dì a Riccardo che sei contento che ti chieda la presentazione con un tono informale, salutalo e proponigli di vederci qualche volta per parlarne.”
Immaginate questa problematica portata su problemi più complessi: siete capaci di descrivere minuziosamente ogni passaggio logico che deve essere fatto?
Spiegare esattamente ciò che si vuole, come lo si vuole eseguito, è una capacità di pochi: richiede chiarezza di visione nelle cose, capacità di comunicazione scritta, abilità di scomporre concetti complessi.
E se le GAI sono di origine americana, sarebbe meglio imparare a far loro domande in Inglese per ottenere risultati ancora migliori.
Quindi, quale è una competenza fondamentale per usare le GAI? Saper comunicare per iscritto e saper comprendere i risultati in modo critico.
GIGO (Garbage In → Garbage Out)
Un vecchio adagio dell'informatica, Garbage In → Garbage Out (GIGO), sostiene che se inserisci dati di scarsa qualità in un sistema, otterrai risultati di scarsa qualità. Questo vale particolarmente anche per l'AI.
Questo è un grosso problema che viene per lo più affrontato durante le fasi di addestramento dei modelli (seppur con i limiti dell’etica, della cultura di chi lo fa, dei suoi bias). Ma si applica anche ai prompt.
Se la vostra domanda è vaga, confusa o mal formulata, otterrete risposte che possono sembrare buone, ma che presenteranno gli stessi difetti della domanda iniziale.
Potete rendervene conto chiedendo alle AGI informazioni argomenti che conoscete molto bene, su cui siete competenti. È sempre importante bilanciare queste aspettative con la consapevolezza dei loro limiti.
Ad esempio io faccio un sacco di fatica a spiegare a MidJourney, un’AGI specializzata nel generare immagini, come voglio che l’immagine venga generata. Perché non sono esperto in materia, non so descrivere bene le immagini. E questa cosa mi frustra parecchio, mi fa perdere molto tempo, richiede che io studi e provi ancora e ancora, perché mi aspetto che MidJourney sia capace di fare di più. Ma il problema sono io come vedete da queste immagini generate. Io volevo solo un flusso di dati immondizia che arrivasse da sinistra, passasse da un’AI ed uscisse a destra sempre come immondizia: direi che non ce l’ho fatta!
In sostanza: più sappiamo, e siamo condizionati da ciò che abbiamo appreso, più sappiamo di non sapere.
Se non sappiamo nulla, smanettiamo un po’ e ci aspettiamo di essere esperti e che le GAI risolvano per noi tutti i problemi. E se non lo fanno diamo la colpa a loro.
L’effetto Dunning Kruger
Questo è un concetto filosofico e psicologico molto complesso e non sarò certo io a spiegarlo per la prima volta visto che già Socrate ne parlava con il suo “so di no sapere”.
Ma ritengo fondamentale condividerlo perché una volta compreso ci può aiutare ad ottenere risultati diversi (in molti campi della vita).
Cercando di essere il più semplici possibili:
L'effetto Dunning-Kruger è un concetto psicologico che descrive una distorsione cognitiva. Secondo questa teoria le persone con limitate competenze o conoscenze in un determinato campo tendono a sovrastimare le proprie capacità, mentre le persone altamente competenti tendono a sottostimare le proprie (anche se non sempre).
Gli psicologi David Dunning e Justin Kruger, dell'Università di Cornell, hanno sviluppato questa teoria nel 1999. Secondo loro, la mancanza di consapevolezza dell'incompetenza deriva dal fatto che le competenze necessarie per essere bravi in un determinato campo sono spesso le stesse competenze necessarie per riconoscere la competenza.
In altre parole, chi non ha competenza in un campo non ha nemmeno le competenze necessarie per riconoscere la propria incompetenza. Al contrario, le persone molto competenti tendono a presupporre, erroneamente, che le competenze che possiedono siano comuni a tutti.
Il risultato di questo fenomeno è che le persone con un basso livello di competenza tendono a sovrastimare le proprie capacità, mentre le persone con un alto livello di competenza tendono a sottostimare le proprie. Questo può portare a una serie di problemi, tra cui la mancanza di preparazione, l'eccesso di fiducia e la presunzione di competenza dove non esiste.
Ne soffrono anche le AI?
Certo!
Ci sarebbe da parlare anche del fatto che ne soffrono i Social e un po’ tutto il Web ma qui ci concentreremo solo sulle AI.
Le AI non sono coscienti e conoscono ciò che è stato dato loro in input come dato di addestramento. Non sono curiose e, ad oggi, non sono nemmeno in grado di ‘decidere di studiare da sole’ come farebbe qualunque umano.
Non hanno la capacità di riconoscere i limiti della propria competenza, né di capire quanto poco sanno al di là dei dati con cui sono state addestrate.
Inoltre, proprio come una persona con un basso livello di competenza potrebbe sovrastimare le proprie capacità, un sistema di AI potrebbe "credere" di essere in grado di svolgere compiti per i quali non è stato adeguatamente addestrato, producendo risultati inaffidabili o addirittura pericolosi. (qui non posso non citare i miei due post sulle allucinazioni delle AI)
Se poi diamo per scontato che loro sappiano ‘tutto ciò che c’è da sapere’ capite quanto sia facile ottenere risultati scarsi, fuorvianti o pericolosi.
Insomma, una specie di l'effetto Dunning-Kruger incrociato.
Alcuni di noi possono sovrastimare le capacità delle macchine, credendo che l’AI possa fare di più di quanto è attualmente possibile, mentre altri possono sottostimare le capacità dell'AI, non rendendosi conto di quanto possa essere avanzata e di come possa essere utilizzata efficacemente. Il tutto mixato con la nostra presunzione o meno di competenza.
In entrambi i casi, le chiavi per superare questo tipo di bias sono l'educazione e la consapevolezza.
Così come la consapevolezza della nostra ignoranza può aiutarci a diventare più saggi e meno condizionati, la consapevolezza dei limiti e delle potenzialità dell'AI può aiutarci a utilizzarla in modo più efficace e responsabile.
QUINDI…
Prendere per oro colato ogni flusso di immondizia che un’AI ci fornirà in risposta alla nostra domanda mal posta non farà altro che sommergerci di errori e bias, sia umani sia sintetici.
Se delegheremo in toto alle AI ogni risposta senza preoccuparci di controllarla e di approfondirla, le probabilità che diventiamo ancora più pigri e incompetenti sono evidenti.
Ma se ci sforzeremo, ed avremo l’umiltà, di continuare a migliorare ed apprendere come usarle, di sfruttare i loro risultati per migliorare i nostri aggiungendogli quel ‘tocco di umanità’ gli effetti ed i benefici saranno esponenziali.
D’altro canto, sottostimarle troppo perché non ci danno i risultati desiderati rischia di farci perdere opportunità immense.
Quindi, la prossima volta che utilizzi un'intelligenza artificiale, ricorda che tu sei l'umano, colui che sa, colui che decide. Prendi la responsabilità delle tue parole e dei tuoi pensieri. L'AI è solo uno strumento.
Ricordati anche che quando usi un’AI stai imparando. Stai imparando la tecnologia, ma anche sui temi di cui stai chiedendo, e specialmente su te stesso: come pensi, come ti esprimi, come definisci i problemi e come interpreti le risposte. Stai sviluppando nuove abilità, nuovi modi di pensare e nuove prospettive.
Come sempre, vi invito a riflettere, a fare domande, a far girare le idee. E se non siete iscritti al blog fatelo ora per rimanere aggiornati.
Se vi è piaciuto questo post, oppure no, fatemelo sapere nei commenti o contattatemi!
Alla prossima!
Commentaires