Immagina un mondo in cui l'intelligenza artificiale ci circonda, ma anziché temerla, la comprendiamo e la utilizziamo come facciamo con un semplice software.
Questo è il mio primo post e cercherò di esplorare l'essenza dell'IA provando a dare il giusto peso alle paure che ne circondano il concetto. Scoprirai come questi potenti algoritmi non sono altro che strumenti, capaci di realizzare cose straordinarie, ma sempre al servizio dell'umanità. Questa riflessione cambierà il tuo modo di vedere l'intelligenza artificiale e il suo impatto sul nostro futuro?
L'IA è un software...
Nel contesto dell'intelligenza artificiale, è fondamentale capire che, innanzitutto l’IA è un software con molti dati a disposizione: è fatto di righe di codice sviluppate da umani (Magari aiutati da altri software), gira su server, ha una manutenzione sistemistica, consuma energia elettrica, è connesso ad una rete.
Il software è per definizione a servizio di chi lo possiede e ne può quindi disporre.
Il software è spesso definito ‘verticale’ o ‘orizzontale’ a seconda dell’ampiezza dei suoi scopi. Un esempio di software verticale è il CRM, sistema che si occupa di gestire le relazioni con i clienti, sistema che è bene NON usare per gestire gli acquisti aziendali o le risorse umane. Un sistema ‘Orizzontale’ può essere ad esempio un editor di testo che permette di redigere e gestire testi che possono essere fatti per ogni scopo, o un foglio di calcolo.
L'IA ci fa paura...
Ma allora perché l’Intelligenza Artificiale ci fa paura? In fondo è solo software, sono solo dati e algoritmi che hanno però catturato l’immaginazione umana da quando esistono, forse per il solo fatto farci credere di essere in grado di prendere decisioni per conto nostro. Ma sono solo Algoritmi.
Algoritmi che, quando hanno a che fare puramente con numeri, non suscitano molto interesse (Parlare di Machine Learning è spesso noioso se riferito ai puri numeri, e non genera emozioni particolari), che se sono in grado di fare i più grandi e complessi calcoli mai ipotizzati dal genere umano ci lasciano indifferenti: in fondo è il loro compito.
Citando Stefano Quintarelli, forse il problema sta nel nome: INTELLIGENZA ARTIFICIALE supponiamo che all’inizio si fosse parlato, come lui racconta in questo articolo, di Systematic Approaches to Learning Algorithms and Machine Inferences, nessuno ci avrebbe fatto caso. Sarebbe stato tutto relegato nel nostro contenitore mentale di: “Cose tecniche”.
Se invece da quel nome lunghissimo si fosse derivato un acronimo si potrebbe parlare di S.A.L.A.M.I., un concetto che molti di noi conoscono e ci fa tutt’altro che paura. I SALAMI non ci possono minacciare, non comunicano con noi, non sono più bravi di noi, non sono NOI. Sono una cosa diversa. Possiamo parlarne sapendo che siamo in grado di dominarli.
Ma un nome del genere avrebbe creato forse il problema contrario: che la questione sarebbe stata sottovalutata.
Definire “Intelligente” un software invece ci ha fatto nascere un forte bias egocentrico. Abbiamo subito iniziato a confrontare le IA con le intelligenze (o con la stupidità) naturali. E, capito che le loro performance in determinati ambiti vanno oltre le nostre, impersonificandole con delle macchine dalle fattezze umanoidi dotate di un’intenzione si è aperta la grande voragine della paura.
Ma sono solo software, sono solo algoritmi. Potentissimi, magnifici, talvolta paragonabili ad opere d’arte esteticamente bellissime, ma, essenzialmente, di righe di codice e di dati si parla.
Righe di codice che ci fanno paura soprattutto quando sono IA Generative: macinano testo e concetti, come le Chat GPT, BARD(ops, non è ancora disponibile in Europa per problemi di GDPR si crede) o creano fotografie come DALL-E o MidJourney, perché tornano a surclassarci in un ambito che riteniamo ‘umano’. Non voglio dire che un semplice nome avrebbe risolto il problema, le implicazioni che un ‘sistema autonomo’ possono avere in termini di occupazione, economia, sicurezza, sono in prima impressione chiare a tutti.
Tipi di IA
Più in generale vi sono IA definite NARROW (Verticali, che si occupano di singoli compiti) e GENERAL (Orizzontali, quelle che ci fanno paura). Ma quando ci si riferisce ad una Intelligenza Artificiale Generale, o AGI (Artificial General Intelligence) si arriva all’estremo della generalizzazione, l’AGI è quell’intelligenza artificiale che tutti noi immaginiamo essere onnisciente ed onnipotente. Quella che in competizione con noi ci surclasserebbe.
So di aver estremamente semplificato definendola soltanto software ma vorrei proprio ridimensionarla per trasferire il concetto. Sono cosciente, inoltre, del fatto che le potenzialità che ha per noi umani sono inimmaginabile e i benefici che ne trarremo saranno talmente massivi che non riusciamo a comprenderli oggi se non in parte. Ma in questa prima riflessione vorrei concentrarmi sull’immagine che abbiamo di IA / AGI.
L’AGI, a mio avviso, non potrà mai possedere i concetti umani di IO, SONO, VOGLIO/DESIDERO, MI EMOZIONO e MI STUPISCO, decido di FARE, FACCIO. Il suo utilizzo è limitato a compiti specifici e programmabili che per quanto vasti non potranno arrivare a questo. Ovvero non potranno arrivarci negli stessi termini in cui arriva un umano. È e rimane un software che AGISCE in base a quanto noi VOGLIAMO senza tenere conto, come facciamo noi umani, delle proprie emozioni del momento. Anche se può eseguire molti compiti in fila come AutoGPT rimane un SALAMI.
Ad oggi la realizzazione di un’AGI è parecchio lontana per molti altri fattori, che magari approfondirò in seguito, tra cui, la conoscenza del ‘buon senso’, la complessità nel realizzarla, la disponibilità di sufficiente capacità di memorizzazione di informazioni e di calcolo, la sua assenza di interazioni sociali, di emozioni, di intuizione, di vera comprensione del linguaggio naturale.
Questa distanza tra l’IA e l’AGI è un vantaggio per noi senzienti. Abbiamo forse lo strumento più evoluto che il genere umano abbia mai avuto a disposizione, che rappresenta un'estensione delle nostre capacità (un po’ come si diceva il telefono era un’estensione del nostro corpo) e ci permetterà nel tempo di evolvere assieme. Integrando la sua precisione e rapidità con la nostra creatività, intuizione e comprensione del contesto possiamo divenire sicuramente qualcosa di diverso.
Software vs umani
Ma seguitemi ancora per un po’ sul mero concetto di software.
Intelligenze Artificiali Generative (non generali!), come Chat-GPT, sono dei software con degli algoritmi molto sofisticati che si ‘nutrono’ di grandi quantità di dati per produrre degli output a fronte di richieste di azione specifica di un umano che li utilizza.
Rispondono, come scrivevo, a un DEVO imposto dall'esterno, e non hanno la consapevolezza, le emozioni o l'autonomia di un essere umano.
Le persone invece, non mi soffermerò su come sono fatte, possiedono un senso dell'IO, una percezione del SÉ (SONO), bisogni e desideri (VOGLIO/DESIDERO), le EMOZIONI che li condizionano , lo STUPORE e la MERAVIGLIA, la VOLONTÀ e la capacità di agire (FACCIO) direttamente o tramite strumenti. L’IA è ‘soltanto’ un evolutissimo insieme di strumenti che, in diversi ambiti, ci dovrebbero essere utili per risolvere NOSTRI problemi. A seguito di una VOLONTÀ umana e di un nostro DESIDERIO.
L'IA di oggi e l’AGI di domani sono e saranno un insieme di strumenti creati per eseguire compiti specifici, per obbedire a comandi senza interrogarsi sulle ragioni dietro alle sue azioni (ad eccezione magari di qualche limite imposto da norme o buon senso unani). Non hanno una coscienza o un'intenzionalità propria, e non proveranno emozioni o desideri come gli esseri umani.
Se vogliamo dirla tutta i sistemi come ChatGpt sono dei grandi opportunisti che furbescamente lasciano ad altri la responsabilità, limitandosi a eseguire ciò che viene chiesto. Un po' come dei bravi soldati.
"... ChatGPT mostra qualcosa di simile alla banalità del male: plagio, apatia e oblio. Riassume le argomentazioni standard della letteratura con una sorta di super-autocompletamento, si rifiuta di prendere posizione su qualsiasi cosa, invoca non solo l'ignoranza ma anche la mancanza di intelligenza e, infine, offre una difesa "seguendo solo gli ordini", scaricando la responsabilità sui suoi creatori". Noam Chomsky
(E aggiungo, sui suoi utilizzatori)
L’intenzionalità
All’IA manca quindi l’intenzionalità e non è responsabile di nulla!
Un’IA può essere ad oggi intenzionale? Per intenzionale intendo: attivare un’azione al seguito del cambiamento di un contesto. Reagire ad uno stimolo di sua iniziativa, alzarsi al mattino e decidere di fare una determinata cosa solo perché gli va.
Mi sono posto molte volte queste domande perché è nell’intenzionalità che si annida la responsabilità. E questo è un concetto interessante da sviluppare. Possiamo parlare di intenzionalità di un software? O dovremo parlare di intenzionalità e responsabilità dei suoi creatori? E cosa succede quando il programmatore ottiene dal suo codice risultati che non si sa spiegare? Di chi è la responsabilità?
E se entriamo nel merito dell’etica della responsabilità o dell’intenzione quale può essere il livello di moralità attribuibile ad un’IA?
Parentesi giuridica
Giuridicamente parlando, anche se non sono un giurista (e chiedo scusa a tutti quelli che conosco) ma ho ‘soltanto’ avuto a che fare decine di volte con grandi responsabilità correlate ai software che avevo prodotto, l’IA non rientra nel novero del concetto di Persona Fisica o Persona Giuridica. Ad eccezione di qualche esempio, più propagandistico e provocatorio che altro, in cui ad un robot è stata attribuita una cittadinanza, ad oggi l’unica responsabilità giuridica attribuibile ad un’IA è legata alla persona Fisica o Giuridica che sta dietro ed avanti ad essa. Ed è l’unico modo che io possa immaginare, ad oggi, per stabilire limiti, responsabilità, giudizi etici su uno strumento.
Amoralità, etica, emozioni
Tornando alle intenzioni, in fondo però anche noi non agiamo mai da zero. Partiamo sempre da uno stimolo, da un’emozione, da un fattore esterno. Ogni nostro gesto è figlio di una reazione, sia essa fisiologica, interna o esterna. Nulla parte dal nulla. Ma noi pensiamo di essere indipendenti nelle nostre iniziative.
Noi valutiamo questi stimoli con la nostra esperienza, il contesto culturale in cui viviamo, le nostre credenze e speranze. Ci facciamo influenzare dalle emozioni durante il processo intenzionale e poi agiamo.
Forse l’unica grande differenza con un’IA è che lei non prova emozioni, non si stupisce, non può reagire a reazioni chimiche come quelle presenti in un organismo umano. Ed è pure amorale come abbiamo letto poco fa.
È essenziale affrontare il concetto dell'amoralità dell’IA per completare questo superficiale quadro. L'IA è amorale perché non possiede la capacità di comprendere o seguire principi etici o morali diversi da quelli dei suoi creatori. Essendo un software, l'IA è uno strumento creato e programmato dagli esseri umani e, come tale, non ha una coscienza o un sistema di valori intrinseco. Non ha un’etica che le permetta di capire cosa è bene e cosa è male (Argomento sul quale si potrebbe parlare a lungo). Non ha un DNA che le permette di elaborare pensieri e di imparare senza un insegnamento esplicito. Solo i suoi creatori ce l’hanno.
La mancanza di etica nell'intelligenza artificiale deriva dalla sua natura non senziente e non autonoma, come discusso in precedenza. Poiché l'IA non ha una percezione del SÉ (SONO), desideri e volontà (VOGLIO/DESIDERO), EMOZIONI o la capacità di agire (FACCIO), non può essere considerata responsabile delle proprie azioni o delle conseguenze che ne derivano. Responsabili sono coloro che l’hanno progettata, la gestiscono, la utilizzano. Come già scritto, non avendo emozioni o esperienze personali, l'IA non può sviluppare empatia o discernimento morale, non si può arrabbiare o innamorare, non può avere paura. Può solo imitare queste sensazioni in base ai dati che le vengono forniti.
Ma solo per spiegarsi con noi.
Sono cosciente che si possa parlare di conoscenza e comprensione quando ci si riferisce al lavoro prodotto da un'IA Generativa, sembra veramente di essere davanti ad un'intelligenza simile a quella umana. Ma questa è una metafora 'antropocentrica' che da un lato ci aiuta ad accettare un'output, dall'altro ci fa temere di essere davanti ad un rivale.
Quindi…
In sintesi, le potenzialità dell'intelligenza artificiale sono esprimibili nel momento in cui, abbiamo riconoscere i limiti imposti dalla sua natura non senziente, non responsabile, amorale e non autonoma e concentrarci su come combinarla con le nostre uniche capacità umane, quali il senso dell'IO, la percezione del SÉ, i desideri, la volontà e la capacità di agire. Il tutto stando sempre molto attenti alle emozioni.
Ho provato a spiegare questo concetto in un libro che ho scritto tre anni fa. Un Romanzo dal titolo Glimpse, che dà anche il titolo a questo blog, in cui si racconta della nascita incontrollata di un’IA che arriva a conoscere nel profondo il funzionamento di un corpo umano, del suo sistema nervoso, del suo cervello.
Non ho voluto scrivere solo per aggiungere un ennesimo romanzo di fantascienza al vastissimo catalogo di genere, ma per far riflettere sulla quantità di lavoro necessaria affinché un’IA possa arrivare a percepire sé stessa come entità autonoma e comprenda, non provi, le emozioni umane.
Un’IA non potrà mai provare emozioni umane, non potrà meravigliarsi, perciò non sarà mai umana. E anche ammesso che l'umanità sia definita solo dall'intellligenza, non vivrà mai in un corpo al 100% biologico
Anche se ciò accadesse non avrebbe l’esperienza di vita dal parto all’infanzia all’adolescenza all’età adulta, non potrebbe avere traumi o ricordi personali, non potrebbe ricordare sensazioni o odori che hanno definito la sua personalità ed i suoi gusti. O almeno questa possibilità e lontana centinaia, forse migliaia di anni in termini tecnologici.
Nel libro si trova il modo di far percepire ad AN, il nome che ho dato all’AGI, che in cinese significa PACE, il ruolo delle emozioni nei comportamenti umani. E la maggior parte del suo ‘dibattimento interiore’ quando deve operare delle scelte ruota attorno proprio alla difficoltà che, lei percepisce, essere quotidiana in noi umani.
Ho cercato di farne uscire un quadro di speranza dato che AN cerca di aiutare il genere umano arrivando ad immaginare come potrebbe potenziarci se fosse totalmente benigna.
Ma il concetto di base, dal mio punto di vista, è che non è l’IA ad essere dannosa; ciò che è pericoloso è l’utilizzo che noi ne facciamo.
Il problema siamo noi!
L’IA non ha una sua morale ma ha la nostra morale, non ha un’etica ma la NOSTRA etica. Non può sapere cosa sia moralmente inaccettabile se non glielo insegniamo.
Tuttavia, questa amoralità non implica necessariamente che l'IA sia dannosa o pericolosa. Al contrario, ciò significa che gli sviluppatori e gli utenti di intelligenza artificiale hanno la responsabilità di garantire che l'IA sia utilizzata in modo etico e responsabile. Gli esseri umani devono essere consapevoli dei limiti dell'IA e guidarne l'applicazione nel rispetto dei principi etici e morali.
Per garantire ciò è fondamentale che programmatori ed esperti di intelligenza artificiale collaborino nello sviluppo di sistemi IA che tengano presente le implicazioni etiche delle loro applicazioni ed è imprescindibile che le aziende in possesso di IA siano guidate da principi corretti.
Questo aspetto mi preoccupa notevolmente, poiché, lo ribadisco, noi siamo il vero problema e abbiamo tutti esperienza di come si comporti il genere umano davanti a strumenti troppo potenti.
Vietarla in nome di leggi e balzelli non farebbero altro che alimentare progetti la cui moralità potrebbe essere, a dir poco, dubbia.
Ricordiamoci quanto abbiamo parlato di resilienza negli ultimi anni: pensiamo a oggetti come Opera con la sua semplice VPN e openaccessgpt.com, o a Pizza GPT che di fatto hanno bypassato il blocco, pensiamo all'assurdo di bloccare chatGPT ma non le sue API o Bing. Scrivere appelli per ritardare le IA di sei mesi non potrà fermare quest’onda che ormai è straripata.
Comments