top of page

Apple, O3-Pro e la singolarità gentile di Sam Altman

Aggiornamento: 12 giu

Stava quasi spegnendosi il rumore sul paper di Apple che critica(anche giustamente) i modelli di Reasoning, dimostrando perchè non possono davvero pensare (ma va!), ero quasi pronto a parlarne. Poi OpenAI ha rilasciato il suo modello 'pensante' più potente. Infine Altman ci dice che la singolarità è già qui.

Chat GPT Che interpreta i tre protagonisti di questo post
Chat GPT Che interpreta i tre protagonisti di questo post

Questo post semi-serio è una reazione istintiva a tre segnali che raccontano molto su dove stiamo andando.

Non potevo non scriverne subito, troppi neuroni si sono accesi tutti assieme. Provo quindi a fare una sintesi.


1) Apple che ci avverte sui modelli di ragionamento


Non c’è bisogno di un paper che ci ricordi che il ‘ragionamento’ è una prerogativa umana. Nel senso che è un termine che abbiamo conato per noi umani.

Questi modelli fanno qualcosa di simile ma molto diverso nel contempo, e come accade nei cervelli biologici, stiamo ancora cercando di capire come funzioni.

Per banalizzare chiamiamolo inferenza (lo so che non è esattamente così, dico al tecnico più bravo di me, scusate, ma mi serve un termine diverso).


Il punto è che tutto ciò che è umano, traslato sull’AI (Altro nome che prende in prestito malamente l'intelligenza), ci fa paura. Soprattutto quando, nel 90% dei casi (sono ottimista) non sappiamo di cosa stiamo parlando.


E quindi cerchiamo ogni pretesto per raccontarci che ‘non può essere come noi’. Non potrà mai essere alla nostra altezza. Cerchiamo di allontanarlo e ridurne le dimensioni, sperando che questo ci faccia stare meglio.

E il risultato è che un paper estremamente tecnico ha avuto più copertura mediatica del prossimo matrimonio di Jeff Bezos.


Questa paura, non ci fa vedere che, pur avendo ragione, abbiamo a che fare con entità ben più potenti in termini di velocità di noi, ben più capaci di unire miliardi di puntini, adattarsi a diversi contesti, fornire ipotesi di soluzione a problemi in modalità estremamente innovative.

Le AI, diversamente da noi, hanno ambiti nei quali brillano come una meteora nel cielo e fanno impallidire la luce del nostro cervello-candela.

Ma sono entità altrettanto imperfette, approssimative, addirittura scandalosamente stupide su aspetti per noi banali.

Ma tra umani adulti, tolte alcune eccezioni di sapiofilia, ci interessano le conclusioni e i risultati e non i passaggi logici.


L’assolutismo (o è tutto bene o è tutto male) ci impedisce, tra l’altro, di fermarci a ragionare ed avere spirito critico. Non c'è l'AI che non ragiona. Ci sono 'alcune AI' che sanno o non sanno dare certe soluzioni.


Quindi grazie Apple per avercelo detto, scopriremo quanto era disinteressato il tuo studio, se lo hai fatto anche tu per il bene dell’umanità.


P.s. qui trovate una discussione tra me e O3 sulla sua incapacità di ragionare. Come ha osservato il solito iper-attento Alberto Romero, è buffo chiedere di ragionare ad un modello di ragionamento sull'incapacità di ragionare dei modelli di ragionamento.

Ho chiesto ad O3Pro, di cui parliamo nel prossimo paragrafo, cosa ne pensi. Qui il suo racconto.


2) O3-Pro: l'attesa è finita. Ma a cosa serve?

Oggi Open AI ha rilasciato O3-Pro, il modello di punta dei modelli di punta. Aggiornato ben ad un anno fa come cutoff di conoscenza, il padre di O3 e O3-mini.

Un modello che è così complesso e intelligente che, a qualche ora di distanza dal suo rilascio, non ho domande sufficientemente intelligenti da fargli per dimostrarvi quanto sia potente.

Vi è mai capitato di incontrare personalmente un luminare in qualche materia, un vostro idolo che avreste sempre voluto conoscere? E al suo cospetto siete rimasti muti pensando: "Qualunque domanda gli farò sarà stupida per lui, meglio non farne." ? Ecco l'impressione è stata questa. Non tanto per rispetto o perché lui sia per me un idolo. Ma perché lui si atteggia così.

Gli fai una domanda e lui prende un sacco di tempo per pensare, mostra poco dei suoi pensieri, e in alcuni casi mi ha dato risposte che mi richiederanno parecchio tempo per essere verificate.


Lento da morire nel dare anche risposte banali: 13 minuti per dirmi cosa sa fare. Vedere per credere! Cose che trovo nella scheda di presentazione del modello in un attimo.

Sembra proprio di disturbarlo quando gli chiedi qualcosa.


Mi ha fatto venire voglia di fare un GPT che, in attesa che venga rilasciato a tutti e possiate provarlo, vi da un'idea di come vedo il rapporto con lui. Qui il link per provarlo e qui per vedere una surreale conversazione con questo GPT.


Come ha scritto Apple e come sappiamo, i reasoning models hanno limiti evidenti. Credo che vada messo alla prova più sul serio di quanto ho fatto, e noi umani siamo lenti, qualche settimana almeno servirà per prendere un po' confidenza e vedere dove si spinge.

Per ora sappiate che esiste e, se avete una versione PRO o Teams, provate a metterlo alla prova.


3) Sam Altman e la singolarità gentile


Il post di Sam Altman è uscito nella notte italiana dell'11 giugno, poco prima del rilascio di O3-Pro.

Di base dice che abbiamo passato il limite oltre la singolarità, siamo già dall'altra parte. La singolarità -in breve- è un punto oltre il quale non siamo più in grado di capire cosa accade aldilà.


Affermazione in cui, a volte mi ritrovo: come ho scritto prima sono cosciente che, in alcuni ambiti, un sistema come O3-Pro (ma anche GPT 3.5), abbia capacità di fare cose (non perfette) che io semplicemente non comprendo. Per ignoranza o per eccessivo sforzo cognitivo richiesto. Ma non le capisco. Punto.


Quindi un po' di singolarità , se vi va bene questo mio concetto parziale, esiste già da un bel po'.

In Glimpse (Il mio romanzo sulla singolarità, appunto) racconto quanto ciò che accade, succeda in pochi istanti e, improvvisamente, si faccia un salto in un mondo nuovo ed affascinante, di cui pochi però si rendono conto.


Non credo che la singolarità possa essere gentile, inclusiva, imparziale, democratica.


Gentile è un termine di marketing. La velocità con cui si sta muovendo il mondo cerca efficienza cieca da questa tecnologia. E un appello di Altman a regolamentare la tecnologia (Risolvere i problemi di sicurezza tecnici e della società) alla velocità in cui si evolve beh... è evidente che non è fattibile.


Quindi siamo in presenza del classico oste che vende il vino e mi spiega quanto è buono, facendomi alzare i red flag immediatamente, istinto di conservazione forse.


Comunque, tornando alla singolarità, lo scrive anche Sam Altman, non è uno shift collettivo in cui tutti abbiamo nuovi livelli di consapevolezza, in cui tutti ci rendiamo conto di essere cambiati. Ma un insieme di momenti singoli che avvengono un mondo che sta 'al di là della frontiera'.


Il post è in sé è comunque interessante per comprendere una visione di pensiero, un po' da "Teologia dell'innovazione" che sta iniziando ad avere un ritmo sempre più veloce. Di base è una analisi auto-assolutoria in cui viene fatto un lavaggio virtuale delle mani per prevenire i prossimi problemi. Non è colpa nostra se la tecnologia sarà usata per secondi fini. La tecnologia non è buona né cattiva. Non possiamo fermarla, è ineluttabile, è la natura stessa della tecnologia che cambia il mondo. Comunque tranquilli, ci pensiamo noi di OpenAI, siamo i più qualificati ad aiutarvi (umanità) in questa progressione. E in futuro, anche se ci saranno grandi problemi, li supereremo grazie all'abbondanza.


Omaggio di Sam Altman: vi informo che Chat GPT consuma molto meno di quanto vi aspettavate.

(che ha riacceso la mia voglia di raccontare nelle prossime settimane quanto consumi davvero generare foto di gattini o video “We Are Not Prompts” in termini energetici ed ambientali)


Quindi

Non ho l’autorevolezza di Altman o di altri grandi interpreti di questo cambiamento (di cui non ho ancora letto nulla) ma... siamo ad un tavolo a cui le regole vengono riscritte in funzione delle carte che si hanno in mano.

Il paper di Apple è interessante per spiegarci che ci sono dei limiti nelle tecnologie odierne. Ma che non credo stiano fermando la ricerca di nuovi modelli, anzi!


Ciò nonostante rimango ottimista su molti punti. Come ripeto spesso: se la tecnologia si fermasse (impossibile) avremmo comunque bisogno di dieci anni abbondanti per assimilare tutto quello che è uscito negli ultimi due.

E moltissimo di quanto è uscito porterà un sacco di cambiamenti positivi. Abbiamo ridotto le distanze tra idee e azioni, almeno in ambito digitale, e ottenuto accesso a possibilità di lavorare in modi altrimenti impensabili.

Quindi no, non credo in Sky Net ancora…


Concludo come ha fatto Sam Altman che ha dichiarato che probabilmente è l'ultimo post che ha scritto senza uso di AI.

(notare la i minuscola, ora che le imperfezioni nel testo servono a dimosrtare che non si è scritto con l'AI)

Per quel che mi riguarda, visto i giganti toccati in questo post, probabilmente questo sarà il mio ultimo articolo, grazie di tutto 😀

Diversamente tornerò su tutti questi argomenti.


Enjoy AI Responsibly! (Davvero!)

Massimiliano

Kommentare


bottom of page