top of page

//Arrivano i LLaMA nell'IA!



Oggi vorrei partire a fare la mia riflessione da una Spy Story, ovvero da una ‘Hacking’ Story, ovvero da una storia che ancora non è chiara in origine ma che sta avendo effetti prorompenti. So che è un po’ vecchia ormai, si trascina da tre mesi, che in questi tempi superveloci sembrano tre anni, ma le sue conseguenze avranno eco per molto tempo.


Prologo

In questo post entriamo un po’ nel tecnico. Ma non fa male.

Il sentimento generale di inizio 2023 riguardo l'IA era questo:

  • OpenAI: "Bellissimo. Ma ecco un’altra azienda che vuol diventare il Grande Fratello"

  • Microsoft: "Non c’è riuscita con Cortana, vince facile e si compra il giocattolone (OpenAI)"

  • Google: "Vedremo quando arriverà Google Bard, sanno già tutto ci metteranno un attimo a riconquistare il mercato!"

  • Meta: "Meta? che fanno?"

  • E quindi? "Poi ci sono un po’ di cose da Nerd che vedremo ma… stavolta il gioco lo faranno Google e Microsoft."


Invece…

Invece, in rapidissima sequenza, come sembra andare molto di moda oggi, sono successe un po’ di cose interessanti.


1

Nell’urgenza di uscire con le proprie IA, il 24 febbraio anche Meta ha rilasciato il frutto della sua fatica e dei suoi investimenti: LLaMA, che sta per Large Language Model.

Un po’ timidamente, direi, tramite un post sul proprio blog, ha dichiarato di avere un modello Transformer (Sì come GPT, entrambi si appoggiano su un'invenzione di Google) ma, non essendo ancora pronta a lanciarlo al grande pubblico, lo avrebbe reso disponibile in licenza GPL (Ovvero Non Commerciale, mi perdonino la semplificazione gli addetti ai lavori) per ‘vedere’ cosa le community avrebbero potuto inventare ed eventualmente costruire con il suo modello, reso accessibile il 27 febbraio 2023.

We believe that the entire AI community — academic researchers, civil society, policymakers, and industry — must work together to develop clear guidelines around responsible AI in general and responsible large language models in particular. We look forward to seeing what the community can learn — and eventually build — using LLaMA.

Meta ha iniziato piano piano a raccogliere iscrizioni da parte degli interessati a testare per primi questa sua meraviglia (con l'obiettivo non trascurabile che riuscissero a capire come e perché funzioni) che, promette, surclassa GPT-3 in ogni aspetto.


2

Il 3 marzo 2023, come riporta The Verge, l’intero modello è stato ‘craccato’ ovvero scaricato e reso disponibile online da un utente connesso a 4Chan, un sito in stile ‘BBS’ con un sacco di contenuti discutibili all’interno.

A meno di una settimana dalla pubblicazione…


3

Poco male, ha pensato più di qualcuno: rubare solo il modello, senza i suoi parametri, senza le sue istruzioni, senza RHLF (ovvero le configurazioni apportate ad un modello a seguito di una serie di feedback umani) è come portarsi a casa dieci grossi tronchi di albero e pensare di costruirsi tutti i mobili di casa senza avere un minimo di esperienza come falegname. E Meta ha giustamente iniziato le azioni di diffida verso chiunque lo utilizzasse perché, per quanto per uso pubblico, i termini di licenza da lei immaginati erano decisamente diversi.

E, probabilmente, Meta si è mossa bene: pensate a quanto OpenAI ha sottolineato l’importanza di far girare il proprio modello su mega-server, con evolutissime e costosissime (in decine di migliaia di euro) schede di High Performance Computing (HPC). Open AI, si stima, ne utilizza almeno 30.000.


Passaggio importante, da tenere a mente per dopo, è che Meta non ha negato di aver subito il furto ed ha mantenuto la sua policy di apertura alla possibilità di utilizzarlo; ma alle sue condizioni. Altrimenti l’utilizzatore sarebbe stato considerato “fuori licenza”.


4

Noi umani siamo meravigliosi quando si tratta di fare cose che ci vengono proibite. Immaginate migliaia di ricercatori e sviluppatori che da anni lavorano su modelli simili che possono per la prima volta mettere mano a modelli fatti da un gruppo come Meta che ha le capacità di GPT.

Si contano in decine di migliaia le persone che si sono mobilitate. E non pensate al dark web: le università sono state le prime. Nel giro di un mese (1) sul web sono apparse istruzioni su come utilizzare il modello e come fare fine tuning (Attraverso IA), miglioramenti qualitativi, qualche migliaio di versioni nuove tra cui Alpaca e Vicuna.

Poi qualcuno ha iniziato a far girare il modello più grande su ‘poche’ GPU a disposizione degli ambienti universitari (non vi ho detto che i modelli di LLaMa di Meta sono quattro ma non è così importante in questo contesto), ed altri hanno pubblicato la loro storia di come bastasse un buon programmatore, un computer abbastanza potente (Mac Pro M2) e una serata libera per avere a disposizione il proprio Chat-GPT Personale.

Avreste mai pensato a dei programmatori felici di lavorare con un LLaMa ?

Ora sono disponibili on-line centinaia di esempi di come far girare su un mini-pc o su Smartphone queste IA perfettamente addestrate, pronte a comportarsi ed in grado di accettare i contenuti che decidiamo noi.

Non più filtri etici o morali, basta al controllo dei bias, fine dei ragionamenti discriminatori: libero pensiero sintetico finalmente!


5

I leak, i furti, però non finiscono qui nella nostra storia.

In Aprile, giorno non precisato, è finito su discord un documento interno di Google poi ripreso dal blog SemiAnalysis. Qui è trapelata l’opinione di un ricercatore di Google che scrive un po’ di cose interessanti ai suoi colleghi esprimendo la sua opinione.

In sostanza secondo questo anonimo né Google né OpenAI saranno in grado di vincere la gara dell’IA. Perché la comunità open-source sta superando entrambi avendo già risolto problematiche che nelle big sono ancora completamente aperte e senza soluzione.

Secondo lui i modelli open-source sono più veloci, più personalizzati, garantiscono riservatezza by design e sono più capaci, in termini di rapporto qualità-prezzo rispetto a quelli dei due competitor.

Nel lungo periodo secondo lui i migliori modelli saranno quelli che possono essere iterati rapidamente. Significa quelli che possono essere ri-addestrati da zero senza costi e tempi biblici (Vi siete chiesti perché GPT sia fermo a settembre 2021?).

Pensate anche al fatto che questi modelli sono delle gigantesche black-box e collegate questo aspetto alla polemica derivante da contenuti protetti da copyright a loro disposizione. Se il detentore di un diritto di copyright riuscisse a spuntare una causa che chiede ad un LLM (Large Language Model) di rimuovere i suoi contenuti, questi sarebbero costretti, salvo evoluzioni ancora non sul mercato, a rifare da zero il training del loro modello con costi impensabili.

Tanti modelli più piccoli, invece, sarebbero più ‘maneggevoli’ e potrebbero essere ri-addestrati per poche centinaia di euro ciascuno.


Capite?

Una delle domande che mi facevo più spesso con gli addetti ai lavori nel 2022 era:

“Puoi immaginare il grado di responsabilità che ha un’azienda come OpenAI? Quanto Sam Altman, il suo CEO, è diventato potente grazie a Chat GPT?

Quali responsabilità hanno le aziende di IA che con i loro sistemi possono plasmare il modo di ragionare, decidere cosa è politicamente corretto che l’IA risponda, proporre modi di apprendere, dare la sua versione sulla storia potendosi sempre scusare con la scusa delle allucinazioni (Sapete cosa sono? Se volete che ne parli scrivetelo nei commenti plz), prendersi la responsabilità che noi ci accontentiamo delle sue risposte e temi di questa caratura, poter manipolare qualunque contenuto a nostra insaputa ed imporsi di non farlo per motivi etici.”

Bene, oggi, tecnicamente ciascuno di noi potrebbe avere parte di questi poteri, potrebbe plasmare la sua IA senza filtri morali ed etici, renderla disponibile a tutti e… ah no! La licenza lo vieta!

Quindi il mondo si potrà dividere in tre fazioni:

1) chi ignorerà questa possibilità;

2) chi cercherà di coglierla onestamente rispettando le regole;

3) chi la sfrutterà e basta.


Parliamo del secondo gruppo per ora: utilizzare LLaMa, o una delle sue varianti con nomi da camelidi Andini (un post sulla fantasia degli informatici quando non sono guidati dal marketing prima o poi lo dovrò scrivere) sulle proprie infrastrutture tecnologiche significherebbe avere accesso privato ad un’IA che si può addestrare in poco tempo e pochi soldi (poche centinaia di euro), a cui si possono affidare dati sensibili, intimi, riservati senza la paura del grande fratello e con la libertà di addestrare la nostra IA domestica come piacerà a ciascuno di noi.


Inutile?

Due semplici casi d’uso per darvi qualche idea.


Personale:

Condividere tutte le nostre cartelle di una vita, tutte le e-mail, i backup delle chat, i vostri appunti digitali, cronologia delle navigazioni internet e segnalibri, la musica che ascoltate, le registrazioni vocali, le foto e i video (ci sono già versioni multimodali on-line, ovvero in grado di lavorare anche su audio e immagini) e tutto quello che potete immaginare sia digitale. Escludiamo giusto le password ma tutto ciò che è ‘nostro’ digitalmente potrebbe essere dato ad un modello di IA privata. Che a quel punto saprebbe di noi molto di più di quanto ne sappiamo noi stessi.

Cosa potremmo farcene?

Molto o poco dipende da voi ma lavorando un po’ di immaginazione, o chiedendo direttamente una lista a ChatGpt. Ecco un po' di idee fornite prese direttamente dalla nuova funzionalità 'Condividi Conversazione'.


In sostanza ho fatto un prompt in cui ho inserito gli ultimi 2-3 paragrafi del post e ho fatto continuare a GPT.


Aziendale

Qui si apre un universo dove, senza scomodare attività borderline, si può scatenare la prossima rivoluzione industriale. Ne parlerò a breve in un post dedicato ma di fatto se un’azienda collegasse questa IA a TUTTI i propri dati: email, documenti, database gestionali, CRM, dati sul personale ecc.

E se si preoccupasse di compartimentare l’accesso ai dati nascerebbe un’entità che in ambito aziendale rappresenterebbe tutta la conoscenza accumulata dall’Azienda nella sua storia, almeno per quanto riguarda ciò che è digitale.


Alcuni impatti, giusto per solleticare i meno fantasiosi e non andare subito sui punti tecnici:

  1. Molti colleghi presenti in azienda e riconosciuti come ‘memoria storica’ diventerebbero improvvisamente obsoleti: tutti chiederebbero al Camelide.

  2. Non ci sarebbero più scuse per dire ‘non lo sapevo’: basterà chiedere all’IA con nomi di cammello Andino per avere qualunque informazione accessibile con il proprio profilo di sicurezza.

  3. L’assunzione di responsabilità, pratica in via di scomparsa in molte aziende, cesserebbe di esistere e la frase più usata da qualche persona: “L’ha detto LUI” riferendosi al boss supremo, rimarrebbe inalterata. Semplicemente ora si riferirebbe all’IA.


Quindi…

Giocare con i Lama, MidJourney e Firefly mi ha proprio divertito in questo articolo. perdonatemi.

In questo emozionante semestre in cui le IA generative sono diventate il trend topic, si sta dicendo:

  1. Che la strada di conquista del dominio sull’IA di OpenAI/Microsoft e Google è ancora tutta in salita.

  2. Che Meta ora si trova nella delicata posizione di capire cosa fare del suo modello di licensing. E sembra proprio che ogni scelta che farà sarà errata.

  3. Che la comunità Open Source è più avanti ha strumenti più potenti, e si riproduce molto, molto velocemente: su Hugghingface.co si trovano già oltre 1.800 modelli di varianti camelidi disponibili. Riuscirà questa volta il prodotto migliore ad imporsi come standard?

  4. Le aziende che stanno approcciando ora l’IA se la sentiranno di ignorare questa nuova opportunità?

Sono curioso di capire la vostra opinione!



OPS...

...non ho finito di revisionare l'articolo e già è cambiato, di nuovo, qualcosa.

Si parla di "Falchi" all'orizzonte che sono piombati nella comunità degli LLM risolvendo qualcuno dei problemi dei Lama e migliorandoli ancora.

A breve un aggiornamento, devo prima studiare...



Kommentare


bottom of page