Perché Mark Zuckerberg chiede a Meta di regalare i suoi modelli di intelligenza artificiale più avanzati
CasaCasa > Notizia > Perché Mark Zuckerberg chiede a Meta di regalare i suoi modelli di intelligenza artificiale più avanzati

Perché Mark Zuckerberg chiede a Meta di regalare i suoi modelli di intelligenza artificiale più avanzati

May 20, 2023

Registrato sotto:

Spiegazione del dibattito sull’intelligenza artificiale che divide il mondo della tecnologia.

La settimana scorsa, Meta ha fatto una mossa rivoluzionaria nel mondo dell’intelligenza artificiale.

In un momento in cui altre aziende leader nel campo dell'intelligenza artificiale come Google e OpenAI custodiscono da vicino il loro segreto, Meta ha deciso di regalare, gratuitamente, il codice che alimenta il suo nuovo e innovativo modello di linguaggio di grandi dimensioni AI, Llama 2. Ciò significa che altre aziende possono ora utilizzare Il modello Llama 2 di Meta, che secondo alcuni tecnologi è paragonabile a ChatGPT nelle sue capacità, per costruire i propri chatbot personalizzati.

Llama 2 potrebbe sfidare il dominio di ChatGPT, che ha battuto tutti i record per essere una delle app in più rapida crescita di tutti i tempi. Ma, cosa ancora più importante, la sua natura open source aggiunge nuova urgenza a un importante dibattito etico su chi dovrebbe controllare l’intelligenza artificiale e se possa essere resa sicura.

Man mano che l’intelligenza artificiale diventa più avanzata e potenzialmente più pericolosa, è meglio per la società se il codice resta nascosto – limitato al personale di un piccolo numero di aziende – o dovrebbe essere condiviso con il pubblico in modo che un gruppo più ampio di persone possa averlo? un contributo nel dare forma alla tecnologia trasformativa?

Nell'annuncio di Meta's Llama 2, Mark Zuckerberg ha pubblicato un Instagram in cui sorride con il CEO di Microsoft Satya Nadella, annunciando la partnership tra le due società sul rilascio. Zuckerberg ha anche spiegato perché è meglio che i principali modelli di intelligenza artificiale siano "open source", il che significa rendere il codice sottostante della tecnologia ampiamente disponibile per chiunque possa utilizzarlo.

"L'open source guida l'innovazione perché consente a molti più sviluppatori di costruire con la nuova tecnologia", ha scritto Zuckerberg in un post separato su Facebook. "Migliora anche la sicurezza perché quando il software è aperto, più persone possono esaminarlo per identificare e risolvere potenziali problemi."

La mossa è stata accolta con favore da molti sviluppatori, ricercatori e accademici di intelligenza artificiale che affermano che ciò darà loro un accesso senza precedenti per costruire nuovi strumenti o sistemi di studio che altrimenti sarebbero proibitivi da creare. Creare e mantenere modelli linguistici di grandi dimensioni all’avanguardia come quelli che alimentano ChatGPT può costare decine di milioni di dollari.

"Mi sto solo preparando per il tipo di progresso che potrà verificarsi", ha affermato Nazneen Rajani, responsabile della ricerca presso la piattaforma di intelligenza artificiale open source Hugging Face, che ha collaborato con Meta al rilascio. Rajani ha scritto un post su Twitter valutando le capacità di Llama 2 quando è uscito per la prima volta e ha detto a Vox: "Saremo in grado di scoprire altri ingredienti segreti su ciò che effettivamente serve per costruire un modello come GPT-4".

Ma l’intelligenza artificiale open source comporta grandi rischi. Alcuni dei più grandi attori del settore, tra cui OpenAI e Google, sostenuti da Microsoft, hanno limitato la quantità di sistemi di intelligenza artificiale resi pubblici a causa di ciò che considerano i gravi pericoli di queste tecnologie.

Alcuni tecnologi sono sempre più preoccupati per gli ipotetici scenari apocalittici in cui un’intelligenza artificiale potrebbe superare in astuzia gli esseri umani per infliggere danni come il rilascio di una super arma biologica o causare altri danni in modi che non possiamo immaginare del tutto. Il co-fondatore di OpenAI, Ilya Sutskever, ha dichiarato a The Verge a febbraio che la sua azienda aveva “completamente torto” quando ha condiviso i dettagli sui suoi modelli più apertamente in passato perché se un giorno l’intelligenza artificiale diventasse intelligente quanto gli esseri umani, raggiungendo ciò che alcuni chiamano AGI o intelligenza artificiale generale, non sarebbe saggio condividerlo con le masse.

“Se credi, come noi, che a un certo punto l’intelligenza artificiale – AGI – sarà estremamente, incredibilmente potente, allora semplicemente non ha senso renderla open source. È una cattiva idea”, disse allora Sutskever.

Anche se potremmo essere lontani da IA ​​in grado di causare una reale distruzione umana, abbiamo già visto gli strumenti di IA della comunità open source essere utilizzati in modo improprio in altri modi. Ad esempio, subito dopo che Meta ha rilasciato il suo primo modello di Llama esclusivamente per uso di ricerca a febbraio, è trapelato sulla bacheca online "tutto va bene" 4Chan, dove è stato poi utilizzato per creare chatbot che emettevano contenuti odiosi come insulti razzisti e, in alcuni casi , scene di violenza grafica.