Tra gli utilizzatori del “magico” ChatGpt, in queste settimane, crescono i dibattiti sui sociale e nei forum dedicati. Il chatbot di OpenAI non è più quello di una volta. Per molti, addirittura ChatGPT è diventato stupido. Ecco cosa potrebbe essere successo, tra la ricerca di efficienza e la necessità di contenere i costi di gestione.
Il successo logora?
Secondo Peter Yang, esperto di intelligenza artificiale e product lead di Roblox: la qualità media dei risultati di ChatGPT è in calo. Una sensazione che, a guardare il forum di OpenAI, sembra essere comune a molti utenti. Scorrendo il thread, ci sono una serie di messaggi tutti più o meno dello stesso tenore. “Dimentica gli input”, scrive un utente; “sembra che il suo quoziente intellettivo sia diminuito”, conferma un altro.
Un calo di qualità senza conferme ufficiali
Si tratta, al momento, di semplici segnalazioni, molto difficili da provare: non esistono indicazioni concrete di un effettivo calo nella qualità degli output di GPT-4, il modello più potente di OpenAI, disponibile per gli utenti a pagamento di ChatGPT. Tuttavia, l’eco di queste conversazioni ha spinto la comunità dell’intelligenza artificiale statunitense a cercare una spiegazione.
Architettura MoE come possibile spiegazione
Spiegazione che, complice un leak di documenti riservati di OpenAI, sembra essere arrivata. Come confermato anche da un report di SemiAnalysis, la newsletter di Dylan Patel, a cambiare sembra essere stata l’architettura stessa di ChatGPT, cioè come il modello analizza e genera le informazioni. In sostanza, dietro GPT-4 non ci sarebbe una sola, enorme, intelligenza artificiale, ma un gruppo di 16 IA più piccole che elaborano le informazioni a seconda delle necessità.
Il colpevole sarebbe il MoE. Che cos’è e come funziona
In un’intervista rilasciata a Business Insider, Sharon Zhou, CEO di Lamini, ha spiegato che questo approccio si chiama Mixture of Experts, o MoE. È piuttosto semplice, almeno a parole: un modello di intelligenza artificiale viene diviso in modelli esperti più piccoli, che vengono addestrati su compiti e aree tematiche specifiche. In altre parole, ci sarebbero 16 mini GPT-4, ciascuno specializzato in un ambito preciso del materiale di addestramento. Quando un utente fa una domanda, un prompt in gergo tecnico, il sistema riesce a individuare quali sono i due o più modelli da interpellare e, infine, a combinare i risultati.
OpenAI per ora non ha confermato né smentito la ricostruzione
In un documento pubblicato proprio dall’azienda di Sam Altman a giugno 2022, firmato tra gli altri dall’attuale Presidente Greg Brockman, il Mixture of Experts viene considerato uno dei modi per aumentare l’efficienza dei modelli di linguaggio di grandi dimensioni come GPT-4. “Con questo approccio – si legge nella ricerca – viene utilizzata solo una parte della rete per generare l’output”.
L’idea alla base del modello è migliorare l’accuratezza delle risposte, rendendole, allo stesso tempo, più veloci e meno costose
Del resto, lo scorso aprile The Information aveva rivelato come il costo di gestione dell’infrastruttura ChatGPT fosse di 700.000 dollari al giorno, circa 21 milioni di dollari al mese. “La sensazione – ha spiegato il CEO di Allen Institute for AI Oren Etzioni ancora a Business Insider – è che in questo caso OpenAI stia sacrificando un po’ di qualità per ridurre i costi di generazione”.
Questa storia arriva al culmine di un periodo non semplicissimo per OpenAI
Dopo la sbornia a cavallo tra 2022 e 2023, con il lancio di ChatGPT, la compagnia di Sam Altman sta vivendo un periodo difficile. A giugno, il numero di utenti al suo chatbot è calato per la prima volta dal lancio dello scorso novembre, secondo dati di Similar Web e Sensor Tower. Intanto, a luglio la FTC statunitense, l’agenzia governativa che tutela i consumatori negli Usa, ha aperto un’indagine, per timori che riguardano “la reputazione e i dati personali degli individui”.
Ginevra Leone
Leggi anche
- ChatGpt consuma tanta acqua, 1 bottiglia a conversazione. E’ ecosostenibile?
- Elon Musk sfida ChatGPT
- Techneosofia: alla ricerca dell’uomo nell’era digitale
- Juventus e i complimenti ironici per lo scudetto del Napoli: è buona comunicazione? Abbiamo interrogato in proposito l’intelligenza artificiale
