Aprile 27, 2024
A ECORANDAGIO ospitiamo e formiamo i giornalisti di domani

The Breaking Down

0.0

OpenAI ha introdotto una nuova funzionalità per ChatGPT che consente al chatbot di “ricordare” le preferenze degli utenti attraverso le conversazioni. Questa funzionalità, permette a ChatGPT di offrire risposte personalizzate basate sulle preferenze e informazioni fornite precedentemente dagli utenti. Per esempio, un insegnante può specificare di star preparando una lezione di scienza per la terza elementare, così che ChatGPT possa fornire risposte adeguate all’età senza dover essere ricordato ogni volta. Questa novità mira a rendere le interazioni con ChatGPT più fluide e personalizzate, adattandosi meglio alle esigenze individuali degli utenti. Con questa opzione denominata semplicemente Memory, Open Ai ha iniziato a integrare la memoria a lungo termine all’interno di ChatGPT.

Parallelamente, OpenAI ha anche introdotto plugin per ChatGPT che consentono al chatbot di interagire con API di terze parti, espandendo così la gamma di azioni che può eseguire

Questo aggiornamento permette a ChatGPT di accedere a dati in tempo reale e interagire con servizi esterni, come effettuare prenotazioni o recuperare informazioni aggiornate. Gli sviluppatori possono ora creare chatbot in grado di discutere di argomenti attuali o di accedere a documenti interni di un’azienda, superando i limiti dati dalla data di addestramento dell’ultimo modello GPT​.

ChatGPT Memory sfrutta Redis, un database vettoriale

Ciò permette di memorizzare le interazioni storiche degli utenti per sessione. Questo meccanismo di creazione di prompt adattivi basato sul contesto corrente permette a ChatGPT di ricordare interazioni passate essenziali, incorporandole nel prompt corrente. Tale approccio è più adattivo rispetto al comportamento predefinito ottimizzando implicitamente la qualità del prompt mantenendo al contempo un approccio efficiente sotto l’aspetto dei costi.

Durante una dimostrazione tenutasi alla presenza di Wired US prima del lancio, Joanne Jang, responsabile del comportamento dei modelli di OpenAI, ha inserito alcune query di prova. In un’occasione, Jang ha chiesto a ChatGPT di redigere un post per annunciare sui social media l’inaugurazione di un bar chiamato “Catio” in occasione di San Valentino; il bot ha completato l’incarico senza intoppi. In un dialogo successivo, Jang ha affermato che sarebbe stata lei a inaugurare il bar. Accedendo alla sezione Memoria dalle impostazioni di ChatGPT, la responsabile di OpenAI ha notato che il chatbot aveva archiviato questa informazione. In un altro esempio, quando Jang ha chiesto un consiglio per la programmazione menzionando di usare Python, ChatGPT ha registrato Python come il linguaggio di programmazione prediletto dall’utente. Queste informazioni saranno menzionate in tutte le future interazioni di Jang con ChatGPT. Il sistema riprenderà questi argomenti ogni volta che lo riterrà appropriato, senza la necessità di riferimenti espliciti.

I pericoli potenziali

La funzione di memoria implementata in ChatGPT presenta diversi vantaggi in termini di personalizzazione e continuità delle conversazioni. Tuttavia, introduce anche potenziali rischi legati principalmente alla privacy, alla sicurezza dei dati e all’etica dell’uso dell’intelligenza artificiale. Ecco i principali rischi associati a questa nuova funzione:

Privacy degli utenti

La capacità di memorizzare le informazioni personali degli utenti solleva preoccupazioni sulla privacy. Anche se le informazioni sensibili non vengono conservate, la raccolta di dati relativi alle preferenze e alle abitudini degli utenti può essere vista come invasiva. Gli utenti potrebbero non essere a conoscenza dell’ampiezza dei dati raccolti o di come questi vengono utilizzati.

Sicurezza dei dati

Ogni volta che si memorizzano dati, sorge il rischio di violazioni della sicurezza. Le informazioni raccolte e memorizzate da ChatGPT potrebbero diventare un bersaglio per gli attacchi informatici, con il rischio di esposizione di dati personali. Inoltre non è completamente chiaro come OpenAI utilizzi i dati raccolti per addestrare i suoi modelli. Questa mancanza di trasparenza solleva domande sull’esatta natura dei dati utilizzati, su quanto tempo vengano conservati e su chi possa accedervi.

Rischi di bias e discriminazione

La personalizzazione basata sui dati storici può involontariamente perpetuare o amplificare i bias esistenti nei modelli di AI. Questo potrebbe portare a discriminazioni o pregiudizi nei confronti di determinati gruppi di utenti, in base alle informazioni memorizzate.

La funzione opt-in per default presuppone che gli utenti siano pienamente informati e consapevoli della scelta di attivare la memoria. Tuttavia, non tutti gli utenti potrebbero comprendere appieno le implicazioni di questa decisione o sapere come gestire le impostazioni della privacy. Anche se gli utenti possono cancellare i dati memorizzati, non è chiaro quanto sia semplice questo processo e se la cancellazione sia effettivamente definitiva e completa, senza lasciare tracce nei sistemi di OpenAI.

Per mitigare questi rischi, è fondamentale che OpenAI implementi robuste misure di sicurezza, garantisca la trasparenza sulle politiche di uso dei dati e offra agli utenti un controllo completo e semplice sulla gestione delle loro informazioni. Inoltre, l’educazione degli utenti sulle funzionalità e le opzioni di privacy disponibili è cruciale per assicurare che la tecnologia sia utilizzata in modo consapevole ed etico.

L’implementazione dovrebbe essere disponibile sia per la versione 3,5 che per Chatgpt 4

Giovanni Scafoglio

Leggi anche

    Show Full Content
    Previous Conflitto in Congo: il Genocidio dimenticato
    Next Alexei Navalny faremo di un estremista di destra un nostro martire?
    Close

    NEXT STORY

    Close

    Marks hurt no more: intervista agli ideatori del progetto

    Gennaio 21, 2022
    Close