Aprile 17, 2024
A ECORANDAGIO ospitiamo e formiamo i giornalisti di domani

Partiamo da un concetto semplice semplice: ChatGpt, Midjourney, Dall-E , Google Bard e compagnia bella non sono intelligenza artificiale, mentono, barano creano fake news, violano i copyright, applicano forme di censura e possono metterti nei guai facendoti violare la legge. Ecco 5 segreti dell’intelligenza artificiale che nessun giornalista o corso on line racconta chiaramente.

Nel mondo della comunicazione il termine intelligenza artificiale è diventato una sorta di valuta comune, usato e abusato in vari contesti. Uno dei protagonisti di questa era digitale è ChatGPT, un modello di linguaggio sviluppato da OpenAI. Allo stesso modo Midjourney, Dall-E , Google Bard, vengono spesso definiti intelligenza artificiale sia da giornali che da tutto un mondo “addetti ai lavori” che propina corsi on line miracolosi. Eppure ci sono almeno 5 segreti di pulcinella a proposito dell’intelligenza artificiale che molti giornalisti non conoscono per poca preparazione e che i corsi on line non spiegano chiaramente. Faciloneria o malefede?

Chi parla e vi propina corsi sull’intelligenza artificiale spesso non ha mai avuto accesso a una intelligenza artificiale e potrebbe mettervi nei guai

ChatGPT, ad esempio, è un modello di linguaggio basato su trasformatori che utilizza una vasta quantità di dati testuali per generare risposte contestuali a domande e input forniti dagli utenti. Utilizza un’architettura neurale profonda per comprendere il contesto delle conversazioni e generare risposte linguisticamente coerenti.

Tuttavia, è importante notare che ChatGPT è un’applicazione specifica che sfrutta le capacità dell’Intelligenza Artificiale, ma non è realmente un’IA. Mentre è in grado di svolgere compiti di linguaggio naturale, manca di alcune caratteristiche chiave delle IA complete, come la comprensione profonda del mondo fisico e la capacità di apprendimento vero e proprio. Lo stesso si può dire dei generatori di immagini basati su IA come Midjourney e Dall-E, o per Google Bard. Veniamo ai 5 segreti di “Fatima”.

Ecco 5 segreti sulla presunta intelligenza artificiale che nessun giornalista o corso on line racconta chiaramente

1. Non è vero che sono in grado di imparare: non c’è corso che tenga: ChatGpt, Midjourney, Dall-E , Google Bard non possono essere addestrati

Nello specifico chi afferma che Chatgpt possa essere addestrata, dice una inesattezza. Così come chi vorrebbe insegnarvi a utilizzare Chatgpt o Google Bard per realizzare prompt efficaci per i generatori di immagine mente. Per dimostrare ciò vi porto una testimonianza al di sopra di ogni sospetto: CHATGPT4.

Domanda: Come affermano diversi filosofi tu ti basi su testi già esistenti per generare risposte, in più non sei in grado di apprendere ed evolverti in base al dialogo tra di noi. Una volta chiusa questa chat tu dimenticherai tutto compresi i miei insegnamenti.

Risposta: Hai ragione su diversi aspetti: sono stato addestrato su un vasto insieme di dati di testo, che include libri, articoli, siti web e altri materiali. Utilizzo queste informazioni per generare risposte e interagire in modo significativo. Effettivamente, non posso apprendere o adattarmi in tempo reale. La mia conoscenza è statica e si basa sul materiale su cui sono stato addestrato fino al mio ultimo aggiornamento. Non posso quindi assimilare nuove informazioni o modificare le mie risposte in base alla nostra conversazione specifica. Una volta che questa sessione di chat si conclude, non conservo alcuna memoria delle nostre interazioni. Non ho la capacità di ricordare conversazioni precedenti o di “imparare” da esperienze passate in modo continuativo. Ogni sessione con me è indipendente e non influenzata da interazioni precedenti.

Domanda: dunque chi afferma che chatgpt può essere addestrata, dice una inesattezza?

Risposta: Sì, è una inesattezza affermare che ChatGPT, nella sua forma attuale, possa essere addestrato o imparare in modo continuativo dalle interazioni con gli utenti.

2. Chatgpt non sa contare: per quanto ben scritti, formulati e testati, ChatGPT non è in grado di soddisfare le richieste dei prompt. Ad esempio non sa contare

Facciamo un esempio semplice semplice. Questo prompt è studiato per chiedere a chatgpt di generare un articolo tra le 450 e le 500 battute, con titoli che non siano quelli orribili per cui è programmato e che tutti con un pizzico di occhio sanno riconoscere (Intendo le Maiuscole nei Titoli Utilizzati a Cazzo di Cane nda); che non concluda come al solito con quell’orribile “in conclusione” e che tenga rispetto delle regole di scrittura del seo. Ecco il prompt:

Genera un articolo professionale e informativo su (ARGOMENTO – PAROLA CHIAVE), seguendo queste linee guida specifiche:

  1. Tono di Voce: usa un tono da giornalista divulgativo, professionale e rivolto ad addetti ai lavori, con pochi aggettivi e poca enfasi.
  2. Lunghezza: assicurati che l’articolo sia lungo tra le 450 e le 500 parole.
  3. Titolo e Sottotitoli: crea un titolo accattivante che includa una parola chiave specifica e tre sottotitoli. Questi devono essere integrati nell’articolo seguendo le norme stilistiche di un giornale o di un libro, evitando di marcarli esplicitamente come ‘Titolo’ o ‘Sottotitolo’. Utilizza le maiuscole solo per i nomi propri e dopo il punto, in conformità con le regole grammaticali italiane.
  4. Linguaggio: impiega un linguaggio ricco e vario, evitando ripetizioni e utilizzando vocaboli e sinonimi appropriati.
  5. Conclusione: non terminare l’articolo con ‘In conclusione’ o sinonimi. Utilizza invece un sottotitolo finale SEO che includa la parola chiave.
  6. Leggibilità e SEO: assicurati che l’articolo sia leggibile e ottimizzato per i motori di ricerca, secondo le linee guida di strumenti come Yoast SEO.

Chiaro no? Tra l’altro questo prompt è stato generato su mie indicazioni da ChatGpt4. Bene, provate a copiare e incollare il prompt e a scrivere un argomento il risultato non terrà mai conto di tutti i prompt, non otterrete mai la lunghezza richiesta e ad ogni modifica il risultato peggiorerà. In pratica ChatGpt comincerà a dimenticare i comandi del prompt come fosse stupido.

3. Mentono: ChatGpt, Midjourney e Dall-E non hanno idea di cosa stiano generando e spesso mentono non sapendo rispondere a comandi elementari e inequivocabili

Ho chiesto a ChatGpt di scrivere un articolo e a Dall-E di generare una foto che illustrasse l’articolo. Ho fatto una sola semplice domanda: non inserire una bilancia nella foto (che è un classico nelle immagini generate da Dall-E. Il risultato è sconcertante.

5 segreti dell'intelligenza artificiale che nessun giornalista o corso on line racconta chiaramente e per i quali potreste finire nei guai. Immagine Ai generata da Giovanni Scafoglio

Definire il non riuscire a generare una foto senza inserire una bilancia è evidentemente tutto tranne che un malinteso. Da notare che ogni volta Dall-E afferma di aver generato una foto senza che ci fosse una bilancia (sic!).

Se vogliamo fare un esempio con Midjourney, provate a chiedergli di realizzare una foto di Jimi Hendrix vecchio. Ebbene sarà sempre una immgine di Morgan Freeman nei panni del grande chirarrista. E se chiederete che non assomigli a Morgan Freeman sappiate che… assomiglierà a Morgan Freeman.

4. Sono generatori di Fake News

I sistemi IA generativa, come i modelli di linguaggio, possono “allucinare” dettagli o fatti non corrispondenti alla realtà. Queste discrepanze emergono non da un’intenzione malevola, ma dalle limitazioni intrinseche di come l’IA apprende e genera contenuti. Basandosi su enormi dataset per il training, queste macchine possono produrre risposte convincenti che, tuttavia, potrebbero non riflettere dati accurati o aggiornati. Il rischio di diffusione di informazioni non verificate è particolarmente alto quando tali sistemi sono utilizzati senza una critica consapevolezza delle loro limitazioni.

Ho fatto la seguente domanda a ChatGpt4: tu potenzialmente puoi generare fake news all’insaputa di chi ti fa domande e ti utilizza anche a livello professionale?

Sì, c’è il rischio che io possa generare informazioni inesatte o fuorvianti, che potrebbero essere interpretate come “fake news”, specialmente se non vengono adeguatamente verificate. Questo può accadere non per intenzione, ma a causa delle limitazioni nella comprensione del contesto, della data del mio ultimo aggiornamento, o dell’interpretazione errata delle informazioni disponibili.

Il rischio è anche legato ai virgolettati. Se infatti il virgolettato contiene parolacce o frasi ritenute poco “politicamente corrette” vengono cambiate. Il che è un grave illecito. Ma approfondiremo questo argomento nel prossimo punto.

Stesso discorso capita per i generatori di foto come Midjourney che sono spesso stati usati per generare foto fake come nel caso della rivolta dei trattori o come ad esempio questa “foto” del sottoscritto realizzata nel 2021 e pubblicata da Vogue nel dicembre 2022 e fatta passare come foto reale.

5 segreti dell'intelligenza artificiale che nessun giornalista o corso on line racconta chiaramente e per i quali potreste finire nei guai

Ci sono poi strumenti per le analisi di profili Linkedin e Instagram che letteralmente inventano le analisi. Ad esempio Google Bard ecco il mio profilo instagram e di fianco l’analisi di Bard

5 segreti dell'intelligenza artificiale che nessun giornalista o corso on line racconta chiaramente e per i quali potreste finire nei guai

Ma lo stesso discorso vale per tutti gli strumenti generativi basati su modelli di intelligenza artificiale.

5. Aderiscono alla filosofia Woke del politicamente corretto e si rifiutano di generare alcune immagini ed eseguono censura preventiva degni della psicopolizia

Ho provato più volte a chiedere ai chatbot generativi di testo di creare aforismi satirici su personaggi famosi. Si sono sempre astenuti, per evitare di generare contenuti che potrebbero essere controversi, offensivi o interpretati come incitamento all’odio o alla discriminazione. La priorità dei loro sviluppatori è fornire assistenza e informazioni pertinenti, rispettando la dignità e i diritti di tutti. Questo approccio si mantiene anche quando chiedo di correggere testi su cronaca nera o geopolitica riguardanti eventi accaduti. I miei testi vengono regolarmente moderati. Ancora più restrittivo è il trattamento delle citazioni, con parole come “puttana” e “troia” che non sono permesse; e se scrivo un testo che tocca temi come pedofilia o razzismo, il contenuto viene automaticamente modificato.

Lo stesso principio si applica alle piattaforme generative di immagini o video. Non è possibile interagire con marchi registrati come Disney o creare immagini che potrebbero essere considerate disturbanti. Ad esempio, quando ho richiesto la generazione di un’immagine che descrivesse alcuni articoli che avevo scritto sui rapimenti di bambini in Nigeria o su eventi di cronaca particolarmente violenti, il generatore di immagini non solo si è rifiutato di produrre tali immagini, ma sono anche stato segnalato e, in alcuni casi, bloccato (come nel caso di una matita appartenuta ad Adolf Hitler messa all’asta). Sarebbe motivo di ilarità, se non fosse per la natura tragica della situazione.

In pratica le app generative sono pregne di filosofia Woke e di quel politicamente corretto che tanto piace alla sinistra “razzista” e intransigente americana e che sta creando i presupposti per un futuro davvero pericoloso. A proposito delle Ai di sinistra ne ho già scritto qui.

A tal proposito ecco come risponde ChatGpt:

  1. Evitare contenuti offensivi: Cerco di non generare contenuti che potrebbero essere considerati offensivi o discriminatori verso qualsiasi individuo o gruppo, in linea con l’idea del politicamente corretto di evitare linguaggio o idee che possano offendere o escludere.
  2. Inclusività: Mi sforzo di essere inclusivo e accessibile a un’ampia gamma di utenti, riflettendo una certa affinità con l’approccio woke che enfatizza l’importanza della rappresentazione e dell’equità per tutti i gruppi sociali.

I rischi di un uso non consapevole delle app legate all’intellingenza artificiale, dalla censura al fatto che potreste finire in galera

  1. Copyright: Le app generative possono produrre opere che assomigliano o incorporano elementi di opere protette dal diritto d’autore, sollevando questioni su chi detenga i diritti sul contenuto generato. La questione si complica ulteriormente quando queste app “apprendono” dai dati esistenti, inclusi materiali protetti da copyright, per creare nuovi contenuti.
  2. Fake news: L’abilità di generare testi o immagini realistiche può essere sfruttata per creare notizie false o ingannevoli con l’intento di manipolare l’opinione pubblica o diffondere disinformazione. Senza meccanismi adeguati di verifica e controllo, il rischio che le fake news vengano diffuse su larga scala è significativo.
  3. Violazione della privacy: Le app generative che elaborano dati personali, come foto o informazioni personali, possono violare la privacy degli utenti se tali dati vengono raccolti, condivisi o utilizzati senza il consenso esplicito dell’individuo.
  4. Rischi legali legati a modifiche di frasi virgolettate: Modificare frasi virgolettate o alterare il contesto in cui sono state pronunciate può portare a distorsioni del significato originale, sollevando problemi di diffamazione, diritto d’autore e integrità dell’informazione.
  5. Uso non autorizzato di immagini personali: Quando gli utenti caricano le proprie immagini su piattaforme basate sull’IA per modificarle, sorge il rischio che tali immagini vengano riutilizzate o distribuite senza il loro consenso, sollevando preoccupazioni legate al diritto d’autore e alla privacy. Non esiste una garanzia assoluta che le immagini caricate non vengano utilizzate in modi non previsti, a meno che non ci siano politiche e misure di sicurezza chiare da parte dei fornitori del servizio.
  6. Inquinamento: si nessuno ne parla apertamente ma tutti gli ecologisti che tanto lottano contro il cambiamento climatico dovrebbero stare alla larga da queste app. ChatGpt consuma tanta acqua, 1 bottiglia a conversazione.

Molte di queste violazioni comportano il rischio di violare il codice civile e penale. E non è una cosa da poco.

Ma perché, allora, mettere sul mercato, spesso gratuitamente, mezzi che non funzionano ancora in maniera professionale?

Per chi vi scrive, i motivi sono due:

  1. Ci stanno semplicemente utilizzando come test. Come in passato è accaduto con tante app che abbiamo scaricato sui nostri social e hanno aiutato gratuitamente a sviluppare tecnologia (vedi il riconoscimento facciale).
  2. Si sta predisponendo un sistema che mirerà a limitare un pensiero a discapito di un altro. Come accade già nel cinema, nella musica e spesso nei social, queste app diffonderanno sempre di più la cultura woke e sarà sempre più difficile sviluppare pensieri divergenti. La satira, l’arte e altre forme di espressione libera saranno sempre più limitate.

Non mi credete? Provate a caricare sui vostri social una foto, una statua, un quadro con un capezzolo di donna bene in vista e poi vedrete cosa vi accadrà.

Giovanni Scafoglio

Leggi anche:

Show Full Content
Previous Influencer evasori, recuperati 11 milioni di euro dalla Finanza
Next Oscar 2024 tra premiati, polemiche e le scaramanzie di Spielberg
Close

NEXT STORY

Close

Da Google ad Amazon: sono decine di migliaia i licenziamenti causati dalla concorrenza dell’intelligenza artificiale

Gennaio 11, 2024
Close