Maggio 25, 2024
A ECORANDAGIO ospitiamo e formiamo i giornalisti di domani

Meta introdurrà etichette per immagini, video e audio generati dall’intelligenza artificiale. Nei prossimi mesi etichetteremo le immagini che gli utenti pubblicheranno su Facebook, Instagram e Threads»: ha scritto in un post Nick Clegg, Presidente Affari globali della società californiana. Meta starebbe dunque elaborando un metodo per distinguere i contenuti fake prodotti mediante AI da quelli autentici. La diffusione di contenuti falsi, alimentata dalla capacità dell’AI di creare immagini e video in scenari inesplorati o con individui mai incontrati, rappresenta una crescente pericolo. Ma siamo sicuri che sia tutto oro quello che luccica, soprattutto in vista delle imminenti elezioni in USA e in Europa? Siamo sicuri che Meta segnalerà, davvero, contenuti generati da IA?

Meta segnalerà contenuti generati da IA

Sono innumerevoli i casi di contenuti generati da IA che sono stati usati per creare fake news. Soprattutto per manipolare l’opinione pubblica in vista delle elezioni o per campagne di diffamazione sociale. Come si esce da questo ginepraio? Probabilmente, l’antidoto al veleno è il veleno stesso. Perché l’unica arma per contrastare questa pericolosa deriva è la stessa AI. Ciò dovrebbe accadere etichettando i contenuti creati attraverso questa tecnologia. E già qui tutto appare poco credibile. E’ sotto gli occhi di tutti la confusione che quotidianamente fa l’algoritmo di Meta sui contenuti che puntualmente pubblichiamo. Puntualmente fraintesi.

Meta, che ha sempre etichettato le immagini fotorealistiche create con la propria IA, ora estenderà questa pratica ai contenuti generati dagli strumenti di altre aziende. Questa iniziativa mira a fornire agli utenti una maggiore consapevolezza sui contenuti IA, in un momento in cui la distinzione tra contenuti reali e sintetici diventa sempre più sfumata​.

Meta sottolinea che i marker invisibili utilizzati per le immagini AI di Meta, come i metadati IPTC e i watermark invisibili, sono in linea con le migliori pratiche stabilite dalla Partnership on AI (PAI). Tuttavia, per chi vi scrive, sebbene i watermark digitali siano utili, non rappresentano una soluzione definitiva contro gli attori malintenzionati che cercano di ingannare il pubblico con contenuti fake.

Le fake news che girano attualmente su Meta e X

Da anni, chi vi scrive, racconta quanta manipolazione quotidianamente avvenga grazie all’uso dell’intelligenza artificiale e alla poca attenzione (a esser buoni) degli utenti dei social. X ad esempio è un covo di fake news sulla guerra tra Israele e Hamas. L’anno scorso, sempre su X venne sospeso il profilo dell’attivista americana Erica Marsh. A quanto pare era stata creata dall’ AI per truffare gli utenti per far aumentare tutti gli stereotipi legati ai democratici. Ne scrivemmo: Erica Marsh è un fake: l’inganno dell’AI. Delle Bufale e trattori: e il popolo di facebook ci casca sempre vi scrivemmo alcune settimane fa. Così come scrivemmo di Messaggi subliminali nell’era dell’intelligenza artificiale che diffondono Hitler.

Gli esempi di fake news generate da intelligenze artificiali (AI) e diffuse sulle piattaforme di Meta e X sono innumerevoli e spesso eclatanti.

Deepfakes di personaggi pubblici

I deepfake sono video o audio generati tramite AI che modificano l’aspetto o la voce di una persona per farle dire o fare cose mai realmente accadute. Un caso famoso è stato quello di video deepfake di politici o celebrità, come quello di Mark Zuckerberg che dichiarava di controllare i segreti di miliardi di persone, o il deepfake dell’ex presidente degli USA, Barack Obama, creato da Jordan Peele per sensibilizzare sul pericolo dei deepfake.

Falsi annunci di emergenza o notizie

Sono stati diffusi falsi annunci che utilizzano l’AI per creare scenari di emergenza o notizie completamente inventate. Questi possono variare da falsi avvisi di catastrofi imminenti a dichiarazioni di guerra.

Manipolazione di eventi storici

Immagini o video che mostrano eventi storici mai accaduti o modificati, come incontri tra persone che non si sono mai incontrate o eventi completamente falsificati.

Falsi Video di proteste o disordini civili

Alcuni video generati tramite AI sono stati usati per creare l’illusione di disordini civili o proteste in luoghi in cui non si stavano verificando, al fine di generare panico o influenzare l’opinione pubblica.

Immagini manipolate di disastri naturali

Foto di disastri naturali, come uragani, terremoti o incendi, che non sono realmente accaduti o sono stati digitalmente esagerati per creare sensazionalismo o paura.

Personalmente, considerando la poca efficacia degli algoritmi utilizzati da Meta per analizzare contenuti abbastanza elementari, sorge il dubbio sulla reale possibilità di marcare efficacemente contenuti sintetici. Questo perché, attraverso la rielaborazione con software appositi, è possibile eliminare o modificare qualsiasi traccia che possa indicare la natura sintetica del materiale. Di conseguenza, diventa estremamente difficile per le piattaforme riconoscere e segnalare i contenuti falsi generati da chatbot generativi.

Questa situazione rappresenta un rischio significativo, soprattutto in vista di eventi critici come le elezioni presidenziali negli Stati Uniti e le elezioni europee. La capacità di generare e diffondere notizie false, deepfakes convincenti e altri tipi di disinformazione potrebbe avere un impatto sostanziale sull’opinione pubblica e sui risultati elettorali. La manipolazione dell’informazione a scopi politici o personali è una minaccia reale alla democrazia e all’integrità dei processi elettorali.

E’ tutto oro ciò che luccica? Perché Meta segnalerà contenuti generati da IA

A volte a pensar male si fa peccato, ma non ci si allontana troppo dalla realtà. Mentre l’obiettivo dichiarato di contrastare le fake news è indubbiamente lodevole, non posso non chiedermi se le strategie di etichettatura dei contenuti di intelligenza artificiale da parte di meta non abbia finalità commerciali. Affinare e sfruttare i propri algoritmi con il pretesto della lotta contro le fake news. E, chissà, nel contempo per ostacolare le applicazioni generative concorrenti, escludendole, ad esempio, dalle proprie piattaforme?

Giovanni Scafoglio

Leggi anche

Show Full Content
Previous Tinder e le app di incontri non piacciono alla Gen Z
Next Chiuse le indagini per falso in bilancio sul Ministro Santanchè legati a Visibilia. Si va verso la richiesta di processo
Close

NEXT STORY

Close

Un autunno di grandi mostre

Agosto 19, 2020
Close