Ottobre 22, 2024
A ECORANDAGIO ospitiamo e formiamo i giornalisti di domani

L’intelligenza artificiale generativa (AI) è sempre più presente nelle nostre vite e, sebbene le sue potenzialità siano enormi, sta sollevando preoccupazioni riguardo al suo impatto sulla democrazia. Secondo Izidor Mlakar, scienziato alla guida del team di ricerca HUMADEX, non è tanto l’intelligenza artificiale in sé a essere pericolosa, quanto la combinazione tra la tecnologia e la scarsa alfabetizzazione digitale degli utenti. Infatti, come afferma Mlakar, “i modelli di IA generativa possono essere utilizzati per creare disinformazione altamente convincente e media manipolati, che poi possono diffondersi rapidamente online”. Mlakar sottolinea che i social media, spesso alimentati da intelligenze artificiali, possono accelerare la diffusione di informazioni errate, influenzando l’opinione pubblica in modi subdoli. “I bot basati su IA e la messaggistica mirata possono essere utilizzati per influenzare ulteriormente l’opinione pubblica e il sentiment degli elettori”, evidenzia lo scienziato.

Chi è Izidor Mlakar scienziato di spicco nel campo dell’intelligenza artificiale generativa

Izidor Mlakar è uno scienziato di spicco nel campo dell’intelligenza artificiale, attualmente alla guida del team di ricerca HUMADEX (Human-centric Explorations and Research in AI, Technology, Medicine and Enhanced Data). Il suo lavoro si concentra sull’intersezione tra tecnologia, IA generativa e interazione uomo-macchina. Mlakar è affiliato al Laboratory for Digital Signal Processing presso la Faculty of Electrical Engineering and Computer Science dell’Università di Maribor, in Slovenia. Il suo team multidisciplinare, parte del progetto europeo Solaris, si dedica a sviluppare metodologie per affrontare i rischi e le opportunità legate all’uso dell’IA generativa in ambiti come la democrazia e l’impegno politico, con particolare attenzione a come queste tecnologie influenzano l’opinione pubblica e i processi decisionali.

Il ruolo di HUMADEX e il progetto Solaris

Il gruppo HUMADEX (Human-centric Explorations and Research in AI, Technology, Medicine and Enhanced Data) è impegnato in un progetto europeo di ricerca, Solaris, che mira a gestire i rischi e le opportunità derivanti dalle tecnologie di intelligenza artificiale generativa. Solaris è un progetto multidisciplinare che coinvolge non solo esperti di intelligenza artificiale, ma anche psicologi e specialisti dell’interazione uomo-macchina. L’obiettivo è quello di creare un sistema che sia allo stesso tempo tecnologicamente avanzato e facilmente accessibile agli utenti.

Uno dei principali strumenti sviluppati da HUMADEX è il Perceived Deepfake Trustworthiness Questionnaire (PDTQ), un questionario che misura la fiducia degli utenti nei confronti dei contenuti generati dall’IA, in particolare i video deepfake. Questo strumento, validato in tre lingue (inglese, sloveno e italiano), è fondamentale per comprendere l’impatto delle IA sugli atteggiamenti delle persone verso temi sensibili come “il cambiamento climatico e l’immigrazione”. Secondo Mlakar, questo sarà uno dei focus del primo caso d’uso del progetto, dove si cercherà di valutare l’impatto dei contenuti generati dall’IA su questi temi.

I rischi dell’IA generativa per la democrazia

La capacità dell’IA generativa di produrre contenuti credibili e manipolativi rende difficile, per l’utente medio, distinguere tra fatti e finzione. Questo fenomeno è particolarmente pericoloso per le democrazie, poiché le decisioni politiche e sociali possono essere facilmente influenzate da narrazioni false e contenuti fuorvianti. La mancanza di alfabetizzazione digitale tra la popolazione è una delle principali cause della vulnerabilità democratica di fronte a queste tecnologie. “Molte persone faticano a valutare criticamente l’accuratezza e l’affidabilità delle informazioni online, specialmente quando provengono da fonti generate dall’IA”, avverte Mlakar.

Uno dei problemi più gravi è la creazione di deepfake, video che sembrano autentici ma che sono completamente falsi. Questi video possono essere utilizzati per diffondere disinformazione e destabilizzare governi e istituzioni. Ad esempio, si potrebbe creare un video falso di un leader politico che afferma qualcosa di estremamente controverso, con conseguenze devastanti sull’opinione pubblica.

Secondo Mlakar, è fondamentale che i cittadini siano educati a comprendere i rischi e a valutare criticamente i contenuti digitali. Solo attraverso una maggiore alfabetizzazione digitale si potrà limitare il potenziale negativo dell’IA generativa.

Le soluzioni proposte dal progetto Solaris

Il progetto Solaris propone diverse soluzioni per affrontare queste problematiche. Il primo passo è educare i cittadini su come riconoscere i contenuti generati dall’IA e valutarne l’attendibilità. Il team di Solaris sta sviluppando meccanismi educativi che spiegano agli utenti come distinguere tra contenuti reali e manipolati, fornendo strumenti concreti per analizzare la credibilità delle informazioni. “La nostra attività principale è stata progettare, testare e validare una scala che misura la fiducia nei contenuti generati dall’IA, cioè il Perceived Deepfake Trustworthiness Questionnaire (PDTQ)”, spiega Mlakar.

Nel secondo caso d’uso del progetto, Solaris si concentra su come i decisori politici e i media dovrebbero reagire di fronte a minacce alla democrazia. In questo contesto, vengono proposte metodologie per simulare scenari di disinformazione generata dall’IA e per gestire le conseguenze offline di tali attacchi. Ad esempio, il progetto prevede la simulazione di un deepfake che rappresenta un attacco a una centrale nucleare, esaminando come la società reagirebbe a una simile crisi e quali misure adottare per evitare il panico.

Educazione e regolamentazione come chiave per la protezione democratica

La chiave per affrontare i rischi dell’IA generativa è una combinazione di educazione digitale e regolamentazione. Mlakar sottolinea l’importanza di una collaborazione tra settore pubblico e privato per stabilire standard industriali che regolamentino lo sviluppo e l’implementazione dell’intelligenza artificiale. L’AI-Act, una proposta normativa dell’Unione Europea, rappresenta un passo avanti in questa direzione, ma deve essere adottata su scala globale per avere un impatto significativo.

“La chiave è l’alfabetizzazione sull’IA e l’educazione per permettere ai cittadini di valutare criticamente i contenuti generati con essa, nonché per aiutarli a capire come queste tecnologie possono essere usate sia in modo improprio, sia per il bene”, conclude Mlakar.

Giovanni Scafoglio

Leggi anche

Show Full Content
Previous Liam Payne, One Direction, morte dovuta ad abuso di droghe
Next Ogni minuto passato davanti a uno schermo fa perdere 6,6 parole adulte ai bambini di 3 anni
Close

NEXT STORY

Close

In arrivo milioni di euro per i comuni e tasse splamabili su 24 mesi.

Agosto 7, 2020
Close