Aprile 30, 2024
A ECORANDAGIO ospitiamo e formiamo i giornalisti di domani

L’algoritmo di Instagram si trova al centro di un’indagine sconcertante, che ha rivelato la promozione attiva di account pedofili e contenuti illegali sulla piattaforma di social media. Lo studio è stato condotto dal Wall Street Journal in collaborazione con i ricercatori della Stanford University e dell’Università del Massachusetts. L’inchiesta ha portato alla luce una rete estesa di account che sono apertamente dedicati alla commissione e all’acquisto di contenuti di sesso minorile. In questa inchiesta viene messo in evidenza quanto l’algoritmo di Instagram favorisce i profili pedofili.

L’indagine ha svelato che la connessione tra pedofili e la promozione di contenuti illegali non era un segreto

In Italia, la polizia ha rilevato un aumento degli adescamenti online tra i minori, con 56 casi segnalati nei primi tre mesi del 2023 e 430 casi nel 2022. Tuttavia, l’indagine del Wsj ha rivelato che Instagram non si limita ad ospitare tali contenuti illeciti, ma li promuove attivamente. Gli algoritmi della piattaforma collegano i pedofili e li guidano verso i venditori di contenuti mediante sistemi di raccomandazione.

La promozione sfacciata di tali contenuti non cerca nemmeno di nascondersi. Sono utilizzati hashtag inequivocabili come #pedowhore e #preteensex, che consentono di raggiungere facilmente account che pubblicizzano in vendita materiale pedopornografico. Molte di queste pagine affermano addirittura di essere gestite direttamente dai bambini stessi.

Gli account pedofili presentano menu con opzioni, che includono richieste di atti sessuali specifici

Inoltre, sono stati individuati offerte per video contenenti autolesionismo. Secondo l’articolo del Wsj, “a un certo prezzo, i bambini sono disponibili per incontri di persona”. È importante sottolineare il ruolo fondamentale svolto dagli algoritmi di Instagram, che hanno portato a un account di prova creato dal quotidiano economico ad essere “inondato di contenuti che sessualizzano i bambini” dopo aver cliccato su alcuni di questi hashtag.

Gli account pedofili utilizzano emoji che si avvalgono di correlazioni di parole molto basilari

Ad esempio, utilizzano una mappa perché “map” è l’acronimo di “minor-attracted person”, oppure una pizza al formaggio perché “cheese pizza” ha le stesse iniziali di “child pornography”. Molte di queste pagine si descrivono come “amanti delle piccole cose della vita” e indicano la loro forma di pagamento preferita nella biografia. Inoltre, gli account venditori spesso comunicano l’età del bambino utilizzando frasi come “al capitolo 14” o scrivendo “31 anni” seguiti da un’emoji di una freccia capovolta. Molte di queste pagine mostrano anche utenti con cicatrici da taglio sulle braccia o sulle cosce. Alcuni fanno riferimento ad abusi sessuali subiti in passato. È importante sottolineare che anche un semplice contatto con un account all’interno della comunità di pedofili di Instagram può portare la piattaforma a raccomandare agli utenti di aderire a tale comunità. Da qui l’accusa secondo la quale l’algoritmo di Instagram favorisce i pedofili.

In risposta alle rivelazioni del Wall Street Journal, Meta, l’azienda madre di Instagram, ha ammesso i problemi delle sue applicazioni e ha istituito una task force interna per affrontare questa delicata questione.

In pratica Meta ammette che l’algoritmo di Instagram favorisce i profili pedofili

Meta ha dichiarato che sta costantemente cercando modi per difendersi attivamente da tale comportamento. Avrebbe già rimosso 27 reti di pedofili negli ultimi due anni, pianificando ulteriori azioni di rimozione. In seguito alle segnalazioni, la piattaforma ha bloccato migliaia di hashtag che sessualizzano i bambini, alcuni dei quali erano collegati a milioni di post, e ha impedito ai suoi sistemi di raccomandare agli utenti di cercare termini noti per essere associati ad abusi sessuali.

Secondo il rapporto dello Stanford Internet Observatory, utilizzando gli hashtag associati al sesso minorile, sono stati individuati 405 venditori di materiale pedopornografico

Di questi, 112 contavano ben 22.000 follower. Si stima che il numero totale di account che seguono principalmente contenuti pedopornografici sia nell’ordine dei milioni. A gennaio, sono stati rimossi 490.000 account per violazioni delle politiche di sicurezza dei bambini. La situazione richiede azioni concrete per combattere questo fenomeno allarmante presente su Instagram.

La promozione di account pedofili su Instagram evidenzia i rischi reali a cui i minori possono essere esposti online

Proteggere i minori dai rischi dei social media richiede un impegno costante. È importante educare i giovani e genitori su un utilizzo corretto dei social, dei limiti di età, e sull’importanza della privacy, della gestione delle informazioni personali e dell’identificazione di comportamenti inappropriati o sospetti. Solo attraverso una combinazione di consapevolezza, comunicazione aperta e vigilanza attiva si può contribuire a creare un ambiente online più sicuro per i nostri ragazzi.

Giovanni Scafoglio

Leggi anche

Show Full Content
Previous Chi sono i giovani Hikikomori?
Next Miracolo in Colombia: quattro bambini sopravvivono 40 giorni da soli nella giungla dopo un incidente aereo
Close

NEXT STORY

Close

Global NFT Exhibition Rome – 15 gennaio 2022

Gennaio 14, 2022
Close