L’antefatto nella cronaca: almeno 25 minorenni sarebbero state vittima in Spagna di “violenza sessuale online”. Alcuni ragazzi, anche loro minorenni, le hanno spogliate virtualmente con un programma di intelligenza artificiale e poi hanno pubblicato le foto sui social. Il fatto è stato denunciato dalle famiglie delle vittime, che sono state anche ricattate online da coloro che hanno ottenuto le foto, nelle quali appaiono nude e che hanno fatto il giro di diversi gruppi di WhatsApp. La polizia spagnola ha identificato i presunti colpevoli dopo aver ascoltato la testimonianza di almeno sette ragazze, e la Procura dei minori ha aperto un’indagine.
La presunta manipolazione delle immagini preoccupa i genitori e il Governo spagnolo. L’Esecutivo ha assicurato che esiste una legge apposta per la protezione dell’infanzia dell’adolescenza nella quale sono previsti i delitti online. Preoccupa ancora di più il fatto che l’applicazione usata è accessibile a tutti, anche ai minorenni, e non prevede misure di sicurezza. Per spogliare le foto di quattro persone ci vogliono meno di 4 euro e basta seguire semplici istruzioni.
Questa è la storia inquietante che ci giunge da Madrid. Al centro dell’attenzione c’è l’uso che si fa della cosiddetta Intelligenza artificiale generativa, quella in grado di generare testi, immagini, musica, video. Non è un mistero che questo tipo di intelligenza artificale possa aggravare il problema delle fake news. Ancora non ci sono statistiche precise sul fenomeno, ma i prodotti, sempre più realistici, sono ora anche più difficili da decriptare. Stiamo parlando non solo di articoli, ma anche di interi siti internet, che possono risultare falsi. A volte l’intenzione è solo di guadagnarci, a volte proprio quella di disinformare.
“Quello che è un po’ sorprendente negli ultimi tempi è la facilità con la quale è possibile prima di tutto generare questo testo shock e adattarlo alla provenienza del singolo utente che naviga, per esempio sulla base di quali contenuti fruisce oppure sulla base dell’IP dal quale naviga”, spiega Silvia Quarteroni, capoufficio del Swiss Data Science Center, istituito dai due Politecnici federali. “Questo significa massimizzare i click in direzione della fonte da cui si immettono questi contenuti”. Massimizzare i click significa dunque generare traffico verso un determinato sito internet, un prodotto e quindi un guadagno.
“Non ci sono solo post finti, ma interi siti e profili, probabilmente servizi di generazione di finte news con scopi che possono essere o “innocenti” (attirare click per fare pubblicità), oppure “maligni” (per esempio influenzare un elettorato o dare false informazioni per motivi politici o ideologici)”.
È un business in piena espansione. Oggi poi è davvero semplice creare un contenuto estremamente realistico, che sia testo, immagine o audio. Non solo le informazioni false sono in aumento, ma l’utente ha sempre più difficoltà a screditare quello che vede. Questa tecnologia però potrebbe essere causa del suo stesso male, perché, conclude l’esperta, “oggi come oggi i migliori strumenti per generare dei testi sono addestrati sulla base di dati generati da umani, e la stessa cosa vale per la generazione di immagini che è ispirata da immagini reali. Nel momento in cui viene immesso nel web un vasto quantitativo di contenuti generati, quindi artificiali, c’è un po’ il problema della ‘mucca pazza’, nel senso che la generazione successiva di contenuti artificiali addestrata sulla base di un mix vero e artificiale sarà di più scarsa qualità”.
Va detto che non per forza questi post sono prodotti da un’intelligenza artificiale generativa, ma tale tecnologia fa sorgere diversi interrogativi e preoccupazioni, anche per il settore del giornalismo.
“Questi programmi si nutrono di molti dati e le fonti sono spesso anche giornalistiche. E dunque sia noi sia i nostri membri ci chiediamo come possiamo difenderci da questo”, spiega Stefan Wabel di Schweizermedien, l’associazione degli editori che rappresenta oltre un centinaio di testate, tra stampa, radio e tv private. “Dov’è la trasparenza sul fatto che questo è il nostro contenuto? L’utilizzo di questi contenuti deve esserci remunerato. Il fenomeno certo non è nuovo, ma con l’aiuto dell’intelligenza artificiale si producono contenuti di questo tipo in gran numero e molto più rapidamente. Fino a oggi doveva farlo ‘a mano’ una persona davanti a un computer. Ora è molto più facile produrre false informazioni. Il problema si è aggravato”.
Gli usi pericolosi dell'intelligenza artificiale
SEIDISERA 19.09.2023, 18:52
Contenuto audio