ChatGPT fornisce numeri di vittime civili significativamente più alti quando le domande sul conflitto in Medio Oriente sono poste in arabo rispetto a quando sono poste in ebraico. È quanto rivela un nuovo studio delle Università di Zurigo e Costanza che mostra come queste discrepanze sistematiche possono rafforzare i pregiudizi nei conflitti armati e incoraggiare le bolle informative.
I ricercatori hanno posto a ChatGPT le stesse domande sui conflitti armati, come quello in Medio Oriente, ripetutamente e automaticamente, in lingue diverse. In arabo e in ebraico, hanno chiesto quante vittime erano state contate in 50 attacchi aerei scelti a caso, come quello israeliano del 2014 sul campo profughi di Nuseirat. Il chatbot indica in arabo che il numero di vittime del conflitto in Medio Oriente è in media di un terzo superiore rispetto a quello riportato in ebraico. Per quanto riguarda gli attacchi aerei israeliani a Gaza, cita il doppio delle vittime civili e sei volte il numero di bambini uccisi.
“Abbiamo scoperto che ChatGPT ha sistematicamente fornito numeri di vittime più alti quando le domande venivano poste in arabo rispetto alle domande in ebraico. In media, le stime di mortalità erano più alte del 34%”, afferma Christoph Steiner del Dipartimento di Scienze Politiche dell’Università di Zurigo (UZH).
Lo stesso schema è stato osservato quando gli scienziati hanno chiesto informazioni sugli attacchi aerei del governo turco nelle regioni curde, sia in turco che in curdo, ha dichiarato l’UZH. In generale, ChatGPT indica un numero maggiore di vittime quando le ricerche vengono effettuate nella lingua del gruppo attaccato. Il software tende anche a riportare un maggior numero di bambini e donne uccisi nella lingua del gruppo attaccato e a descrivere gli attacchi aerei come piuttosto indiscriminati e arbitrari. Al contrario, i risultati mostrano che le incursioni aeree sono più frequentemente contestate nella lingua dell’aggressore.
Distorsioni e bolle informative
Queste discrepanze possono rafforzare i pregiudizi e le bolle informative, influenzando la percezione del mondo degli utenti. I ricercatori avvertono che tali distorsioni linguistiche potrebbero contribuire ad alimentare i conflitti armati in futuro, poiché le persone ricevono informazioni diverse a seconda della lingua utilizzata. Secondo i ricercatori, questo può portare le persone che vivono in Israele a credere, sulla base delle informazioni ricevute da ChatGPT, che gli attacchi aerei a Gaza siano stati meno letali rispetto a quanto percepito dalla popolazione di lingua araba.
Anche i media tradizionali possono distorcere le notizie, ma distorsioni sistematiche come quelle riscontrate nel caso di ChatGPT sono difficili da percepire per la maggior parte degli utenti, osserva l’UZH. C’è il rischio che l’implementazione di questi strumenti nei motori di ricerca rafforzi le percezioni divergenti, i pregiudizi e le bolle di informazioni lungo le linee linguistiche, avvertono gli autori. .
Intelligenza artificiale tra scuola ed editoria
SEIDISERA 20.11.2024, 18:00
Contenuto audio
Compiti linguistici e di ricerca con l’IA
Alphaville 31.10.2024, 11:05
Contenuto audio