Intervista

L’Europa imbriglia l’IA: “Ecco quali saranno i limiti”

L’UE sta per introdurre regole per l’utilizzo dell’Intelligenza artificiale (IA). Il co-relatore Brando Benifei spiega al Faro del TG quali paletti saranno introdotti

  • 12 novembre 2023, 06:51
  • 16 novembre 2023, 07:13

Il Faro: L’intelligenza delle cose

Telegiornale 11.11.2023, 20:30

Di: Telegiornale/RSI Info

L’Intelligenza artificiale (IA) è sempre più alla portata di tutti e crea grandi opportunità, ma anche grandi rischi. Per questo l’Unione europea sta per introdurre delle nuove regole, che potrebbero ispirare molti Stati (Svizzera compresa).

“È la prima legge al mondo che non si accontenta di accordi volontari o raccomandazioni, ma pone in maniera chiara delle regole che saranno fatte rispettare tramite autorità di supervisione”, spiega al Faro del TG Brando Benifei, co-relatore sull’IA ACT al Parlamento europeo. Si tratterà, continua colui che è anche capodelegazione del Partito democratico, “di identificare quegli ambiti di utilizzo dell’IA più sensibili, pensiamo alla medicina, all’amministrazione della giustizia, ai diritti civili e sociali, ai luoghi di lavoro, allo sviluppo cognitivo dei bambini, ossia alle scuole”.

In questi ambiti l’IA verrà considerata dalla normativa europea più ad alto rischio di impattare su sicurezza, salute, diritti fondamentali, rischi di discriminazioni o di sfruttamento da parte di malintenzionati. “In particolare - spiega Benifei - vengono fissate regole perché sul fronte della gestione dei dati, della cybersicurezza, dell’impatto ambientale, della possibilità del controllo umano su queste attività ci siano tutti i dovuti controlli”.

Ma l’IA ACT si spingerà oltre. “Verranno identificati anche alcuni ambiti dove, secondo noi, l’IA dovrebbe essere addirittura vietata”. Pensiamo al controllo sociale tramite telecamere biometriche. “Qui mettiamo molti limiti, vietando alcuni utilizzi che possono portare a una sorveglianza di massa sui cittadini”, dice il co-relatore della legge.

“Correggere la discriminazione algoritmica”

Nel concreto Benifei spiega cosa significa vietare l’IA quando rischia di creare delle discriminazioni: “Faccio un esempio semplice, molto frequente, ahimé, oggi. Ci sono sistemi di selezione dei curricula lavorativi che scremano migliaia di domande con l’aiuto dell’AI. Sistemi che, come rilevato da accademici, hanno introiettato un pregiudizio contro le donne. Non proponendole per lavori di un certo livello di responsabilità”. Ciò avviene perché i dati con cui i sistemi di AI sono stati allenati hanno al loro interno questo tipo di pregiudiziale. “Questo aspetto - spiega Bonifei - si può correggere e noi vogliamo che sia messo sotto controllo. È la cosiddetta discriminazione algoritmica. È un esempio semplice, ma ce ne possono essere molti altri, pensiamo alle scuole dove possono esserci allievi di tante etnie diverse. Oppure pensiamo all’assegnazione di determinati diritti sociali a persone che vengono da determinati background o con un determinato orientamento sessuale”. Il ventaglio delle discriminazioni su cui può agire un’AI senza controlli è ampio.

Non c’è legge senza sanzioni. “Ne sono previstae di pecuniarie per chi non si adegua, ma anche la possibilità di venir esclusi dal mercato europeo. È una norma che va a mettere regole per chi vuole operare nel nostro continente. Poiché siamo uniti riusciamo a farci valere forse di più. Peraltro la Svizzera - ricorda il co-relatore dell’IA ACT - è molto integrata su questo fronte e quindi questo sarà un tema di relazione comune e compattante”.

In futuro il “deepfake” dovrà essere subito idenficabile

Tra gli esempi più citati dei rischi legati all’IA, ha fatto discutere il video diffuso dal consigliere nazionale UDC Andreas Glarner in cui la sua collega Sibel Arslan Verdi invitava a sostenere la destra. Contro simili utilizzi, “con le regole attuali si può fare poco o meglio si possono cercare di individuare reati esistenti - dice Benifei - . In futuro con il nostro regolamento avremo degli strumenti molto più efficaci, proprio rispetto all’esempio dei deepfake che raccontano una realtà inesistente e sono perciò potentissimi strumenti di disinformazione”. Oltretutto molto semplici da fare grazie all’IA. “Metteremo - continua - delle regole chiare: questi sistemi che li generano devono garantire la possibilità di essere immediatamente identificabili. Questo attraverso modalità tecnologiche. Un telefono con cui guardiamo i social deve poter riconoscere ed avvisarci che questa cosa è finta. È il cosiddetto ‘watermarking’ dei contenuti prodotti dall’AI. Su questo tema anche i grandi sviluppatori non sono contrari”.

Per l’entrata in vigore dell’IA ACT l’orizzonte per l’approvazione definitiva del regolamento è il 2024. “Dopodiché scatterà un periodo di circa due anni per la piena operatività. Nel frattempo, per l’impatto sui processi democratici, immaginiamo un processo chiamato il “Patto per l’Intelligenza artificiale”, con utilizzatori e sviluppatori, perché l’applicazione delle norme sia attuata prima, già per l’appuntamento delle elezioni europee”.

Correlati

Ti potrebbe interessare