“Dobbiamo avere fiducia in quelle che sono le potenzialità dell’intelligenza artificiale e dobbiamo avere una sana paura per evitare che venga utilizzata in maniera negativa. Non vedo uno scenario catastrofico alla Terminator con l’intelligenza artificiale che ci sopravanza e ci rende inutili. Però vedo il rischio concreto di un’esacerbazione della particolare situazione socioeconomica attuale in cui si crea una specie di turbocapitalismo alimentato dall’intelligenza artificiale”.
Se da un lato Andrea Rizzoli, direttore dell’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI), ci rassicura scongiurando ipotetici scenari apocalittici, dall’altro ci mette in guardia sulle insidie che si nascondono dietro allo sviluppo e all’utilizzo dell’intelligenza artificiale (IA).
L’evoluzione dei modelli generativi GPT
Negli ultimi mesi si è parlato sempre più spesso dei modelli generativi GPT (acronimo di Generative Pre-trained Transformer, una tecnologia che utilizza reti neurali artificiali per scrivere come un essere umano) soprattutto da quando OpenAI – società fondata da Sam Altman - ha rilasciato al grande pubblico l’aggiornamento di ChatGPT. Un avanzamento tecnologico del modello linguistico che ha sorpreso la comunità scientifica. E non solo per la rapidità nei progressi.
“Si vedono quelle che si possono definire le scintille dell’intelligenza artificiale generale, che è l’intelligenza più simile alla nostra”, spiega Rizzoli. “Queste macchine sono in grado di superare numerosi test di intelligenza che sono tipicamente stati predominio degli esseri umani”. Una situazione che rende sempre più difficile distinguere la macchina dall’essere umano. Ogni volta che ci si troverà a dialogare con questi sistemi, faremo sempre più fatica a capire se stiamo interagendo con una persona o una macchina.
Entro fine anno dovrebbe essere rilasciata GPT-5 e sono molte le speculazioni sul suo sviluppo o sulle sue capacità. “Personalmente credo che sarà un modello che cercherà di correggere alcuni problemi, aumentando la sua affidabilità. Non penso che sarà una rivoluzione sull’architettura, sulla struttura".
Punto intermedio o punto di svolta?
“Alcuni scienziati – tra cui anche Jürgen Schmidhuber – hanno teorizzato l’esistenza di un punto di singolarità tecnologica, che è il momento in cui le macchine diventeranno più intelligenti degli esseri umani. Ci sono degli indizi che ci stiamo avvicinando a questo punto”, continua Rizzoli. Alcuni definiscono il 2040 come orizzonte temporale, altri invece fanno previsioni più a corto termine.
Una premessa che potrebbe aver portato numerosi esperti del settore, imprenditori e accademici a firmare una lettera aperta e chiedere una pausa di almeno sei mesi nell’addestramento dei sistemi più potenti di GPT-4 “per non perdere il controllo della nostra civiltà a causa dell’intelligenza artificiale”. Un appello che all’interno della comunità scientifica ha sollevato alcune perplessità.
“Gli aspetti etici vanno sicuramente considerati, come anche l’impatto sulla società di questo tipo di strumenti. Però dire “adesso ci fermiamo per sei mesi” non ha molto senso, anche perché non si hanno garanzie che tutti aderiscano alla moratoria. Inoltre, si potrebbero venire a creare delle situazioni in cui determinati vantaggi competitivi, anche commerciali, vengano surgelati per sei mesi. Questi strumenti sono anche strumenti strategici.”
RG 12.30 del 30.03.2023 Il servizio di Chiara Savi
RSI Info 30.03.2023, 12:30
Contenuto audio
Verso una regolamentazione per un uso responsabile
La necessità di trovare un equilibrio tra sviluppo e utilizzo responsabile ed etico di questi modelli di AI è un tema ricorrente. Chi lavora nel settore riconosce la necessità di una regolamentazione, senza che questa uccida l’innovazione.
L’UE sta lavorando da tempo all’AI Act, la prima legge sull'IA da parte di un importante regolatore al mondo, che salvo imprevisti dovrebbe vedere la luce entro quest’anno. Visti i progressi nello sviluppo dell’IA può esserci il rischio che quando entri in vigore sia già “desueta però metterà alcuni principi fondamentali che se implementati in maniera rigorosa daranno un quadro chiaro”.
Queste tecnologie acquisiscono inoltre una rilevanza geopolitica. Alcuni definiscono lo sviluppo di questi modelli come una pericolosa corsa agli armamenti. “L’IA è uno strumento molto potente e come tutti gli strumenti potenti può essere usata nel bene o nel male. Pensiamo all’esempio classico dell’energia atomica”, sottolinea Rizzoli.
"Il problema è sempre chi controlla l'informazione, chi controlla i flussi di denaro, chi ha il controllo di queste cose. Gli Stati democratici devono svolgere un ruolo fondamentale in questo particolare momento della storia della nostra umanità".
Tra opportunità e rischi
L’IA trova diverse applicazioni in quasi tutte le aree della nostra società, basta nominare per esempio la ricerca scientifica, la medicina, l’agricoltura, l’istruzione o l’industria. Le soluzioni che queste reti neurali complesse riescono a trovare possono risultare più efficienti, sostenibili e intelligenti rispetto a quelle ottenute da una persona. Ma questo è dovuto alla capacità di elaborare innumerevoli dati, che un cervello umano non potrebbe mai fare.
Questi sistemi hanno ancora dei limiti e non possiamo fidarci completamente di questi strumenti perché talvolta hanno le cosiddette “allucinazioni”, ovvero si immaginano cose che non esistono. Una situazione nota anche a Rizzoli: “In un esperimento ho chiesto al tool di scrivere una lettera di raccomandazione per un collega. Ha scritto una lettera bellissima e il mio collega era convinto che l’avessi scritta io. Poi ho chiesto al sistema su che cosa si fosse basato per scriverla e mi ha fornito una lista di articoli, con titoli e autori. Ma non esistevano questi articoli: erano plausibili ma non erano veri, non erano reali“.
Errori o output inattesi sono quindi comuni e non hanno a che fare con delle inaspettate abilità emergenti, anche se diversi studiosi stanno cercando di capire come la conoscenza venga rappresentata ed evolva all’interno di questi sistemi. “Sono tool statistici che non hanno ancora autocoscienza. Il futuro però non sappiamo cosa ci riserva”.