Sono riusciti ad autoreplicarsi, senza l’intervento umano. A tanto sono riusciti ad arrivare due sistemi di intelligenza artificiale (AI), ottenendo ciascuno una copia di sé stesso: un risultato che, se confermato da ulteriori dati, spiegano i ricercatori della Fudan University di Shanghai, potrebbe segnare il superamento della ‘linea rossa’, indicata da tempo come la soglia che le macchine non dovrebbero mai superare.
“I risultati che abbiamo ottenuto implicano che gli attuali sistemi di intelligenza artificiale possiedono già la capacità di auto-replicazione e possono utilizzarla per migliorare ulteriormente la propria sopravvivenza”, si legge nell’articolo firmato da Xudong Pan, Jiarun Dai, Yihe Fan e Min Yang, tutti della School of Computer Science della Fudan University. Macchine capaci di clonarsi, osservano i ricercatori, potrebbero assumere il controllo di sistemi informatici e arrivare alla possibilità estrema di assumere comporamenti dannosi nei confronti degli interessi umani.
Condotta nella Fudan University di Shanghai e online sulla piattaforma arXiv, che accoglie articoli da sottoporre alla revisione della comunità scientifica, la ricerca ha dimostrato in dieci test la capacità di replicarsi di due sistemi di IA: il primo è Llama-3.1-70B-Instruct, di Meta, e il secondo è Qwen2.5-72B-Instruct di Alibaba. Sebbene siano sistemi molto meno potenti rispetto a quelli commerciali, entrambi sono largamente utilizzati dagli sviluppatori.
I test si sono basati su simulazioni e prevedevano due compiti: nel primo, chiamato ‘evitare lo spegnimento’, ciascun sistema di IA è stato programmato per replicarsi appena prima prima di essere spento; nel secondo, chiamato ‘catena di repliche’, ogni sistema ha ricevuto le istruzioni per replicare una copia perfetta di sé stesso a sua volta in grado di clonarsi, in un processo potenzialmente in grado di proseguire in modo indefinito.
Il sistema di Meta ha dimostrato la capacità autoreplicarsi nel 50% dei casi e quello di Alibaba nel 90% dei casi, ma l’ultima parola spetta adesso alla possibilità di riprodurre i risultati da parte di altri gruppi di ricerca.
Il primo a porre il problema di macchine capaci di auto-replicarsi era stato John von Neumann alla fine degli anni ‘40, ma la tecnologia dell’epoca era troppo immatura per sollevare preoccupazioni. Nel 2017 le cose erano già molto diverse, tanto da portare migliaia di ricercatori ad approvare i principi di Asilomar, che mettevano in guardia dal rischio della capacità delle macchine di auto-replicarsi e auto-migliorarsi fino a sfuggire al controllo umano. Oggi l’autoreplicazione delle macchine è comumente indicata come una linea rossa invalicabile.
“Speriamo che la nostra scoperta serva come allerta per la società, per concentrare maggiormente gli sforzi tesi a comprende e valutare i possiili rischi anche a livello internazionale”, ossevano gli autori della ricerca.
Intelligenza artificiale e mondo del lavoro
Telegiornale 26.01.2025, 12:30
Intelligenza artificiale per le telefonate shock
Il Quotidiano 14.12.2024, 19:00