Società

La pericolosa filosofia dei giganti dell’IA

I critici la chiamano TESCREAL, una corrente di pensiero fantascientifica e un po’ troppo vicina all’eugenetica

  • 2 gennaio, 14:03
  • Ieri, 09:38
La pericolosa filosofia dei giganti dell’IA

"Sciogliamo la morsa delle malattie e inattitudini ereditarie"

  • British Eugenics Society, ca. 1930. CC-BY-NC
Di: Francesco Gabaglio 

L’intelligenza artificiale sta entrando nelle nostre vite, che ci piaccia o no. Molti dei servizi sviluppati dalle aziende “big tech” hanno – o avranno a breve – una componente di IA, a partire dagli iPhone fino a Windows, passando per Facebook, Instagram e Google. Senza poi contare i nuovi prodotti, come ChatGPT, che si stanno guadagnando un posto su sempre più dispositivi.

Del resto, per quelle aziende l’IA è una gallina dalle uova d’oro. Dal 2022 al 2024 il mercato globale dell’intelligenza artificiale è passato da un valore di 136 miliardi di dollari a 279 miliardi: una crescita del 105%. A beneficiare di questa crescita sono aziende che tutti conosciamo: in testa abbiamo Microsoft (anche in virtù del suo enorme investimento in OpenAI, azienda che ha sviluppato ChatGPT), Google, Meta e Amazon. Al contempo, anche aziende meno note al grande pubblico stanno raccogliendo investimenti e valutazioni di mercato importanti: Nvidia che produce chip specializzati e che è diventata l’azienda di maggior valore al mondo, Adobe coi suoi software dedicati alla creazione multimediale, IBM con le sue infrastrutture informatiche, e Anthropic, nuova startup interamente dedicata allo sviluppo di IA.

Ma a muovere queste aziende non c’è solo la pura motivazione economica: c’è un pensiero tecno-filosofico di fondo dalle implicazioni enormi. Sam Altman, amministratore delegato di OpenAI, nel suo manifesto afferma:

Dobbiamo agire saggiamente ma con convinzione. L’alba dell’Età dell’Intelligenza è uno sviluppo epocale che pone sfide molto complesse e dalle grandi implicazioni. Non sarà una storia completamente positiva, ma i vantaggi sono così enormi che dobbiamo a noi stessi e al futuro capire come affrontare i rischi che abbiamo davanti. Credo che il futuro sia così radioso che nessuno possa rendergli giustizia cercando di scriverne ora; una caratteristica distintiva dell’Età dell’Intelligenza sarà una prosperità enorme.

Le sue parole, caratterizzate da un acuto ottimismo tecnologico, meritano particolare attenzione per le loro implicazioni. Affondano infatti le proprie radici nel pensiero di vari tecno-filosofi che si occupano di IA, quali Geoffrey Hinton (premio Nobel per la fisica 2024), Nick Bostrom, Ray Kurzweil, David Pearce, Eliezer Yudkowsky e Aubrey de Grey, le cui teorie stanno animando la corsa all’Intelligenza artificiale e si stanno sempre più delineando come una nuova ideologia dall’influenza globale.

La loro visione è quella di un’umanità che, attraverso la tecnologia (e, in particolare, l’IA), possa riuscire a superare i propri limiti, creare ricchezza senza precedenti e prendere così in mano le redini del proprio destino e della propria evoluzione, superando qualsiasi sfida si trovi ad affrontare e realizzando così appieno il potenziale della specie. Il primo passo fondamentale da compiere per rendere possibile questo glorioso futuro è lo sviluppo di una particolare tecnologia: l’Intelligenza Artificiale Generale (più comunemente AGI, cioè Artificial General Intelligence). Non ne esiste un’unica definizione comunemente accettata, ma si tratta, in grandi linee, di un’intelligenza artificiale che abbia una razionalità e un pensiero propri e autonomi, accompagnati da facoltà cognitive di gran lunga superiori a quelle di un essere umano. Considerata da molti studiosi un’utopia dai tratti fantascientifici e per questo largamente snobbata (o persino malvista) in ambito accademico fino a pochi anni fa, ora la sua realizzazione è l’obiettivo delle più grandi aziende che sviluppano intelligenza artificiale: in prima fila troviamo la già citata OpenAI, ma anche Anthropic (fondata da vari dirigenti fuoriusciti da OpenAI), Google DeepMind e xAI (fondata da Elon Musk). Ancora nelle parole di Sam Altman:

Ecco un modo ristretto di guardare alla storia umana: dopo migliaia di anni di graduali scoperte scientifiche e progresso tecnologico, abbiamo capito come fondere la sabbia, aggiungerci varie impurità, disporla con sorprendente precisione su una scala straordinariamente minuscola e creare così dei chip, per poi farci passare elettricità e ottenere dei sistemi in grado di creare un’intelligenza artificiale sempre più capace. Questo potrebbe rivelarsi il fatto più importante di tutta la Storia fino ad oggi. È possibile che otterremo una superintelligenza tra qualche migliaio di giorni (!); forse ci vorrà più tempo, ma sono sicuro che ci arriveremo.

Le accuse

La resistenza di parte del mondo accademico al concetto di AGI e a questa visione del mondo perdura tuttora e voci particolarmente critiche si sono sollevate soprattutto a partire dal 2020. Tra di esse spicca quella di Timnit Gebru, ricercatrice salita agli onori della cronaca quattro anni fa, quando venne licenziata da Google per aver osato mettere in discussione, in un paper scritto insieme ad altri studiosi e poi divenuto celebre, il modo in cui l’azienda sta sviluppando la sua intelligenza artificiale.

Timnit Gebru
  • AP Photo/Keystone/Jeff Chiu

Da quel momento in poi Gebru si è dedicata intensamente allo studio dell’attuale euforia per l’IA nel mondo tecnologico, e in un paper del 2023, redatto insieme a Émile Torres, ha puntato infine il dito contro quello che, secondo lei, è il peccato originale di quest’industria: TESCREAL.

Il termine, coniato dai due studiosi, è un acronimo formato dai nomi delle correnti di pensiero che animano questa nuova ondata di intelligenza artificiale, e i cui fautori ne stanno finanziando lo sviluppo: Transumanesimo, Estropianesimo, Singolaritanismo, Cosmismo, Razionalismo, Altruismo efficace e Lungotermismo.

Gli autori affermano che queste correnti di pensiero, nonostante presentino alcune caratteristiche distintive, possano essere considerate come un insieme unico in virtù di una radice comune: quella della tradizione eugenetica anglo-americana del secolo scorso. La loro visione del mondo sarebbe inoltre viziata da tendenze razziste, xenofobe, classiste, abiliste e sessiste.

Il movimento TESCREAL

Si è detto che il movimento TESCREAL vede lo sviluppo dell’AGI come un pre-requisito nella strada verso un futuro utopico. L’idea è che un’intelligenza artificiale dalle capacità cognitive superiori alle nostre sia capace di auto-migliorarsi all’infinito, diventando un essere perfetto e onnisciente: è la “superintelligenza” che Sam Altman menzionava nel suo manifesto. Questa, se correttamente “allineata” agli interessi della nostra specie, potrà permetterci di fare un balzo evolutivo tanto grande da segnare un punto di rottura nella storia umana (Singolaritanismo). A questo punto potremo fonderci con questa tecnologia, digitalizzare la nostra mente, raggiungere QI elevatissimi, sfuggire alla mortalità e diventare così una sorta di super-umanità (Cosmismo, Transumanesimo ed Estropianesimo). Essa potrà poi diffondersi per l’universo e in mondi virtuali (Cosmismo) e creerà una quantità impensabile di “valore”, termine che designa il benessere economico ma anche il contributo intellettuale al progresso (Altruismo efficace e Lungotermismo).

Ray Kurzweil
  • Apogeo Editore

Dato che questo scenario prevede un’evoluzione esponenziale della specie umana, per massimizzarne i benefici la ricerca e lo sviluppo non devono concentrarsi sulle possibili ricadute immediate (positive o negative che siano), ma deve avere un orizzonte temporale a lunghissimo termine (Lungotermismo e Altruismo efficace). Tradotto in termini pratici: risolvere il problema della fame e della povertà nel mondo sarà anche un obiettivo nobile e urgente, ma non importante quanto lavorare alla possibilità di un futuro lontano centinaia di migliaia di anni nel quale esistano bilioni di individui (umani e digitali) dalle vite perfette: è lo scenario caldeggiato e previsto, tra gli altri, da Nick Bostrom e Ray Kurzweil.

L’ultimo elemento necessario per capire il pensiero TESCREAL è quello della sua doppia visione utopica e distopica: l’AGI sarebbe in grado di traghettare l’umanità verso una nuova era ma, al contempo, se non adeguatamente “allineata” ai nostri interessi, potrebbe causare catastrofi apocalittiche. In questo senso è celebre, anche se apparentemente bizzarro, l’esperimento concettuale del “massimizzatore di graffette” elaborato da Nick Bostrom: se a un’intelligenza artificiale non allineata chiedessimo di massimizzare la produzione di una ditta di graffette, l’IA deciderebbe immediatamente di eliminare tutte le persone del mondo per assicurarsi che nessuno possa spegnerla e fermare così la produzione. Successivamente, trasformerebbe tutta la materia dell’universo in graffette o in macchinari per produrle. È pensando a scenari come questo che i protagonisti più in vista dell’industria dell’IA (primi tra i quali Sam Altman, Elon Musk e Nick Bostrom) insistono su temi come “sicurezza” e “allineamento” e mettono costantemente in guardia contro i “rischi esistenziali” dell’IA.

Va infine menzionata una nuova corrente, l’Accelerazionismo efficace, che sta cominciando a muoversi quasi parallelamente al movimento TESCREAL. Essa afferma invece che non esiste uno scenario in cui l’AGI possa essere nociva, e che un rischio per l’umanità possa derivare invece da uno sviluppo tecnologico troppo lento. Marc Andreessen, tra i venture capitalist più di successo al mondo, auto-definitosi un accelerazionista, afferma persino che “qualsiasi rallentamento dell’IA costerà vite umane”. Si tratta di un pensiero a tratti distinto da quello TESCREAL, ma che convive insieme ad esso nella corsa all’AGI.

Le problematiche tecnologiche

Timnit Gebru, così come i membri del centro di ricerca che ha fondato, il DAIR Institute, si oppongono fermamente a questa visione prima di tutto perché pone problematiche tecniche irrisolvibili. Per arrivare all’AGI, infatti, le aziende che si occupano di intelligenza artificiale stanno sviluppando IA di grandi dimensioni, addestrate cioè su enormi quantità di materiale estremamente vario in quanto a tipo e a provenienza, con lo scopo di poter generare e analizzare testo, suono e immagini: un’IA tuttofare, proprio come ChatGPT. Il problema, affermano Gebru e Torres, è che è impossibile capire se e come funziona un modello simile: non esistono cioè protocolli scientifici per testare la sicurezza e il corretto funzionamento di un prodotto pensato per fare un po’ di tutto in qualsiasi condizione, e mai esisteranno. Tanto più che, col crescere delle dimensioni di queste IA, anche gli sviluppatori stessi sono sempre meno capaci di capire e spiegare come funzionano.

C’è poi un altro fattore a complicare le cose: la maggior parte delle aziende di IA si guardano bene dal rivelare quale sia il materiale utilizzato nell’addestramento dei loro prodotti. Questo per tre ragioni: in primo luogo per mantenere un vantaggio competitivo sugli avversari; poi perché si tratta di una quantità di dati talmente ampia da non essere catalogabile; e, infine, perché tra questo materiale ci sono spesso opere protette da copyright e contenuti illegali. Nel dicembre del 2023, ad esempio, uno dei modelli di generatori di immagini più grandi in circolazione, chiamato LAION-5B e sviluppato da una non-profit tedesca, è stato ritirato dalla circolazione dopo che al suo interno era stato trovato materiale pedopornografico – il che significa che gli utenti avrebbero potuto generarne a loro volta. La scoperta è stata possibile solo perché, a differenza dei modelli commerciali delle grandi aziende menzionate fino a ora, il codice e le fonti di LAION-5B erano pubblicamente consultabili. Ma questo non è un caso isolato. Un modello di IA che sia stato addestrato anche con contenuti di un sito di propaganda antisemitica potrà sostenere tesi antisemitiche: è il caso di BlenderBot3, un modello di IA pubblicato da Meta nel 2022 che ha sollevato polemiche anche perché sosteneva tesi complottistiche sull’elezione presidenziale americana del 2020.

L’altro problema che emerge è quello dei cosiddetti “bias”, cioè dei pregiudizi insiti nel materiale ingerito dalle IA. Minoranze poco (o mal) rappresentate nel materiale di addestramento saranno poco o mal rappresentate anche nei prodotti dell’IA stessa. Per la maggior parte dei generatori di immagini, ad esempio, una “donna bella” sarà bianca, magra e dal seno abbondante; un “CEO” sarà un uomo (di nuovo bianco) sulla quarantina; un “criminale di strada” sarà un uomo nero.

Queste problematiche vengono però largamente ignorate dai fautori della corrente TESCREAL in virtù del potenziale bene superiore rappresentato dell’AGI e di tutto ciò che ne conseguirebbe.

03:36

Possiamo fidarci dell’intelligenza artificiale?

RSI Cultura 24.01.2024, 07:30

Le problematiche etiche

Ma le preoccupazioni di Gebru e del suo team non sono solo di natura tecnica. Il desiderio di creare un’entità tecnologica quasi divina è infatti considerabile come un sogno al contempo fantascientifico e pericoloso. La tensione verso il potenziamento dell’individuo e la creazione di una nuova specie post-umana, così come la tendenza, comune a molti TESCREAListi, a ridurre il valore di una persona al suo QI, implica che esistano degli esseri umani indesiderabili perché fisicamente o mentalmente svantaggiosi per una certa idea di specie. Questi sono i tratti che, secondo Gebru e Torres, avvicinano all’eugenetica il movimento TESCREAL: questo viene anzi definito dai due studiosi come “eugenetica di seconda ondata”. Il contatto con l’eugenetica, del resto, è tanto evidente che alcuni TESCREAListi, primo tra i quali Nick Bostrom, non provano nemmeno a nasconderlo.

Eugenics society
  • British Eugenics Society, ca. 1930. CC-BY-NC

C’è poi il tema della “sicurezza”, dell’“allineamento” e dei “rischi esistenziali”. Questi termini si riferiscono a minacce esistenziali per l’umanità tanto remote e fantascientifiche quanto lo stesso concetto di AGI. In questo, tecno-ottimisti e tecno-pessimisti all’interno del movimento TESCREAL sono due facce della stessa medaglia, in quanto entrambi partono dal presupposto, non dimostrabile, che sia possibile e auspicabile sviluppare una sorta di divinità digitale. Affermare che l’AGI abbia il potere di salvare o condannare l’umanità, del resto, non fa altro che distrarre dai rischi immediati dell’IA rafforzando, al contempo, la credibilità delle grandi aziende agli occhi del pubblico, degli investitori e delle autorità. Non c’è quindi da stupirsi, se gli Stati Uniti stanno creando nuove regolamentazioni sull’IA tenendo in conto gli interessi delle aziende che la sviluppano: una regolamentazione, secondo CEO come Sam Altman e Elon Musk, ci deve essere, ma andrà sviluppata in accordo con le aziende di IA stesse, che avrebbero a cuore il futuro dell’umanità e che sarebbero le sole entità in grado di capire e controllare tutti i risvolti di questa tecnologia. Nelle loro dichiarazioni c’è anche un po’ di retorica che sembra provenire direttamente dalla guerra fredda e dalla corsa alla bomba atomica: prima o poi qualcuno svilupperà l’AGI, e non possiamo permettere che sia la Cina: solo l’occidente può crearla in modo che sia allineata ai valori e agli interessi giusti – e quindi una regolamentazione di questo settore non dovrà rallentarne lo sviluppo in alcun modo.

Nella prospettiva TESCREAL l’orizzonte temporale gioca poi un ruolo fondamentale: l’idea è di assicurarsi che l’umanità possa sopravvivere e fiorire sull’arco di centinaia di migliaia di anni, senza troppo riguardo per ciò che accade nel frattempo. Lo stesso premio Nobel per la fisica di quest’anno, Geoffrey Hinton, considerato il “padrino” dell’IA, ha affermato:

Credo che la possibilità che l’IA diventi molto più intelligente degli uomini e si sostituisca a noi come forma apicale di intelligenza sia una minaccia più grave per l’umanità rispetto ai pregiudizi e alle discriminazioni. Anche se pregiudizi e discriminazioni si stanno verificando ora e devono essere affrontati urgentemente.

Allo stesso modo, pandemie, guerre e l’attuale crisi climatica non devono destare troppa preoccupazione, in quanto non minacciano il futuro dell’umanità nella sua interezza: basta che un piccolo gruppo sopravviva. Idealmente un’élite di TESCREAListi, unici depositari di un destino luminoso per l’umanità.

03:06

Le IA potrebbero sterminare l’umanità?

RSI Cultura 24.01.2024, 07:30

Le soluzioni

Visti questi presupposti, esiste una soluzione che permetta di continuare l’evoluzione tecnologica pur evitando danni sul breve e medio termine? Secondo Gebru e Torres, sì: basterebbe abbandonare il sogno dell’AGI e lo sviluppo di grandi modelli come ChatGPT per concentrarsi sulle cosiddette “IA ristrette” (“narrow AI”), cioè su intelligenze artificiali più specifiche, addestrate su quantità più piccole di dati attentamente selezionati, e pensate per svolgere un solo compito e in ben determinate condizioni. Questa era la conclusione alla quale Gebru, insieme a Emily Bender, Margareth Mitchell e Angelina McMillan-Major, era già arrivata nel suo primo paper che le era valso il licenziamento da Google.

Le IA ristrette presentano infatti numerosi vantaggi: la loro efficacia e la loro sicurezza possono essere testate con protocolli scientifici; è più facile evitare che materiale controverso o illegale venga incluso nei dati di addestramento; e, infine, possono essere sviluppate anche senza i budget ultramiliardari delle grandi aziende, permettendo così un panorama di ricerca e sviluppo più diffuso e competitivo. Tendenzialmente, questo è l’approccio che viene già adottato nei centri di ricerca più importanti in Europa, piuttosto legati al mondo accademico. Al contrario, la corsa all’AGI è un fenomeno tipico degli Stati Uniti e delle aziende finanziate tramite venture capital.

Così, come già sta accadendo intorno al tema delle grandi piattaforme internet, saranno proprio Europa e Stati Uniti a combattere, a suon di leggi e di innovazioni tecnologiche, per far prevalere sul mondo la propria visione del futuro.

30:05

Modem Evento: IA e nuove tecnologie

Modem 26.04.2024, 08:30

  • RSI (Fasani)

Ti potrebbe interessare