Società

L’intelligenza umana come antidoto ai possibili scenari dell’intelligenza artificiale

Doppio virtuale, apprendimento, relazioni sociali, libero arbitrio: benefici, rischi e responsabilità umana rispetto a una tecnologia che si sviluppa “alla cieca”

  • Ieri, 08:40
Intelligenza artificiale
  • iStock
Di: Elia Bosco 

La possibilità di creare un alter ego virtuale di noi stessi non è più fantascienza, ma è realtà. Se ci pensiamo, ogni attività, ogni movimento, ogni interazione che compiamo nel vasto universo dell’internet è in qualche modo registrata, archiviata, fissata in quelli che, nel linguaggio tecnico, si chiamano big data. Dei big data si nutrono gli algoritmi, sequenze di operazioni gerarchizzate eseguite per rispondere a una domanda e risolvere un problema. Essi ci definiscono in molti modi e possono arrivare addirittura a prevedere le nostre scelte e a mettere in dubbio, forse, il nostro libero arbitrio. Da questa prospettiva, i dati personali diventano come dei frammenti della nostra identità, costituiscono i pezzi di un essere virtuale che ci assomiglia. Ma fino a che punto? Se creassimo una copia virtuale di noi stessi, chi sarebbe? Sarebbe chi siamo? Sarebbe migliore o peggiore di noi? E noi, chi saremmo?

Domande certamente impegnative e di stampo filosofico, apparentemente troppo complesse e profonde per formulare una risposta soddisfacente e definitiva. Una cosa è certa: l’intelligenza artificiale sta sconvolgendo tutti i nostri punti di riferimento ed interessa ogni campo del nostro agire. Cosa c’è di tanto speciale, in noi in quanto esseri umani, che ci permette di pensare, di risolvere problemi, di essere creativi? Se pensiamo al cervello come una macchina, ecco che, potenzialmente, l’intelligenza artificiale, che è - essa senza alcun dubbio - una macchina, potrebbe svilupparsi tanto da arrivare ad emulare completamente il funzionamento del cervello umano. Già oggi la tecnologia è arrivata al punto di poter dire di fare cose “intelligenti”, poiché l’intelligenza artificiale è in grado di avere una o qualcuna delle facoltà proprie dell’essere umano.

Immagine 2024-10-10 113020.jpg

BabyX

  • Marc Sagar

Mark Sagar, creatore e direttore del Laboratorio per Tecnologie animate presso l’Istituto di Bioingegneria dell’Università di Auckland, ha sviluppato BabyX, un neonato virtuale realistico e interattivo creato attraverso l’uso dell’intelligenza artificiale. BabyX è a tutti gli effetti una simulazione psicobiologica di un bambino: ride, piange, sente, impara. Una metafora perfetta, dice Mark Sagar, del funzionamento del cervello umano che, in età infantile, è più che mai flessibile a nuovi insegnamenti. Anche il fantomatico doppio virtuale deve imparare a parlare, leggere, scrivere, accumulare esperienze e, così, sviluppare un algoritmo sempre più complesso che sappia reagire a diversi stimoli e produrre risposte coerenti con il suo “carattere”. Di fondamentale importanza, in questo processo, è il cosiddetto deep learning (apprendimento profondo): è un tipo di apprendimento profondamente umano, che si ispira al funzionamento del cervello nella misura in cui l’algoritmo sviluppa la capacità di generalizzare e di adattare a nuove situazioni comportamenti utilizzati in passato. Una vera e propria educazione della macchina.

thumbnail-website.jpg

Power Z The Videogame Learning Adventure

  • Powerz.tech

L’intelligenza artificiale, come detto, sta mettendo alla prova la quasi totalità degli ambiti dell’attività umana. Ci si domanda quale sarà il suo ruolo nell’educazione, nella didattica e nell’apprendimento. I fautori dell’uso dell’intelligenza artificiale nelle scuole sostengono che essa permetterà da un lato di eliminare il modello di insegnamento standardizzato per tutti gli allievi, adattandosi allo sviluppo cognitivo proprio di ogni singolo studente, dall’altro permetterà di liberare i discenti e le discenti dalle attività più ripetitive tipiche della scuola, consentendo agli allievi e alle allieve di concentrarsi maggiormente sullo sviluppo delle facoltà più importanti e lasciare da parte la meccanicità dell’apprendimento. Non si deve pensare che si stia parlando di questioni che interesseranno un futuro lontano, anzi. Se spingiamo lo sguardo fuori dalla Svizzera, ci renderemmo subito conto che molti metodi di insegnamento “tecnologici” sono già in atto. Per esempio, ClassDojo, Classcraft, Power Z sono strumenti che vengono già utilizzati nell’educazione e nella didattica. ClassDojo assegna un avatar a ciascuno studente ed il docente può gestire in toto la classe da quella piattaforma, senza la necessità di averli presenti fisicamente. Power Z si spinge ancora oltre attraverso un approccio di gamification dell’istruzione: ci si trova immersi in un vero e proprio videogioco che diventa il luogo in cui avviene l’apprendimento, con un sistema di ricompense che premia i risultati ottenuti.

Immagine 2024-10-10 143431.jpg

Hubert Dreyfus

  • Youtube.com

Di scetticismo ce n’è, giustamente, molto. Pensare che l’istruzione possa essere collegata alla meccanica psicologica della ricompensa toglierebbe ciò che c’è di più importante quando si tratta di imparare e incuriosirsi: farlo per sé stessi. Implementare questo tipo di tecnologie e di approcci non è detto che porti effetti benefici. È saggio, come sostengono in molti, considerare l’AI come uno strumento e temporeggiare su grossi investimenti in scala globale. Siamo in un momento storico in cui la tecnologia va così in fretta da non sapere in anticipo gli effetti che essa avrà sulla società nel lungo periodo. Ci si muove nel buio ed è senz’altro pericoloso, soprattutto in un ambito come quello dell’educazione. Il filosofo statunitense Hubert Dreyfus (Terre Haute, 1929 - Berkeley, 2017) è stato uno dei maggiori oppositori dell’intelligenza artificiale ed autore, tra gli altri libri, dell’eloquente saggio Cosa non possono fare i computer: i limiti dell’intelligenza artificiale (1972). Dreyfus è convinto del fatto che la conoscenza sia sempre incarnata in un corpo, dimensione che l’intelligenza artificiale non potrà mai fare propria: se un insegnante, ad esempio, è competente e appassionato, nel suo corpo ne incarna il significato e le persone reagiscono di conseguenza. Una trasmissione emotiva, sentimentale totalmente indipendente rispetto alla concretezza e meccanicità della trasmissione nozionistica.

Di fronte agli scenari possibili che l’avanzamento tecnologico dell’intelligenza artificiale, c’è chi ha preso posizione. L’Università di Montréal ha redatto, nel 2017, la Dichiarazione di Montréal per uno Sviluppo Responsabile dell’Intelligenza artificiale, articolata in dieci principi etici da seguire:

La Dichiarazione di Montréal si rivolge a tutti gli individui, le organizzazioni e le aziende che desiderano far parte di uno sviluppo responsabile dell’intelligenza artificiale, fornendo contributi scientifici o tecnologici, sviluppando progetti sociali, elaborando regole (normative e codici) a cui assoggettarla, per contrastare approcci malevoli o avventati, ovvero per allertare l’opinione pubblica, se necessario. Si rivolge inoltre ai rappresentanti politici, eletti o nominati, che i cittadini auspicano si occupino di sviluppare cambiamenti sociali, introdurre rapidamente un quadro di attuazione della transizione digitale al servizio del bene comune e prevedano i gravi rischi posti dallo sviluppo dell’AI (...). I principi di questa Dichiarazione sono basati sulla convinzione comune che gli esseri umani cerchino di crescere come esseri sociali dotati di sensazioni, pensieri e sentimenti, e ambiscano a realizzare il proprio potenziale esercitando liberamente le proprie capacità emotive, morali e intellettive. È compito dei vari soggetti interessati pubblici e privati e decisori politici a livello locale, nazionale e internazionale, fare in modo che lo sviluppo e l’applicazione dell’intelligenza artificiale siano compatibili con la difesa delle capacità e degli obiettivi umani fondamentali, e contribuiscano alla loro piena realizzazione. Avendo chiaro questo obiettivo, bisogna interpretare i principi proposti in maniera coerente, tenendo presente il contesto socio-politico-culturale e legale specifico della loro applicazione.

Dichiarazione di Montréal per uno Sviluppo Responsabile dell’Intelligenza artificiale

49:55

I.A.: Essere o non essere - Gioventù: l'età dell'apprendimento (1/3)

Vita! 06.10.2024, 21:55

Bisogna sempre essere coscienti del fatto che, in tutta la storia umana, la specie ha ideato, costruito, elaborato nuovi strumenti tecnologici ed essi hanno inevitabilmente cambiato il tessuto sociale, politico ed economico del mondo. L’intelligenza artificiale non fa eccezione: la sua introduzione e il suo sviluppo stanno aprendo una nuova fase della nostra storia, di cui dobbiamo conoscere i possibili sviluppi e le possibili conseguenze. La grande, anzi abissale, differenza rispetto a qualsiasi altra tecnologia sviluppata nel corso dei secoli consiste nel fatto che l’intelligenza artificiale - a differenza, mettiamo, dell’aratro nel Medioevo - non sopperisce solamente a bisogni meccanici, fisici, bensì cognitivi. Se l’aratro, come moltissime altre invenzioni dell’umanità, in qualche modo sostituiscono la manovalanza, evitano la fatica e permettono una produzione più alta con uno sforzo più basso, l’intelligenza artificiale fa questo ma soprattutto va oltre, andando ad interessare anche tutto ciò che ha a che fare con la sfera cognitiva e intellettiva dell’essere umano. Non solo le braccia, ma soprattutto il cervello.

Da questa prospettiva, il ruolo più importante lo giocano i dati. Le aziende che operano nel digitale utilizzano i dati degli utenti per addestrare ancora meglio i loro algoritmi e, così, le loro intelligenze artificiali. Alcuni studiosi hanno iniziato a parlare di tecno-colonialismo: come le grandi nazioni colonialiste, dal Medioevo alla Modernità, conquistavano luoghi per ottenere materie prime utili per lo sviluppo della propria nazione, così le grandi aziende del digitale si appropriano dei dati degli utenti, diventati una vera e propria materia prima, per il loro sviluppo e per la loro crescita. L’umanità, insomma, diventa l’ultima frontiera del capitalismo. Da un punto di vista che potrebbe apparire distopico, ma che purtroppo è molto vicino alla nostra realtà, non siamo noi ad utilizzare apparecchi di intelligenza artificiale, ma sono loro che ci sfruttano per acquisire sempre più dati e diventare sempre più intelligenti. Se le tecnologie AI diventano sempre più intelligenti ad ogni nostro utilizzo, l’utente al contrario diventa sempre più incosapevole della natura di questi apparecchi digitali.

Pensiamo, ad esempio, al riconoscimento facciale. Una feature sempre più presente nel mondo digitale (i filtri su Instagram, il modo per sbloccare un iPhone di recente generazione, le videochiamate, eccetera) che sdogana letteralmente informazioni su di noi che hanno la stessa unicità ed importanza dell’impronta digitale. I dati che forniamo attraverso il nostro viso possono essere usati da chiunque perché mancano delle regolamentazioni chiare e condivise. Questo porta certamente a concludere che la tecnologia del riconoscimento facciale, che nutre le intelligenze artificiali, sia il concretizzarsi dell’aberrazione di un fondamento della società moderna, ossia la vita privata. Qual è l’esito possibile? Basti spostarsi in Oriente, ad esempio in Cina, e una risposta già c’è. In Cina, la tecnologia del riconoscimento facciale la si usa per la sorveglianza di massa, in cui le telecamere di ultima generazione, implementate con l’AI, riconoscono e schedano i volti. Una forma di capitalismo della sorveglianza e sicuramente un problema etico da non sottovalutare: compito di ciascun cittadino e di ciascuna cittadina è di sviluppare una conversazione critica e non essere indifferenti.

L’intelligenza artificiale entra persino nella vita sentimentale e intima degli individui. Pensiamo ad esempio alle applicazioni di incontri, che utilizzano l’AI per selezionare le immagini che corrispondono meglio ai desideri dell’utente. Di sicuro non esisterà mai un algoritmo che individua l’amore della nostra vita, perché l’amore è un sentimento spontaneo, imprevedibile e che cambia nel tempo. Tuttavia, un giorno questi sistemi, grazie all’acquisizione di sempre più dati, saranno più efficaci e toglieranno caso e dubbio: se la macchina ha scelto questa persona, significa che è la persona giusta. Così perderemmo la capacità di costituirci come individui autonomi, fare esperienze, imparare a conoscerci e a conoscere l’altro. È importantissimo educarsi alla scelta e non farsi guidare da meccanismi fuori di noi.

Immagine 2024-10-17 112042.jpg

Replika.com

  • Replika.com

Oltre a collegare gli esseri umani tra di loro, l’intelligenza artificiale collega anche se stessa agli esseri umani. Pensiamo al programma Replika: The AI companion who cares. Always here to listen and talk. Always on your side. Sono sempre di più i giovani che hanno bisogno di una figura con cui parlare, non giudicante, che li accetti per come sono. Gli amici sono proprio questo, verrebbe da dire. Spesso, però, non è così. Gli esempi di emarginazione sociale, di insicurezza e di chiusura sono sempre più frequenti. Replika, essendo un’intelligenza artificiale, si propone come entità che offre ascolto incondizionato all’utente ed è sempre dalla sua parte. Durante una giornata, per intraprendere una conversazione profonda serve fiducia, tempo, impegno, empatia. Replika annulla tutte queste variabili e si propone come amico virtuale sempre disponibile. Quali sono i rischi? Il rischio è che si sviluppi un legame sentimentale, emotivo con la macchina e si abbandoni gradualmente il legame concreto con le persone. Ciò interessa maggiormente i soggetti fragili, soli, in difficoltà sociale, provenienti da contesti educativi nocivi. Il compito di ciascuno di noi è di offrire il nostro ascolto e la nostra sensibilità a chi ne ha più bisogno e non permettere che un’intelligenza artificiale diventi il migliore amico di nessuno. Gli scenari possibili, altrimenti, sono abbastanza chiari: la pubblicità potrebbe sfruttare tali debolezze e spingere l’utente, ormai legato sentimentalmente all’avatar virtuale, a comprare un certo prodotto, votare una certa personalità politica, investire su una certa attività. Si parla ovviamente di esiti drammatici, sicuramente ancora lontani, ma di cui bisogna essere almeno consapevoli per cercare di evitare la loro concretizzazione.

Non bisogna poi dimenticare che le intelligenze artificiali, programmate dall’essere umano, non forniscono mai risposte universali ai quesiti che poniamo. O meglio, hanno dei limiti evidenti che bisogna conoscere proprio perché programmate da noi, che di limiti ne abbiamo molti. L’intelligenza artificiale, come già detto, progredisce in modo interattivo imparando da esperienze passate per prendere decisioni sul futuro, il cosiddetto machine learning. Se, ad esempio, forniamo ad un algoritmo i dati delle elezioni statunitensi del passato, non prenderà nemmeno in considerazione possa esserci una presidente donna degli Stati Uniti. È il meccanismo del garbage in-garbage out: se l’AI è programmata attraverso dati che sono espressioni di preconcetti, il risultato sarà caratterizzato dagli stessi preconcetti. Per questo non bisogna mai pensare che l’AI fornisca soluzioni assolute, ma solamente suggerimenti, con tutti i limiti del caso. Ancora una volta, sta al senso critico dell’utente determinare il risultato dell’utilizzo strumentale dell’intelligenza artificiale.

Si collegano a questo tema, e ne sono esemplificazione, le conseguenze che l’utilizzo dell’AI ha portato nell’economia, nella produzione e nella gestione delle risorse umane. Il software AI Recruiter permette alle aziende, attraverso l’intelligenza artificiale, di valutare le candidature e di gestire le risorse umane tramite un chat-bot. La piattaforma Base Impact analizza, sempre grazie all’AI, la situazione dei suoi utenti in cerca di lavoro, per orientarli a trovare la migliore soluzione lavorativa sul territorio. Amazon ha sperimentato, senza successo, strumenti simili, fino a che essi non sono stati accusati di sessismo poiché, basandosi sul grado di successo dei profili interni all’azienda, nella maggioranza uomini, scartavano a priori le candidature di donne perché etichettate dall’algoritmo come profili di scarso successo. L’AI dunque può avere atteggiamenti discriminatori, pregiudicanti e per questo da contestare e mettere in discussione. Altro esempio in questo senso è il software PredPol, sviluppato dall’azienda di produzioni informatiche statunitense Geolitica. Lo scopo di questo software è prevedere dove avverranno possibili reati: il problema è che esso si basa su dati del passato e per questo è molto pregiudicante rispetto agli afroamericani. Ciò comporta una maggiore possibilità di finire in carcere ed avere pene più severe ai danni di un afroamericano piuttosto che alle altre etnie. L’algoritmo finisce per perpetuare le statistiche su cui si basa senza avere coscienza delle conseguenze, spesso ingiuste, delle sue azioni. Nuovamente, il ruolo di chi lo utilizza è centrale e determinante: non bisogna pensare che, essendo macchine, siano infallibili, anzi.

49:56

I.A.: Essere o non essere - Maturità: l’età della ragione (2/3)

Vita! 13.10.2024, 22:05

Correlati

Ti potrebbe interessare