L'intelligenza artificiale può violare la privacy, rivelando l'omosessualità di una persona in un database. Può anche portare a una discriminazione sul lavoro, se alcuni criteri escludono certe categorie di persone. La Corte d'appello britannica ha riscontrato che il programma di riconoscimento facciale utilizzato dalla polizia di Cardiff potrebbe dare prova di pregiudizi razziali o sessuali. E ancora, quando ricevono una diagnosi medica sbagliata o viene loro negato un beneficio sociale, i cittadini europei non sempre sono consapevoli che la decisione è stata presa automaticamente da un computer. Non sono quindi in grado di contestarla o di presentare una denuncia, anche se si sono verificati errori: l'intelligenza artificiale, creata dall'uomo, non è infallibile.
Per questo gli Stati europei dovrebbero rafforzare la loro legislazione per proteggere i diritti fondamentali di fronte all'intelligenza artificiale. Lo dice un rapporto pubblicato lunedì dall'Agenzia UE per i Diritti Fondamentali, perché "la tecnologia sta cambiando più velocemente della legge".
Dal Telegiornale