Algoritmi che selezionano e promuovono certi contenuti piuttosto che altri, sui quali non c’è trasparenza e che sono guidati da finalità commerciali, non informative, giornalistiche o democratiche: quanto è un problema e quanto non è un’evidenza, una sorta di banalità? È uno dei temi su cui mette l’accento il rapporto pubblicato martedì dalla Commissione federale dei media (COFEM), nel quale si sostiene la necessità di un controllo sulle grandi piattaforme online, monopolistiche economicamente e con la facoltà oggi di dettare le regole su chi e cosa viene ammesso in rete e su quali contenuti mostrare agli utenti.
“Che questo venga messo nero su bianco in un documento di questo tipo è significativo, perché ricorda le origini di piattaforme come Facebook e Instagram”, ha spiegato mercoledì a Modem della RSI Philip Di Salvo, ricercatore all’Università di San Gallo, dove si occupa di giornalismo e sorveglianza di internet. “Nell’immaginario di Mark Zuckerberg alle origini, parliamo di una ventina di anni fa, non c’era l’intenzione di creare uno spazio pubblico per la circolazione del giornalismo, delle idee”, ha spiegato lo specialista. Erano “spazi commerciali, pubblicitari, di profilazione dei dati personali, che si sono poi ritrovati ad essere le arene della sfera pubblica contemporanea” senza “essere stati progettati per questo”. Questo, secondo Di Salvo, “ha generato una frizione (...) un irrisolto che sta tornando a galla nelle ultime settimane”.
L’accenno è al ruolo di Elon Musk, patron di X (l’ex Twitter), accanto a Donald Trump, e alla svolta del già citato Zuckerberg, che (per ora solo negli Stati Uniti) ha indebolito la moderazione sui suoi social (Instagram, oltre a Facebook) abolendo i fact-checker chiamati a segnalare in particolare le informazioni false o fuorvianti. Il rapporto della COFEM era già in elaborazione prima di questo annuncio, ma per Di Salvo centra il punto, “è basato su evidenze scientifiche, allacciato al dibattito accademico e a quello che si sta dicendo in questi ambienti da quasi un decennio”.
Certo, il sistema di moderazione vigente è un sistema rivelatosi lacunoso, “con delle storture”, che non ha impedito agli algoritmi di silenziare determinate minoranze e cancellare contenuti che non dovevano essere censurati, ma quello annunciato da Meta è per Di Salvo “l’applicazione del modello Musk” su X. Un modello che ha provocato un aumento dei discorsi d’odio e della disinformazione. “L’abbassamento dei filtri di moderazione” e la soppressione del fact-checking non risolveranno quindi i problemi, piuttosto contribuirà a crearne ancora di più, secondo l’esperto.
Il passo di Zuckerberg è stato giustificato nel nome della libertà di espressione, e accompagnato dall’accusa di “censura” nei confronti dell’Europa, ma per Di Salvo “è un segnale chiaro e simbolico” e lo scopo è di “ottenere una ulteriore deregolamentazione, che ha fatto la fortuna” delle aziende come la sua. È “un tentativo di allineamento politico esplicito” per “sedersi quanto più possibile vicino a Donald Trump al tavolo delle decisioni sul mercato digitale”. Una mossa non tanto ideologica, quindi, quanto strategica, per controbilanciare i passi per una regolamentazione che invece l’UE ha già intrapreso e che anche la Svizzera compirà.
Quanto il Consiglio federale si appresta a proporre concerne in particolare i contenuti illegali e la loro gestione quando vengono segnalati, mentre la Commissione già si spinge oltre, come ha spiegato a Modem il suo vicepresidente, il professore dell’Università di Friburgo Manuel Puppis. Secondo Puppis, non si tratta qui di “regolamentare i contenuti” ma “dell’influenza delle piattaforme sulle opinioni e del modo in cui gli utenti percepiscono il mondo”, il loro “ruolo centrale oggi nel dibattito pubblico e nella comunicazione all’interno della società”, a maggior ragione in un momento in cui, come è il caso di Musk, i padroni di questi social media perseguono un’agenda politica.
D’altra parte, ha spiegato invece Marco Gambaro, professore di economia dei media all’Università degli Studi di Milano, la tendenza alla concentrazione è propria di questo mercato. Le piattaforme “tendono a diventare molto grandi” anche perché “per ogni consumatore è più utile restare sulla piattaforma più diffusa” e questo “pone dei problemi sia per quanto riguarda il tradizionale antitrust che per quanto riguarda il ruolo nella formazione dell’opinione pubblica”. “Il rischio”, ha spiegato, “è quando queste piattaforme diventano così grandi da soffocare sul nascere i potenziali concorrenti che, con innovazioni tecnologiche, potrebbero prendere il loro posto”. A quel punto però, “regolarle è molto difficile”, va fatto “in un contesto internazionale”.
Le proposte degli esperti
La COFEM propone di intervenire in cinque ambiti: regolamentando il potere di mercato delle piattaforme grazie a un adattamento del diritto in materia, istituendo una governance degli algoritmi grazie a cui verificare l’impatto del rischio, rafforzando il controllo sociale su tali siti, regolamentando l’intelligenza artificiale e promuovendo competenze mediatiche e digitali. Le parole chiave sono regolamentazione del potere di mercato, alternative non commerciali agli algoritmi, maggiore supervisione sociale delle piattaforme, responsabilità e un approccio ponderato ai contenuti digitalizzati.