Kyle Chayka
Regolare filterworld
Regolamentazione e influenza degli algoritmi
Tempo di lettura: 2 minuti
In questo momento, noi utenti siamo in balia di suggerimenti e feed algoritmici. Si tratta di un fenomeno frankensteiniano, ideato e dotato di potere da parte dell’uomo ma che ha superato di gran lunga le aspettative. Non possiamo controllare o condizionare gli algoritmi. Non possiamo rinunciare del tutto all’utilizzo delle piattaforme digitali che sono diventate parte integrante della moderna vita adulta. Sono essenziali, al pari del servizio postale, del sistema fognario o delle linee elettriche, eppure, a differenza di queste infrastrutture pubbliche, non sono soggette alla supervisione o alla regolamentazione del governo, né alle decisioni degli elettori. I sistemi di raccomandazione dilagano. Forse tendiamo a trascurare la loro imprevedibilità all’interno della sfera culturale perché il materiale che influenzano sembra meno importante rispetto, ad esempio, all’acqua corrente.
Come Molly Russell, l’adolescente britannica morta suicida, ha sperimentato con la valanga di contenuti sulla depressione, i suggerimenti algoritmici accelerano il materiale negativo tanto quanto quello positivo. Sebbene il sistema possa trattare tutti i contenuti allo stesso modo, le conseguenze della loro condivisione non lo sono. La diffusione della disinformazione online durante la pandemia di covid-19 ha scatenato una mania virale per l’Ivermectina, un farmaco utilizzato soprattutto per i cavalli. I pazienti che lo hanno assunto hanno subìto più danni che benefici, a volte sono stati addirittura ricoverati in ospedale a causa dell’ingestione del farmaco. Le storie sull’Ivermectina si erano diffuse molto perché attiravano l’attenzione, in parte nelle vesti di una questione politicizzata alimentata dalla retorica di Trump e della sua amministrazione. La disinformazione si è rivelata perfetta per l’equazione algoritmica, creando il tipo di interazione immediata che spinge ancora di più la promozione.
La strategia abituale per affrontare questo problema è la moderazione, o censura per motivi di sicurezza: i contenuti pericolosi devono essere bloccati completamente e non devono essere ammessi nei feed degli utenti. I social network filtrano sia attraverso l’analisi dell’apprendimento automatico – ad esempio censurando automaticamente particolari parole chiave – sia attraverso moderatori umani, che decidono personalmente quali contenuti consentire. Tuttavia, alcuni contenuti passano inosservati e, una volta inseriti nel feed, nulla impedisce che vengano suggeriti. Un modo per combattere la prevaricazione degli algoritmi è quello di regolamentare i tipi di contenuti che vengono consigliati. I social network devono affrontare una serie di sfide difficili. Li usiamo per comunicare in modo diretto tra di noi, come servizi di messaggistica o per seguire gli aggiornamenti dei nostri amici. Ma svolgono anche un ruolo di trasmissione, raggiungendo un pubblico di milioni di utenti. Sia che si tratti di contenuti privati che pubblici, sono soggetti alle stesse regole e alle stesse forze.
Condividi
Ricevi notizie sulle nuove uscite e gli eventi della casa editrice, contenuti interessanti e promozioni