Sei tu a scegliere i contenuti … o è l’algoritmo a scegliere per te?



Gli algoritmi esercitano una forma di potere invisibile: decidono cosa vediamo, chi diventa visibile e cosa resta nascosto.

Gli algoritmi, dunque, non si limitano a mediare l'informazione, ma producono realtà sociali: creano bolle informative che limitano l'esposizione alla diversità di opinioni, rafforzando bias preesistenti e alimentando la polarizzazione. Quando si parla di polarizzazione, filter bubbles e reinforcement bias, ci si riferisce a tre fenomeni strettamente collegati, spesso amplificati dai sistemi come quelli usati da TikTok, Instagram e YouTube.

Bias algoritmici: polarizzazione, filter bubbles e reinforcement bias

  • Polarizzazione: è il processo per cui le opinioni degli utenti diventano sempre più estreme nel tempo, perché vengono esposti solo a contenuti che rafforzano la loro visione iniziale. Gli algoritmi tendono a proporre contenuti simili a quelli con cui l'utente ha già interagito. Esempio: su YouTube, un utente che guarda video su teorie del complotto potrebbe iniziare a ricevere raccomandazioni sempre più estreme, fino ad arrivare a contenuti radicali o disinformativi.
  • Filter bubbles (bolle di filtraggio): è un fenomeno per cui un utente viene "chiuso" in una bolla informativa, vedendo solo contenuti che confermano le sue opinioni o interessi. L'algoritmo esclude contenuti "diversi" o che potrebbero contraddire le sue idee. Esempio: nel feed di Instagram, un utente interessato a uno specifico stile di vita (es. fitness estremo, dieta vegana, ecc.) vedrà solo post coerenti con quello stile, perdendo la varietà e la possibilità di confronto con altri punti di vista.
  • Reinforcement bias: è la tendenza dell'algoritmo a rafforzare le preferenze già espresse dagli utenti, creando un circolo vizioso: più l'utente interagisce con un certo tipo di contenuto, più ne riceve, anche se questo potrebbe non essere benefico a lungo termine. Esempio: il feed "For You" di TikTok impara rapidamente quali video tengono più a lungo l'attenzione dell'utente. Se l'utente guarda molti video su determinati temi (es. chirurgia estetica, disturbi alimentari, teorie del complotto), l'algoritmo continuerà a proporre contenuti simili, rafforzando quelle abitudini o interessi in modo passivo. Possibili conseguenze sono disinformazione, radicalizzazione delle opinioni, diminuzione del pensiero critico, isolamento sociale e cognitivo. Alcune soluzioni includono maggiore trasparenza degli algoritmi e un'educazione digitale per riconoscere i bias.
Crea il tuo sito web gratis! Questo sito è stato creato con Webnode. Crea il tuo sito gratuito oggi stesso! Inizia