Apri Instagram, TikTok o YouTube. O qualunque altro Social.
E in pochi secondi ti trovi immerso in contenuti che — guarda caso — sembrano parlare proprio a te: i tuoi gusti, le tue idee, le tue emozioni del momento.
La domanda è: Chi ha deciso cosa vedrai oggi?
La risposta è semplice, ma inquietante: un algoritmo.
Questa parola, apparentemente tecnica, nasconde una realtà molto più pervasiva. Gli algoritmi non si limitano a mostrarti contenuti: decidono come percepisci il mondo.
E la cosa più pericolosa è che non te ne accorgi.
Cos’è davvero un algoritmo?
Tecnicamente, un algoritmo è un insieme di istruzioni matematiche che stabiliscono un ordine o un criterio. Nei social media, queste istruzioni decidono cosa appare nel tuo feed, sulla base del tuo comportamento passato: cosa hai guardato, per quanto tempo, cosa hai commentato, cosa hai ignorato.
Ma dietro questi calcoli c’è una logica precisa: tenerti più tempo possibile sulla piattaforma.
E per farlo, ti viene mostrato ciò che — secondo la macchina — ti piace di più.
Tutto questo è apparentemente innocuo. Ma in realtà è una rivoluzione silenziosa nella tua dieta informativa.
La tua dieta informativa? E per quale motivo?
La selezione invisibile
Ogni volta che scorri, un filtro si attiva. Non lo vedi, ma c’è.
L’algoritmo sceglie cosa mostrarti e cosa escludere, costruendo una versione su misura del mondo. È come se ogni persona avesse una finestra personalizzata sulla realtà. E da quella finestra, a lungo andare, si finisce per credere che quella sia la realtà.
Se interagisci con contenuti ambientalisti, ti verranno mostrati sempre più post sul cambiamento climatico.
Se metti like a video complottisti, l’algoritmo penserà che “ti interessa” quel tipo di contenuto — e te ne proporrà altri simili.
Il risultato? Ti ritroverai, senza rendertene conto, dentro una bolla informativa (o purtroppo come spesso accade, dentro una bolla DISinformativa)
Cosa sono le bolle informative (e perché ci intrappolano)
Il termine “filter bubble” è stato coniato da Eli Pariser più di dieci anni fa. Indica un meccanismo in cui le informazioni che ricevi vengono selezionate per confermare ciò che già pensi. Non per informarti davvero o farti ragionare.
Non è solo un effetto tecnologico. È anche un effetto psicologico. Noi tendiamo a cercare conferme, non contraddizioni.
E l’algoritmo — sapendolo — ci coccola con contenuti rassicuranti, familiari, coerenti con il nostro profilo.
Così, a poco a poco, sparisce il confronto.
Le opinioni diverse diventano minacciose.
Le notizie “scomode” vengono ignorate.
La realtà si riduce a un ecosistema personalizzato — e molto fragile.
Ma quindi… l’algoritmo è il colpevole?
No. L’algoritmo non è un mostro malvagio. Ma non è nemmeno neutro.
Non lo è perché riflette le scelte dei suoi programmatori.
Non lo è perché si basa su dati che già contengono pregiudizi impliciti.
Non lo è perché risponde a obiettivi aziendali: far guadagnare le piattaforme, non informare gli utenti.
In pratica, l’algoritmo non agisce nel vuoto. È influenzato da ciò che le aziende vogliono ottenere, da come vengono addestrati i modelli, e dal comportamento collettivo degli utenti.
Quindi sì, è un filtro potente, ma non trasparente.
Bias algoritmici: quando il codice ha pregiudizi
Può sembrare assurdo, ma anche il codice può discriminare.
Ci sono esempi reali:
- Algoritmi di riconoscimento facciale meno precisi con volti non bianchi, perché addestrati su dataset squilibrati.
- Contenuti razzisti o misogini che ottengono visibilità perché generano più interazioni.
- Censura selettiva su parole chiave, che colpisce più alcuni gruppi che altri.
Tutto questo accade senza che ce ne rendiamo conto. Perché i criteri di funzionamento restano spesso segreti, protetti da clausole aziendali di “proprietà intellettuale”.
Ma il risultato è reale: l’informazione viene filtrata. E con essa, anche la nostra idea di mondo.
Che impatto ha sulla nostra percezione?
Vivere immersi in contenuti selezionati significa perdere la complessità.
- Ci abituiamo a pensare che la maggioranza delle persone la pensi come noi.
- Ci fidiamo solo di fonti che confermano ciò che già crediamo.
- Siamo meno disposti a cambiare idea, anche davanti a fatti solidi.
È come se ci costruissimo una casa mentale su misura, piena di specchi, ma senza finestre.
E ogni specchio riflette quello che siamo già, non quello che potremmo diventare.
Possiamo uscirne?
Sì. Ma non facilmente.
Serve consapevolezza, prima di tutto.
Capire che quello che vediamo online non è neutro, e che le piattaforme non sono solo strumenti, ma ambiente.
Ambiente che ci modella, ci orienta, ci condiziona.
Serve anche educazione digitale. Imparare a riconoscere i meccanismi. A diversificare le fonti. A cliccare anche su ciò che non ci è familiare.
Serve uscire dalla comfort zone del pensiero.
E serve, forse, ricordare che l’informazione non è un flusso da subire, ma un territorio da esplorare.
Pensare al di là dell’algoritmo
Gli algoritmi non pensano al posto tuo. Ma possono impedirti di pensare davvero, se li lasci fare.
Non possiamo vivere senza filtri. Ma possiamo scegliere consapevolmente quali filtri usare, e quando toglierli.
Il primo passo è accorgersene.
Il secondo è chiedersi: “Quello che so oggi, l’ho scelto io? O l’ha deciso un algoritmo?”
E ricorda:
L’obiettivo dei social, come piattaforme e come aziende, non è istruire. È guadagnare.
Sono alcune persone — utenti, attivisti, divulgatori — a scegliere di usare quei canali per fare informazione o educazione. Ma allo stesso modo lo fanno anche i ciarlatani: usano i social per diffondere fake news, semplificazioni tossiche, disinformazione.
Non lo fanno per spiegarti davvero come stanno le cose.
Lo fanno per ottenere visibilità, perché parlando di complotti, di verità nascoste, di bufale scandalose, si cresce in fretta.
E la visibilità — i like, le condivisioni, le visualizzazioni — è la nuova moneta del web.
Chi la ottiene, guadagna. Che dica il vero o il falso, spesso non importa.