FILTER BUBBLE EFFECT: gli effetti della personalizzazione online
Online siamo tutti vittime – più o meno consapevoli – del Filter Bubble Effect. Ma cos’è, come funziona e quali conseguenze provoca sulle nostre conoscenze?
Se proviamo a cercare questo termine su Google, Wikipedia arriva subito in nostro soccorso: la “bolla di filtraggio” è il prodotto del sistema di personalizzazione dei risultati di ricerche su siti che registrano la storia del comportamento dell’utente. Come funziona? Molto semplicemente i vari siti “memorizzano” le nostre attività online per poi usare queste informazioni per fornirci – durante un’attività successiva – le risposte più conformi ai nostri gusti e desideri. I risultati sono, in poche parole, molto personalizzati. Perfetto!, direte voi, e chi mai vorrebbe vedere cose che non gli interessano? E invece qui casca l’asino, perché l’effetto che si produce sul lungo periodo è l’esclusione dell’utente dalle notizie e informazioni che sono “in contrasto” con il suo punto di vista pre-esistente. L’utente si trova così cristallizzato, isolato nella sua bolla ideologica e culturale. Per i più curiosi: il termine è stato coniato dall’attivista Eli Pariser nel suo libro “The Filter Bubble: What the Internet Is Hiding from You”, nel quale l’autore sostiene che gli utenti vengono esposti di meno a punti di vista conflittuali e sono isolati intellettualmente nella propria bolla di informazioni.
Dopo questa panoramica introduttiva, cerchiamo di approfondire le modalità di funzionamento e le conseguenze di questo sistema.
La percezione umana è selettiva: prestiamo più attenzione ai contenuti in linea con le nostre credenze pregresse, memorizziamo con più facilità questi contenuti e tendiamo a ignorare ciò che si scontra con la nostra posizione (in alcuni casi addirittura interpretiamo in modo favorevole alla nostra idea anche affermazioni oggettivamente contrarie).
Spontaneamente la nostra mente quindi produce quello che nelle scienze psico-sociali è chiamato confirmation bias: le persone tendono a muoversi entro un ambito delimitato dalle loro convinzioni acquisite. La personalizzazione dei contenuti online rafforza questo bias e causa, appunto, un effetto “bolla”: vediamo quasi esclusivamente contenuti che ci danno ragione. Ciò ci impedisce di scontrarci con idee opposte alle nostre e quindi di valutare queste idee, di mettere alla prova le nostre convinzioni, di dibattere con chi la pensa in modo differente e di confrontarci in modo propositivo con il pensiero altrui.
Immaginate le seguente situazione: un giorno un ragazzo appassionato di fitness trova un articolo in cui viene proposta “la radice di Mobonia” (nome di fantasia) come alimento da sostituire in toto a qualunque carboidrato o proteina per ottimizzare il risultato dei propri allenamenti; nei giorni successivi Facebook gli consiglia tanti post sul tema, Amazon gli propone libri sull’argomento, YouTube fa lo stesso con i video e poi gli arrivano anche annunci di seminari su Google. Alla fine il soggetto in questione è assolutamente convinto di questa idiozia. E prova a mangiare solo radice di Mobonia per un paio di settimane. Poi finisce in ospedale per una lavanda gastrica e con una flebo nel braccio. Questo esempio è palesemente esagerato (o forse no)… ma immaginiamo lo stesso processo applicato ai temi più disparati, dalla politica al lifestyle. Chi ha simpatie per un partito non vedrà mai la controparte (se non da punti di vista che tenderanno a sminuire le altrui convinzioni) e chi crede in qualche strano complotto ci crederà sempre di più. Entriamo, insomma, in un circolo vizioso. Attenzione: i contenuti che incontriamo con questo sistema non sono necessariamente falsi o pericolosi in sé – è il processo complessivo che presenta conseguenze negative, in particolare sul lungo periodo.
[Qui trovate un articolo di Wired sulla relazione tra Filter Bubble Effect e democrazia e QUI un articolo su Trump e i sondaggi “sbagliati” in favore della Clinton.]
Ma io posso cercare appositamente il punto di vista opposto al mio, mi direte voi. Certo, tutti possiamo farlo… Siamo, però, sinceri: quanti lo fanno davvero? L’uso che gli utenti fanno del web è ancora piuttosto passivo e siamo portati a cercare di ridurre i pensieri contrastanti. Sfidare le proprie credenze non è da tutti. A livello di psicologia cognitiva noi esseri umani siamo considerati ottimizzatori di risorse cognitive, ovvero tendiamo a scegliere condotte di pensiero che ci costano la minor fatica possibile, perciò informarci e cambiare posizione è una fatica cognitiva enorme. Ciò viene spiegato da un altro bias, ovvero il bias allo status quo; inoltre questo filtro è ulteriormente pericoloso perché asseconda almeno una delle tre euristiche di Khaneman, ovvero quella di disponibilità (che non approfondiremo qui; siate curiosi e cercatela su Wikipedia).
Gli effetti sono così disastrosi? Il meccanismo non lascia via di scampo? Ovviamente no, perché gli algoritmi non funzionano in modo così rigido e una serie di interventi di altri utenti o nostri possono modificare questo processo in modo inconsapevole. E no, anche gli studiosi non sono concordi nel definire la portata di questo effetto.
Sarebbe però cosa buona e giusta che tutti tenessimo a mente l’esistenza di questo meccanismo e ci impegnassimo a espandere gli orizzonti del nostro sapere.
[Emme commenta: una diversa architettura delle scelte potrebbe essere di certo una manna per quegli individui che sono di indole più aperta e disposti ad accogliere informazioni che disconfermano le loro convinzioni.]
Se siete interessati a leggere qualche risultato di ricerche in merito, vi consiglio di scaricarvi questo testo. Tranquilli, è un link sicuro 😉
Spero di non avervi annoiati troppo.
Fateci sapere cosa ne pensate. Se avete qualche domanda o considerazione, dite pure.
Nel caso l’argomento risultasse di vostro interesse, in futuro provvederemo a scrivere qualcosa di specifico sui vari bias e su alcune teorie che riguardano gli effetti dei media.