Hai mai discusso con qualcuno online e pensato che provenisse da un altro pianeta per quanto vedeva la realtà in modo diverso da te? Se la risposta è sì, congratulazioni: sei ufficialmente un abitante del meraviglioso mondo di internet del 2025, dove la realtà è soggettiva e i fatti sono optional.
Le opinioni diametralmente opposte che sfociano in un’incomunicabilità totale sono all’ordine del giorno sul web, come il caffè al mattino o i gattini virali. Fino a un certo punto c’è anche una spiegazione naturale: il nostro cervello, pigro come un adolescente in vacanza, tende a semplificare catalogando idee e persone in macro-categorie (o con me o contro di me), un meccanismo innato che ci aiuta a interpretare velocemente il mondo attorno a noi. Il prezzo da pagare per questa rapidità di giudizio? Perdere di vista le sfumature e la complessità. Ma chi ha tempo per le sfumature quando c’è da indignarsi sui social in meno di 280 caratteri?
Negli ultimi anni, però, la situazione è peggiorata a causa dei social network, che hanno acuito questa tendenza alla polarizzazione con l’entusiasmo di un piromane in un deposito di fiammiferi. Piattaforme come Facebook o Twitter non si limitano a riflettere le nostre divisioni: spesso le amplificano, rinchiudendoci in confortevoli “bolle informative” dove tutti sembrano pensarla come noi. Come un abbraccio digitale, ma con effetti collaterali sulla democrazia.
In questo articolo esploreremo come i social media e queste echo chambers (casse di risonanza) influenzano l’opinione pubblica, e quali implicazioni politiche e culturali ne derivano. Passeremo in rassegna anche alcuni ingredienti psicologici che alimentano il fenomeno – dal bias di conferma all’effetto Dunning-Kruger, fino al tribalismo sociale – il tutto con un taglio serio ma ironico e divulgativo (perché, diciamocelo, su certe dinamiche è meglio farsi due risate amare che piangere. O lanciarsi dal balcone).
Bolle informative ed echo chamber: quando il social network ti dà sempre ragione (e diventi insopportabile)
I social media non sono semplici vetrine neutre: il loro algoritmo ci conosce fin troppo bene. Come uno stalker digitale particolarmente zelante, analizza ciò che clicchiamo, commentiamo o condividiamo, per poi suggerirci contenuti in linea con i nostri gusti. Finché si tratta di gattini o ricette, tutto ok; ma quando si passa a politica o temi delicati, ecco che il newsfeed diventa una potente cassa di risonanza delle nostre idee. Praticamente un coro greco che ti applaude in continuazione.
In pratica il sistema ci mostra soprattutto quella porzione di internet che rispecchia le nostre convinzioni, facendoci credere che “tutti la pensino come noi” – una dolce illusione paragonabile solo a quando la mamma ti diceva che eri il bambino più bello del mondo. Non è un caso: l’algoritmo è progettato proprio per filtrarci i contenuti con cui è più probabile interagire, creando quella che Eli Pariser ha definito la “filter bubble”, una bolla informativa su misura per ciascuno di noi. Come un abito sartoriale, ma fatto di pregiudizi confezionati ad arte.
In queste bolle filtrate l’utente finisce in una sorta di isolamento informativo, separato dai contenuti che contraddicono le sue idee e immerso solo in notizie allineate ai propri punti di vista. È come vivere in un’eco chamber, dove rimbalzano solo le voci che ci danno ragione – un paradiso artificiale per il nostro ego.
Ovviamente ciò non fa che rinforzare le convinzioni di partenza: se la tua timeline è un coro di gente che la pensa come te, come potresti anche solo accorgerti di essere in torto su qualcosa? Sarebbe come aspettarsi che uno specchio ti dica che oggi hai un brutto aspetto.
Studi sul fenomeno rilevano proprio questo effetto di feedback: l’esposizione selettiva ai contenuti graditi porta a “echo chamber” in cui gli utenti tendono a plasmare e rafforzare ulteriormente le proprie credenze. La conseguenza? Nei dibattiti online vige spesso la regola non scritta del “o la pensi come me, o sei contro di me” – un approccio che farebbe impallidire persino i signori della guerra medievali per mancanza di sfumature diplomatiche.
I commenti sotto i post più divisivi diventano una guerra di fazioni, con opinioni talmente polarizzate e inconciliabili da impedire qualunque dialogo ed empatia verso l’altro punto di vista. In pratica, ciascun gruppo vede l’altro come incomprensibile – se non addirittura malvagio o stupido – e ogni confronto degenera in flame (litigi online) anziché in un dibattito costruttivo. Un vero miracolo evolutivo: siamo passati dalle caverne ai computer solo per litigare meglio e con più persone contemporaneamente.
Bias di conferma: il cervello vede ciò che vuole vedere (e ignora tutto il resto con maestria olimpica)
Perché finiamo per chiuderci volentieri in queste bolle? Uno dei motivi principali è il famigerato bias di conferma. Si tratta della tendenza della mente a cercare e privilegiare le informazioni che confermano ciò in cui crediamo già, ignorando o sminuendo quelle contrarie con un’abilità che farebbe invidia ai migliori contorsionisti.
In altre parole, partiamo da una convinzione e – spesso inconsciamente – selezioniamo solo le notizie che le danno ragione, trascurando quelle che la smentiscono. In sostanza, al cervello piace aver ragione (e chi siamo noi per biasimarlo? Avere torto fa così anni ’90).
Sui social questo bias diventa ancora più insidioso. Gli algoritmi, come visto, lo assecondano mostrandoci contenuti su misura per le nostre opinioni, come un cameriere che serve solo i tuoi piatti preferiti ignorando completamente l’esistenza di altri cibi. Scroll dopo scroll, like dopo like, finiamo per addestrare la piattaforma a confermarci sempre di più quello che già pensiamo. Una relazione tossica ma così gratificante.
Ci ritroviamo così in una bolla che rinforza i nostri preconcetti e ci tiene lontani dalla realtà più complessa, riducendo tutto a un semplice verdetto: “io ho ragione/tu hai torto” – un’equazione che, guarda caso, risolve sempre a nostro favore. Che coincidenza straordinaria!
Perfino i pochi contenuti dissonanti che talvolta compaiono nel feed servono spesso solo ad alimentarci ulteriormente: ci indigniamo leggendo l’idea opposta e questo ci spinge a cercare altre conferme di quanto sbaglia l’altro lato. In pratica, anche ciò che non è allineato ci viene mostrato più per farci reagire (e aumentare il nostro engagement rabbioso) che per farci cambiare idea. Un po’ come quando qualcuno ti fa arrabbiare apposta per vederti perdere le staffe, ma con un algoritmo multimiliardario dietro.
Non sorprende che uno degli effetti osservati nell’era social sia un irrigidimento delle posizioni: le persone rimangono sempre più arroccate nelle proprie idee e sempre meno abituate al confronto costruttivo con chi la pensa diversamente. Ognuno si chiude nella sua comfort zone ideologica, perdendo l’abitudine al dubbio. Il dubbio, quel concetto vintage che andava di moda tra i filosofi ma che ora è meno popolare di un floppy disk a un raduno di Gen Z.
Il bias di conferma, insomma, è il carburante che alimenta le bolle informative e spinge ciascuno di noi a farsi tifoso delle proprie idee, costi quel che costi. Perché cambiare idea è da deboli, mentre portare avanti testardamente le proprie convinzioni contro ogni evidenza è da veri leader. O almeno, così ci piace pensare.
Effetto Dunning-Kruger: gli “esperti” da tastiera (ovvero, come diventare virologi, geopolitici e allenatori della nazionale in un solo weekend)
Un altro fenomeno psicologico ci mette del suo nel peggiorare la situazione: il dunning-kruger effect (effetto Dunning-Kruger). In breve, è quella peculiare illusione per cui le persone con scarsa competenza in un ambito tendono a sopravvalutarsi, mentre al contrario chi è molto competente spesso sottostima le proprie abilità. I ricercatori David Dunning e Justin Kruger lo dimostrarono negli anni ’90: in vari test, i partecipanti meno preparati si auto-valutavano sorprendentemente bene (ignari delle proprie lacune), mentre i più esperti tendevano casomai a darsi meno credito del dovuto.
In altre parole, più ne sai poco, più sei convinto di saperne tanto. Un fenomeno che spiegherebbe l’abbondanza di tuttologi sui social media, pronti a sentenziare su qualunque argomento dopo una ricerca Google di 30 secondi. La pandemia ha offerto un esempio perfetto: improvvisamente, milioni di persone sono diventate esperti di virologia, epidemiologia e vaccini, con una sicurezza inversamente proporzionale alla loro effettiva formazione nel campo.
Nel mondo online, l’effetto Dunning-Kruger è benzina sul fuoco della polarizzazione. Basta scorrere un social qualsiasi per trovare legioni di sedicenti esperti pronti a pontificare su qualunque argomento (dalla virologia alla geopolitica) forti di qualche ricerca su Google. Un dottorato in 5 minuti di scrolling, praticamente.
Chi conosce poco di un tema spesso è troppo sicuro di aver capito tutto, e questa eccessiva sicurezza porta a posizioni molto rigide: convinzioni granitiche e scarsa voglia di ascoltare punti di vista alternativi. Sui social, persone così tendono a reagire male al dissenso (in fondo, pensano di avere la verità in tasca, proprio accanto al portafoglio) e a rifiutare qualsiasi evidenza contraria, bollandola magari come fake news o propaganda. “Non sono d’accordo con questi fatti!” potrebbe essere il loro motto.
Se combiniamo Dunning-Kruger e bias di conferma, otteniamo un mix esplosivo: chi è incompetente in materia non solo ignora i propri limiti, ma trova online anche continue “prove” a supporto delle proprie tesi traballanti. Il risultato sono frotte di utenti ultra-convinti che diffondono magari pure bufale con assoluta sicurezza, resistendo ostinatamente a qualunque correzione. Insomma, non sanno di non sapere e in più il loro feed gli dà pure ragione: l’incubo di ogni fact-checker e il sogno di ogni venditore di teorie del complotto.
Tribalismo digitale: noi contro loro (e perché l’empatia è passata di moda)
L’essere umano resta, in fondo, un animale sociale con un forte istinto di appartenenza al gruppo. Abbiamo tutti bisogno di sentirci parte di una tribù e di difenderla a spada tratta – è un tratto che affonda le radici nell’evoluzione e che la psicologia spiega tramite la social identity (identità sociale). Questo bisogno di appartenenza è un’altra chiave per capire la polarizzazione. Siamo passati dalle tribù primitive che cacciavano mammut alle tribù digitali che cacciano meme e fake news, ma il meccanismo di base resta lo stesso.
Nell’era digitale, trovare la propria “tribù” ideologica è facilissimo: bastano pochi clic per ritrovarsi in gruppi e community di persone che la pensano allo stesso modo. Da un lato ciò può dare sostegno e senso di comunità; dall’altro può creare l’ennesima eco chamber che limita l’esposizione a prospettive diverse, rafforzando la mentalità del noi contro loro. Come un club esclusivo, ma dove l’unico requisito d’ingresso è concordare con un certo set di opinioni preconfezionate.
Gli individui finiscono per percepire chi sta fuori dal proprio gruppo come l’Altro con la “A” maiuscola, quasi appartenesse a una specie diversa. “Quelli di destra”, “quelli di sinistra”, “i complottisti”, “gli svegli”, “i dormienti” – etichette che servono a delineare confini netti tra tribù che, a forza di non parlarsi, finiscono per credersi realmente diverse.
Questo tribalismo digitale alimenta una visione ristretta e una grave mancanza di empatia verso chi appartiene a fazioni opposte. Ci si identifica talmente nel proprio schieramento che diventa difficile mettersi nei panni altrui. Un po’ come tifoserie calcistiche avversarie, i membri di gruppi ideologici diversi tendono a diffidare l’uno dell’altro e a comunicare solo per slogan. Si crea un clima di sospetto e avversione reciproca, in cui l’ostilità verso gli “altri” può diventare norma. “Sei contro di noi? Allora sei automaticamente male-informato, stupido o in malafede. Non esiste una quarta opzione.”
Questo si traduce spesso in attacchi personali, insulti e disumanizzazione dell’avversario: l’altro non è più un interlocutore con cui dissentire civilmente, ma un nemico da ridicolizzare o zittire. Il dialogo costruttivo, com’è facile immaginare, va a farsi benedire più velocemente di un gelato in agosto.
Anche la politica risente di questa dinamica tribale. Ci ritroviamo con fazioni sempre più intransigenti, ciascuna convinta di detenere la virtù e la verità. Compromesso diventa una parolaccia: sui social (ma non solo) i sostenitori di schieramenti opposti appaiono meno che mai disposti a scendere a patti o anche solo a considerare punti di vista alternativi. L’avversario politico viene dipinto come un pericolo esistenziale, la fiducia nelle istituzioni “dall’altra parte” crolla, e il dibattito pubblico si polarizza in tifoserie che si parlano (anzi, si urlano) addosso.
È il trionfo dell’identità di gruppo sull’analisi obiettiva: conta più vincere la battaglia “noi vs. loro” che trovare soluzioni condivise ai problemi. Più o meno come quei due che litigavano su quale colore fosse il vestito in quella famosa illusione ottica, ma con l’economia globale o i diritti civili come posta in gioco. Dettagli.
Dal web al mondo reale: implicazioni politiche e culturali (o: come i social hanno reso la realtà più surreale della fiction)
Le implicazioni di tutto ciò per la società non sono da poco. Un’opinione pubblica polarizzata è terreno fertile per conflitti sociali e politici. Il discorso democratico ne esce impoverito: se ognuno vive nella propria realtà parallela, trovare un minimo comun denominatore – anche solo sui fatti – diventa arduo quanto cercare di mettere d’accordo gatti e cani su chi debba controllare il divano.
Si rischia una frammentazione della società in bolle sempre più distanti, ciascuna con la propria narrazione dei fatti (spesso incompatibile con le altre). Non più una realtà condivisa, ma un multiverso di verità parallele in cui l’unica costante è la certezza di avere ragione. Marvel dovrebbe prendere appunti.
Inoltre, l’astio tra gruppi – ciò che gli studiosi chiamano polarizzazione affettiva, ossia l’ostilità emotiva verso l’altro schieramento – può sfociare in fenomeni pericolosi: dalla discriminazione e dall’isolamento di minoranze, fino a veri e propri episodi di violenza. “Sei di quell’altra tribù? Allora meriti il peggio” sembra essere la logica sottostante.
La disinformazione prospera in questo clima come funghi dopo la pioggia. Quando ciascuno seleziona solo le “sue” notizie e frequenta solo ambienti che gli danno ragione, bufale e teorie estreme trovano terreno fertilissimo perché nessuno le mette mai in discussione. Non a caso certe teorie del complotto, come i terrapiattisti o i negazionisti dello sbarco sulla Luna, hanno trovato sui social un ecosistema ideale dove proliferare. Chi vi crede viene continuamente esposto a contenuti che confermano la sua visione. E come puoi cambiare idea, se il mondo che abiti ti dà sempre ragione? La Terra piatta sembra molto più plausibile quando tutti i tuoi contatti condividono le stesse “prove”.
Molti osservatori temono che queste dinamiche stiano danneggiando la salute della democrazia. Se non c’è più un terreno comune di fatti condivisi e se ogni campo considera l’altro come nemico, il confronto civile diventa difficilissimo e aumenta il rischio di derive autoritarie o violente. L’attuale dibattito su fake news e “post-verità” nasce proprio da qui.
Eli Pariser già nel 2011 avvertiva che le filter bubble online avrebbero portato a isolamento intellettuale e frammentazione sociale, con effetti negativi sul discorso civico. Dopo eventi come le elezioni americane del 2016, molti hanno puntato il dito contro l’influenza dei social media e delle echo chamber, preoccupati che tali fenomeni “possano nuocere alla democrazia” alimentando la disinformazione e la sfiducia reciproca. Un avvertimento che, con il senno di poi, sembra tanto profetico quanto ignorato, come quel personaggio nei film horror che dice “non dovremmo andare in quella casa” e viene puntualmente ignorato da tutti.
In sintesi, una società iper-polarizzata fatica a prendere decisioni condivise, si spacca in tribù ostili e perde quella “colla” di consenso minimo necessaria per affrontare insieme le sfide collettive. È come cercare di giocare a calcio quando metà squadra insiste che si stia giocando a basket.
Uscire dalla bolla: missione (im)possibile? (Spoiler: più difficile che rinunciare a Netflix)
Che fare, dunque, davanti a questo scenario? Una soluzione facile non esiste – stiamo parlando di tendenze radicate sia nella tecnologia sia nella psicologia umana. È un po’ come chiedere agli esseri umani di smettere di mangiare cioccolata: teoricamente possibile, praticamente improbabile.
Tuttavia, un buon inizio potrebbe essere la consapevolezza: riconoscere di avere dei bias cognitivi (tutti ne abbiamo!) e sforzarsi di uscire dalla propria bolla ogni tanto, cercando attivamente prospettive diverse. Gli stessi studiosi sottolineano che superare il tribalismo richiede consapevolezza e impegno deliberato. In altre parole, dovremmo imparare a dubitare un po’ di più di noi stessi e del nostro feed perfettamente ritagliato, e coltivare l’empatia verso “l’altro lato”. Un progetto ambizioso quanto chiedere ai gatti di non ficcarsi nelle scatole.
Significa anche riscoprire il valore di un confronto civile: invece di bloccare o insultare chi dissentisce, provare ad ascoltarlo (anche solo per capire meglio perché la pensa così). Una pratica così vintage che potrebbe tornare di moda, come i vinili o i pantaloni a zampa.
Certo, tutto ciò è più facile a dirsi che a farsi. Ma vale la pena provarci. Se vogliamo evitare che le differenze di opinione si trasformino in muri invalicabili, dobbiamo allenarci a vedere oltre i nostri pregiudizi. In fin dei conti, ricordarci che potremmo anche sbagliare ogni tanto è salutare: un efficace antidoto sia contro l’arroganza da effetto Dunning-Kruger, sia contro le certezze monolitiche create dal bias di conferma.
Dopotutto, la mente – un po’ come i paracadute – funziona meglio quando è aperta. E con mente aperta, persino i social possono tornare ad essere strumenti per connettere le persone anziché dividerle. O almeno, questa è la teoria. La pratica, come sappiamo, è tutta un’altra storia. Ma ehi, sognare non costa nulla (a differenza della terapia che potremmo tutti aver bisogno dopo anni di polarizzazione online).
Fonti:
- Rizzoli Education – Il dark side dei social: la polarizzazione del pensiero e l’incomunicabilità interpersonale
- G. Nickerson, Confirmation Bias: A Ubiquitous Phenomenon, Rev. of General Psychology
- Cultura Aumentata – I bias cognitivi: le leve psicologiche dei social media
- Helio – How the Dunning-Kruger Effect Fuels Overconfidence
- Psychology Today – Tribalism in the Age of Social Media
- Quattrociocchi W., World Economic Forum: How does misinformation spread online?
- Wikipedia – Filter bubble, Dunning–Kruger effect, Political polarization (various)
No responses yet