La questione del rapporto tra social media e salute non può essere ridotta a un problema di uso corretto o scorretto da parte degli individui. Riguarda il modo in cui organizziamo produzione, circolazione e valorizzazione delle informazioni. Se la democrazia costituisce un determinante fondamentale della salute, allora governare le infrastrutture informative diventa una priorità di salute pubblica. Riportarle entro un quadro di responsabilità democratica è una condizione per preservare autonomia, integrità dell’informazione e benessere collettivo.
Negli ultimi quindici anni abbiamo assistito a una diffusione capillare di Internet e dei social media, accompagnata da una crescente integrazione delle piattaforme digitali nella vita quotidiana. Facebook, Instagram, X, TikTok e altre piattaforme non sono più semplici strumenti di comunicazione, ma infrastrutture sociali attraverso cui si informano, si relazionano e si orientano milioni di persone. Parallelamente, la disponibilità degli utenti a condividere dati è diventata condizione ordinaria di partecipazione alla vita sociale digitale. Il consenso al trattamento è formalmente libero, ma nella pratica rifiutarlo significa spesso auto-escludersi da spazi che funzionano come infrastrutture essenziali. La tecnologia opera “sullo sfondo”: non percepiamo lo strumento, ma i contenuti che veicola. La maggior parte degli utenti non ha consapevolezza dei processi che avvengono dietro l’interfaccia. Il modello economico dell’attenzione premia l’ingaggio continuo: le piattaforme sono progettate per massimizzare il tempo di permanenza tramite notifiche, feed personalizzati e contenuti emotivamente salienti. Le implicazioni sono anche sanitarie. Diversi studi hanno evidenziato correlazioni tra utilizzo intensivo dei social media e disturbi della salute mentale (ansia, depressione, ideazione suicidaria), diffusione di disinformazione sanitaria, promozione di stili di vita non salutari e polarizzazione politica; alcuni autori hanno inoltre ipotizzato una progressiva erosione dell’autonomia personale (1-3).
Il dibattito è ormai uscito dall’ambito accademico. Alcuni Paesi hanno proposto limiti di età per l’accesso ai social (4,5), non senza critiche (6); negli Stati Uniti sono stati avviati procedimenti giudiziari per valutare la responsabilità delle piattaforme nei meccanismi di dipendenza. Nel marzo 2026, una giuria statunitense si è pronunciata nel primo processo per “dipendenza da social media”, riconoscendo la responsabilità di grandi piattaforme come Meta e YouTube nel contribuire a danni psicologici negli utenti più giovani. Il verdetto segna un passaggio rilevante, perché traduce in termini giuridici un dibattito finora prevalentemente scientifico e politico, aprendo la strada a ulteriori contenziosi e possibili regolazioni più stringenti (7,8). Nel frattempo le piattaforme si sono trasformate, sia nell’esperienza utente sia nell’evoluzione dei modelli aziendali. Cory Doctorow ha definito questo deterioramento “enshittification” (9,10): inizialmente le piattaforme attraggono utenti offrendo servizi efficienti; una volta consolidata la base, riorientano l’esperienza verso la monetizzazione, privilegiando gli inserzionisti a scapito degli utenti; infine saturano l’ambiente, danneggiando entrambi pur di aumentare l’estrazione di valore. In un’ottica di salute pubblica è utile spostare l’analisi dal livello individuale a quello collettivo, per comprendere come i social media plasmino la società e possano distorcere i determinanti fondamentali della salute.
Una cornice teorica utile è quella proposta da Shoshana Zuboff, sociologa statunitense e autrice del libro The Age of Surveillance Capitalism. Secondo Zuboff siamo entrati in una nuova fase del capitalismo, caratterizzata dall’estrazione sistematica di dati
comportamentali finalizzata a prevedere e modificare il comportamento umano. L’autrice ricostruisce lo sviluppo delle grandi aziende tecnologiche (Big Tech) lungo due vettori paralleli: espansione delle prerogative di governance e produzione crescente di danni sociali (11). Questi due processi si alimentano reciprocamente e si articolano in quattro stadi (Figura 1). A ogni stadio la sfera di influenza delle piattaforme si appropria di funzioni tradizionalmente appartenenti allo spazio pubblico, mentre nuovi danni vengono scaricati sulla collettività.
Figura 1. I quattro stadi dell’ordine istituzionale del capitalismo della sorveglianza
La prima fase consiste nella mercificazione dell’esperienza umana. Le tracce lasciate dagli utenti – il cosiddetto surplus comportamentale – diventano materia prima per prevedere azioni future, come la probabilità di cliccare su un annuncio. Nasce così la pubblicità mirata fondata sulla sorveglianza. L’esperienza privata viene trasformata in risorsa economica. Ne derivano due dinamiche: l’espropriazione di diritti epistemici fondamentali – la possibilità di controllare chi sa cosa di noi e con quali finalità – e un crescente caos informativo. Gli algoritmi privilegiano contenuti capaci di generare engagement; la veridicità dei contenuti diventa economicamente irrilevante. Contenuti falsi o fuorvianti, spesso emotivamente salienti, vengono amplificati. Il risultato è un caos epistemico caratterizzato da una corruzione informativa diffusa e difficilmente controllabile. In ambito sanitario, ciò si traduce in maggiore visibilità per informazioni sensazionalistiche o complottiste, rispetto a quelle accurate. Durante la pandemia di COVID-19, la diffusione di informazioni false su cure e vaccini ha influenzato comportamenti individuali, riducendo l’adesione alle misure preventive e contribuendo a esiti evitabili.
La seconda fase riguarda la concentrazione dei mezzi di produzione della conoscenza. I dati estratti vengono elaborati per produrre informazioni, generando una disuguaglianza epistemica: milioni di individui sono oggetto di conoscenza dettagliata, mentre i processi decisionali delle piattaforme restano opachi. Le aziende stabiliscono cosa rendere visibile, cosa occultare e a quali condizioni. Non si tratta solo di accumulare informazioni, ma di decidere quali domande meritino di essere poste. Ciò che può essere conosciuto è orientato primariamente all’interesse commerciale. La capacità collettiva della società di orientare e beneficiare della produzione di conoscenza viene compressa, mentre il controllo sulle infrastrutture cognitive dell’ecosistema informativo si concentra in un numero sempre più ristretto di soggetti.
La terza fase segna il passaggio dalla previsione all’intervento. La conoscenza comportamentale viene utilizzata per modulare attivamente il comportamento individuale e collettivo. I sistemi di distribuzione dell’informazione diventano ambienti selettivi in cui contenuti compatibili con obiettivi di engagement vengono privilegiati. Si acquisisce così una capacità inedita di intervenire a distanza sui processi decisionali. Un caso paradigmatico è stato la campagna presidenziale di Trump del 2016: attraverso dataset raccolti in gran parte tramite Facebook, furono micro-targettizzati milioni di elettori con post personalizzati volti a scoraggiare l’affluenza alle urne, mostrando come la conoscenza predittiva potesse tradursi in attuazione comportamentale su larga scala (12-15). Il risultato è la “costruzione artificiale della realtà”: un ecosistema comunicativo in cui l’ordine delle idee non emerge da un confronto pubblico aperto, ma da scelte invisibili guidate da imperativi economici.
La fase più avanzata descrive la tensione tra potere privato e governance democratica. Quando poche piattaforme controllano infrastrutture comunicative globali, possono influenzare indirettamente le condizioni entro cui si formano decisioni politiche e sociali. Non è solo un problema economico, ma sistemico. Durante la pandemia di COVID-19, la gestione dell’informazione pubblica ha mostrato la dipendenza dalle piattaforme; le soluzioni tecnologiche proposte per il tracciamento dei contatti erano tecnicamente subordinate ai sistemi operativi mobili controllati da Apple e Google. Questa dinamica non è episodica. Un recente rapporto del Parlamento Europeo sulla sovranità tecnologica evidenzia come gran parte delle infrastrutture cloud e dei servizi digitali critici su cui si fondano amministrazioni pubbliche, sistemi sanitari e processi elettorali europei siano controllati da operatori extraeuropei, prevalentemente statunitensi (16). Ne deriva una vulnerabilità strutturale: le istituzioni democratiche esercitano funzioni di governo all’interno di architetture tecniche e giuridiche che non controllano pienamente.
Secondo Zuboff questo sistema si è affermato anche per l’assenza di un’effettiva funzione di controllo democratico. In mancanza di un’adeguata risposta politica, le infrastrutture dell’informazione e della comunicazione sono diventate spazi privatizzati con vincoli normativi deboli rispetto alla loro portata sistemica.
Da qui la necessità di una risposta collettiva. Interventi individuali non sono sufficienti: occorrono politiche che agiscano sull’architettura dei sistemi, sui modelli di business, sulla trasparenza degli algoritmi e sulla protezione dei dati, orientate verso obiettivi di interesse pubblico. La raccolta e produzione di conoscenza deve essere una risorsa per migliorare città, servizi, accesso al cibo, alla salute e all’istruzione, anziché in strumenti di manipolazione commerciale e politica.
Le istituzioni sanitarie hanno una responsabilità specifica. Devono promuovere alfabetizzazione digitale e interrogarsi criticamente sul proprio utilizzo delle piattaforme. Molte aziende sanitarie utilizzano i social media per la promozione della salute o la comunicazione istituzionale, ma ogni tecnologia incorpora una logica economica e operativa: non è neutra. In particolare i social media costituiscono un ambiente strutturalmente problematico per il mondo sanitario. È necessario quindi chiedersi se lo strumento sia coerente con gli obiettivi dichiarati. Alcuni gruppi, come il collettivo di scrittori Wu Ming, hanno scelto una politica di ritiro dai social media, ritenendo che la struttura di questi ambienti renda impossibile un utilizzo coerente con determinati principi (17). Non si tratta necessariamente di una soluzione universale, ma di un esempio di riflessione critica sulla coerenza tra mezzi e fini.
In definitiva, la questione dei social media e della salute non può essere ridotta a un problema di uso corretto o scorretto da parte degli individui. Riguarda il modo in cui organizziamo produzione, circolazione e valorizzazione delle informazioni. Se la democrazia costituisce un determinante fondamentale della salute, allora governare le infrastrutture informative diventa una priorità di salute pubblica. Riportarle entro un quadro di responsabilità democratica è una condizione per preservare autonomia, integrità dell’informazione e benessere collettivo.
Andrea Ubiali, Medico di sanità pubblica, Bologna.
Bibliografia
(1) Lorini C, Buscemi P. Social media e salute. Salute Internazionale, 2024. https://www.saluteinternazionale.info/2024/07/social-media-come-determinanti-di-salute/
(2) Lo Parrino R. Adolescenti e social network. Salute Internazionale, 2025. https://www.saluteinternazionale.info/2025/07/adolescenti-e-social-network/
(3) Foini, D. (2023). Personal autonomy and surveillance capitalism: Possible future developments. CoRR. https://doi.org/10.48550/arXiv.2302.08946
(4)Salute Internazionale, 2025. Social vietati ai minori: la stretta in Australia. Ma l’Italia non si muove per paura di Trump
(5) Jahangir, R. & Hendrix, J. (2026, February 23). Tracking efforts to restrict or ban teens from social media across the globe. Tech Policy Press. https://www.techpolicy.press/tracking-efforts-to-restrict-or-ban-teens-from-social-media-across-the-globe
(6) Lorenz, T. (2026, March 2). The world wants to ban children from social media, but there will be grave consequences for us all. The Guardian. https://www.theguardian.com/commentisfree/2026/mar/02/ban-children-social-media-biometic-data-surveilled?CMP=Share_AndroidApp_Other
(7) Il Post, 2026. Il primo processo per stabilire se i social media creano dipendenza: https://www.ilpost.it/2026/01/27/social-network-cause-legali/.
(8) Il Post, 2026. Una giuria di Los Angeles ha stabilito che i social creano dipendenza https://www.ilpost.it/2026/03/25/meta-google-processo-dipendenza-social-network/
(9) Doctorow, C. (2025, 2 ottobre). Enshittification — a manifesto for fixing the internet. Financial Times.
(10) TChayka, K. (2025, October 1). The age of enshittification. The New Yorker. https://www.newyorker.com/culture/infinite-scroll/the-age-of-enshittification
(11) Zuboff, S. (2022). Surveillance capitalism or democracy? The death match of institutional orders and the politics of knowledge in our information civilization. Organization Theory, 3(3), 1–79. https://doi.org/10.1177/26317877221129290
(12) Fraga, B. L., McElwee, S., Rhodes, J., & Schaffner, B. F. (2017, May 8). Why did Trump win? More whites—and fewer blacks—actually voted. Washington Post. https://www.washingtonpost.com/news/monkey-cage/wp/2017/05/08/whydid-
trump-win-more-whites-and-fewer-blacksthan-normal-actually-voted/
(13) Gilbert, B. (2020, January 8). Facebook is the reason Trump got elected, says Facebook exec who ran advertising during the 2016 election, “but not for the reasons anyone thinks.” Business Insider. https://www.businessinsider.com/facebook-adselected-
trump-andrew-bosworth-says-2020-1
(14) Rabkin, J., Basnett, G., Howker, E., Eastham, J., & Pett, H. (2020, September 28). Revealed:Trump campaign strategy to deter millions of Black Americans from voting in 2016.
Channel 4 News. https://www.channel4.com/news/revealed-trump-campaign-strategy-todeter-millions-of-black-americans-from-voting-in-2016
(15) Scola, N. (2017, October 26). How Facebook, Google and Twitter “embeds” helped Trump in 2016. Politico.
https://www.politico.com/story/2017/10/26/facebook-google-twittertrump-244191
(16) Parlamento Europeo. Relazione sulla sovranità tecnologica europea e le infrastrutture digitali (A-10-2025-0107). Strasburgo: Parlamento Europeo, 2025.
(17) Wu Ming. (2019, 9 dicembre). L’amore è fortissimo, il corpo no. 2009–2019, dieci anni di esplorazioni tra Giap e Twitter / 1a puntata (di 2). Giap – Wu Ming Foundation. https://www.wumingfoundation.com/giap/2019/12/lamore-e-fortissimo-il-corpo-no-1-twitter-addio/
fonte: https://www.saluteinternazionale.info/2026/04/social-media-e-sorveglianza-sociale/

