Il vero problema dei social network. di Fabio Ambrosino, Rebecca De Fiore

Oggi, quando pensiamo ai problemi etici delle grandi piattaforme social, pensiamo soprattutto alla privacy e alla raccolta dei dati. Questo problema, però, non è l’unico. E forse neanche il più importante. Ciò che sfugge è che le aziende tecnologiche utilizzano i dati per costruire modelli che predicono le nostre azioni, influenzando stati d’animo e comportamenti. Senza che ce ne rendessimo conto le infrastrutture digitali di Facebook e Google potrebbero aver preso il sopravvento sui meccanismi del nostro cervello. Ma come siamo arrivati fin qui? Forse aveva ragione Edward O. Wilson, professore di Harvard, che dieci anni fa scrisse che “il vero problema dell’umanità è il seguente: abbiamo emozioni paleolitiche, istituzioni medievali e tecnologia divina”. Da allora i poteri divini della tecnologia sono aumentati notevolmente, mentre gli impulsi paleolitici del nostro cervello sono rimasti gli stessi.

L’evoluzione dei social media

Chi ha visto “The social network”, film del 2010 diretto da David Fincher sulla storia di Facebook e del suo inventore Mark Zuckerberg, ricorderà che tutto è iniziato quando il brillante studente di Harvard, lasciato dalla ragazza, crea in una notte un software che preleva tutte le foto delle studentesse messe online dalle università, le mette in rete e chiede di votare le più belle. È proprio il successo di Facemash a convincere Zuckerberg a proseguire nell’idea di offrire uno strumento agli studenti di Harvard per socializzare. Nel gennaio del 2004, Zuckerberg registra il dominio thefacebook.com e ha inizio la storia del social network più visitato al mondo.

All’inizio, però, i social media erano molto diversi da come sono oggi. Le piattaforme sono nate per aiutare gli utenti a connettersi con gli amici. La situazione è cambiata tentando di migliorare l’esperienza dell’utente, con una serie di evoluzioni che hanno avuto un impatto sulla modalità di diffusione delle notizie, favorito la circolazione delle fake news, creato rabbia e polarizzazione. Nel 2006 è nato Twitter, che ha dato vita a un flusso costante di aggiornamenti di 140 caratteri, rendendo i social media una fonte di informazione. Tra il 2009 e il 2012 sono state implementate funzioni come il Mi piace e il Condividi di Facebook e il Retweet di Twitter, che hanno creato uno standard di popolarità dei contenuti e generato una maggiore rapidità di diffusione delle notizie. “Con il pulsante Mi piace volevamo solo diffondere positività e amore nel mondo. Che oggi gli adolescenti si sarebbero depressi per pochi like o che potesse creare polarizzazione non lo avevamo previsto”, afferma a distanza di anni il suo inventore, Justin Rosenstein [1].

Cosa sanno di noi le grandi società? Dal nome all’età, fino all’indirizzo di casa e gli interessi personali, nell’infografica la percentuale nota a queste imprese del totale dei nostri dati personali.
Fonte: Clario Tech, 2020.

Scegliamo noi o scelgono loro per noi?

Questi processi di controllo e comunicazione stanno modificando profondamente le regole del mondo e i codici di condotta degli esseri umani. Ed è proprio quello che intende Shoshana Zuboff quando parla di capitalismo della sorveglianza: qualcosa che “si appropria dell’esperienza umana usandola come materia prima da trasformare in dati comportamentali. Si tratta di un mercato mai esistito prima e lo dimostra il fatto che le aziende Internet sono le più ricche nella storia dell’umanità. Sanno se le persone sono tristi, se guardano le foto dell’ex fidanzato, con chi interagiscono o vorrebbero interagire. Hanno più informazioni di noi di quanto si sia mai immaginato nella storia” [1].

Attraverso interviste a ex dipendenti delle grandi aziende della Silicon Valley “The social dilemma”, documentario di Netflix, ha provato a ricostruire il funzionamento dei social media. Protagonista indiscusso è Tristan Harris, ex Google design ethicist e presidente del Center for humane technology, un’organizzazione senza scopo di lucro focalizzata sull’etica della tecnologia di consumo. Racconta che si rese conto, da membro del team di Gmail, che c’era un aspetto del suo lavoro particolarmente frustrante: nessuno stava affrontando il problema che la progettazione del client di posta di Google creava dipendenza dalle e-mail. Semplicemente scegliendo una grafica piuttosto che un’altra si potevano prendere decisioni con effetti sulla vita di miliardi di persone. Ma la grafica non è l’unica cosa che ci tiene incollati allo schermo. Il gesto dello scorrere, i puntini di sospensione che ci dicono che qualcuno sta rispondendo, i tag fotografici, sono tutte funzioni che sfruttano i meccanismi cognitivi del nostro cervello.

“Come accade per le droghe, l’utilizzo dei social media attiva il sistema cerebrale della ricompensa.” – Stefano Canali

Esiste un principio in economia: quando non paghiamo per un prodotto, il prodotto siamo noi. Per quanto riguarda i social network, nello specifico, il prodotto è la nostra attenzione. L’attenzione costituisce infatti una risorsa finita e, in quanto tale, prezzabile e vendibile come una qualsiasi merce. Gran parte dei modelli di business delle piattaforme social – ma anche di altri media, come molte televisioni e testate giornalistiche – si basano sulla vendita di porzioni della nostra attenzione a degli inserzionisti. Di conseguenza, perché il loro modello di business funzioni, i social network devono assicurarsi un approvvigionamento continuo e costante di attenzione. In altre parole, devono fare in modo che le persone passino più tempo possibile sulle loro piattaforme.

Questo obiettivo può però essere raggiunto in modi diversi, alcuni dei quali piuttosto problematici. “Queste macchine, così come le slot machine, sono ingegnerizzate consapevolmente per dare dipendenza”, ci spiega Stefano Canali, coordinatore della Scuola di neuroetica della Scuola Internazionale di Studi superiori avanzati (Sissa) di Trieste. “Come accade per le droghe, l’utilizzo dei social media attiva il sistema cerebrale della ricompensa, che è quello che suscita l’interesse verso le cose e stimola la voglia di lavorare per ottenerle”. Quando riceviamo una gratificazione in corrispondenza di una certa azione, nel nostro cervello tra i due fattori si crea un’associazione. E non solo tra questi, in realtà, ma tra tutti gli elementi collegati alla situazione in cui abbiamo ricevuto la ricompensa: le emozioni che abbiamo provato, le caratteristiche dell’ambiente in cui ci trovavamo, le persone che erano con noi e altro ancora. Che si tratti del sapore di una bistecca, del piacere di un orgasmo, dell’euforia provocata da uno stupefacente o dalla soddisfazione causata da un Mi piace ricevuto su Facebook, il meccanismo è lo stesso.

“Questo tipo di apprendimento fa sì che la presenza di stimoli associati a un comportamento che ha attivato il mio sistema cerebrale della ricompensa mi faccia venire voglia di mettere di nuovo in atto quel comportamento”, spiega Canali. Se in passato la notifica di un Mi piace su Facebook è risultata associata a una gratificazione – in termini di approvazione sociale, ad esempio – ogni volta che vedrò una notifica di quel tipo il mio cervello suggerirà di indagare, fiducioso di ricevere un’altra gratificazione. Gli algoritmi dei social network, sviluppati in modo da proporci continuamente contenuti per noi gratificanti, fanno il resto. Un ulteriore elemento di questo circolo vizioso è infine il fenomeno del cosiddetto overload cognitivo: l’esposizione a stimoli sempre nuovi e potenzialmente infiniti, come quelli erogati dalle piattaforme social, causa una sorta di affaticamento delle funzioni cognitive, erodendo così la nostra capacità di autocontrollo. “L’effetto – conclude Canali – è l’incapacità di gestire volontariamente l’attenzione sostenuta e, di conseguenza, l’orientamento dei nostri sistemi percettivi e cognitivi”.

“Ti raccontano che ci adatteremo come è successo con tutto il resto”, spiega Tristan Harris. “Sfugge che in questo caso c’è qualcosa di nuovo. Oggi gli algoritmi ci controllano più di quanto noi non controlliamo loro” [1]. Una delle conseguenze di questo aspetto è che se si digita su Google “cambiamento climatico” si vedono risultati diversi a seconda di dove si vive e di cosa Google sa di noi in base alla cronologia delle ricerche. A prescindere dalla verità, può uscire come completamento automatico “il cambiamento climatico è una bufala” o “il cambiamento climatico distrugge la natura”. E lo stesso procedimento vale per i social media. Su Facebook, ad esempio, anche due amici molto vicini, che condividono centinaia di contatti sulla piattaforma, vedono nel feed aggiornamenti completamente diversi. Il motivo è che la scelta dei contenuti che vengono proposti a una persona è effettuata in base al suo comportamento su quel social. Se in più occasioni ho condiviso o messo Mi piace a un certo tipo di contenuti, l’algoritmo tenderà a propormene di simili. Il risultato, poiché ognuno si crea la propria realtà anche in base ai contenuti che vede, è un aumento della polarizzazione, anch’essa estremamente efficace per tenere online le persone.

Fake news e polarizzazione

“Abbiamo creato un sistema che predilige le notizie false perché portano più soldi alle aziende rispetto alle notizie vere. Al punto che non sappiamo più cosa è vero e cosa è falso”, racconta Tristan Harris in “The social dilemma” [1]. Un’informazione che non ha la necessità di essere vera, infatti, può avere tutte le caratteristiche utili a soddisfare le esigenze emotive dei fruitori finali, i quali – dandole però per vere – tenderanno ad apprezzarle e condividerle, favorendone la diffusione. È stato dimostrato, ad esempio, che su Twitter le notizie false si diffondono sei volte più velocemente di quelle vere. Uno studio del 2017 di William J. Brady e altri ricercatori della New York University ha analizzato mezzo milione di tweet e ha scoperto che ogni parola “emotiva” utilizzata in un tweet aumentava la sua viralità del 20% [2]. Un altro studio del 2017, del Pew Research Center, ha rivelato che i post che mostravano disaccordo o indignazione ricevevano quasi il doppio del coinvolgimento in termine di interazione: dai like, ai commenti, alle condivisioni [3].

Per capire come siamo arrivati a questo punto, bisogna fare un passo indietro. “L’avvento di Internet e dei social network hanno rivoluzionato il modo in cui comunichiamo con gli altri e il modo in cui ci informiamo. Innanzitutto, un tempo l’informazione prima di arrivare al grande pubblico subiva il filtro dell’editore, del giornalista, dell’esperto, mentre con l’avvento dei social media ognuno di noi non solo può accedere a una vasta quantità di informazioni, ma può produrre la propria. Consideriamo poi che accediamo a queste informazioni tramite i dispositivi digitali in modo estremamente rapido e quindi cambia la maniera di interazione con i contenuti. L’ultimo grande cambiamento è che l’informazione è tanta: Internet è stato un grande traguardo perché ha consentito a una grandissima parte della popolazione mondiale di accedere a informazioni su diversi argomenti, ma il tempo che abbiamo per processare queste informazioni solitamente è poco e la nostra attenzione come esseri umani è limitata”, ci racconta Fabiana Zollo, ricercatrice all’Università Ca’ Foscari di Venezia.

Sui social media l’utente tende a cercare informazioni a supporto delle tesi in cui crede, ignorando la narrazione antagonista. In questo modo si creano le cosiddette echo chamber, spazi in cui le opinioni si confermano e conformano le une alle altre. Il risultato, inevitabilmente, è una progressiva polarizzazione. Secondo Davide Bennato, sociologo dei media digitali, sarebbe proprio la polarizzazione uno dei problemi centrali dei social media: “Il problema non è solo delle piattaforme, ma anche che ci sono persone che le utilizzano senza consapevolezza o che ne hanno pure troppa e le utilizzano in maniera poco etica. Non possiamo prendercela solo con gli algoritmi se i no vax o i terrapiattisti si lasciano incantare da altre teorie complottiste perché il motivo sta nella immagine del mondo che questo tipo di persone ha. Se ricevessero informazioni su nuovi complotti in altro modo, sarebbero comunque interessati a prescindere dagli algoritmi”.

Diversi studi portati avanti dall’Università Ca’ Foscari di Venezia hanno mostrato che la tendenza a confinarci nelle echo chamber o a interagire con persone simili a noi, ignorando le informazioni che sono in contrasto con la nostra visione del mondo, si verifica maggiormente nei social media in cui è presente un algoritmo di selezione delle informazioni e dei contenuti in base alle scelte passate o alle preferenze degli utenti. “Ma gli algoritmi non devono essere sempre demonizzati, sono lì per mostrarci i contenuti che ci piacciono ed è qualcosa che chiediamo noi come utenti”, continua Zollo. “Dobbiamo provare a capire se è un meccanismo che vogliamo provare a smorzare o a rompere oppure no. Dal punto di vista dell’utente sarebbe importante avere maggiore trasparenza da parte delle piattaforme su come funzionano questi algoritmi e su come filtrano i contenuti, ma non credo sia necessariamente un intero sistema da demonizzare”.

“Sfugge che in questo caso c’è qualcosa di nuovo. Oggi gli algoritmi ci controllano più di quanto noi non controlliamo loro.” – Tristan Harris

È troppo tardi per tornare indietro?

Partendo dal presupposto che la minaccia esistenziale non è la tecnologia ma la capacità della tecnologia di tirare fuori il peggio della società, possiamo ancora cambiare le cose. “Pensiamo alla plastica, oggi demonizzata quando si parla di inquinamento. Il problema non è la plastica in sé, ma che la abbiamo utilizzata per creare prodotti usa e getta. Se venisse utilizzata con una logica di risparmio o di riduzione di materiali che hanno un costo sociale più alto, improvvisamente smetterebbe di essere un problema”, spiega Bennato. “La stessa cosa vale per i social media. Non c’è percezione del fatto che i social media – come tutti gli strumenti tecnologici – possono avere conseguenze nefaste sulla vita delle persone. Se fossimo educati a questo, si responsabilizzerebbero le singole persone. Ovviamente, poi, è anche una questione politica. Quello che mi fa specie è che non ci sia un dibattito pubblico su questo”.

Sicuramente, nonostante dei limiti, va riconosciuto a “The social dilemma” il merito di aver generato una discussione sull’argomento. Da un sondaggio realizzato da Davide Bennato, su una base di circa 550 rispondenti, è emerso che tra coloro che l’hanno visto è piaciuto molto pur conoscendo l’argomento (73%) e ha permesso a una piccola parte di persone di approcciarsi alla questione (7%). In generale, più della metà di coloro che hanno visto il documentario si dice pessimista rispetto alle conseguenze dei social media sulla società (56%). Fra coloro che non l’hanno visto, invece, la maggioranza dichiara di volerlo vedere (91%) perché incuriosita dal dibattito che si è scatenato proprio sui social (52%). Tra le persone che non lo hanno ancora visto, al contrario, prevalgono gli ottimisti riguardo al futuro (45%) anche se non mancano quelli con una visione più pessimista (41%).

Luogo primario di dibattito, però, dovrebbero essere le scuole. Ne è convinto anche Stefano Canali: “Se oggi scomparissero i social media ci sarebbero delle gravi conseguenze, anche dal punto di vista delle comunicazioni di cui abbiamo bisogno. Ma dato che da un punto di vista politico le prospettive non mi sembrano le migliori – soprattutto perché queste grandi aziende hanno acquisito ormai un potere enorme – quello che cerco di fare è lavorare sulle risorse personali. Le scuole dovrebbero insegnare delle strategie per potenziare gli strumenti di autocontrollo, aiutare ad indirizzare le scelte su ciò che davvero interessa, insegnare a gestire le risorse mentali sapendole orientare dove serve”.

“Quello che mi fa specie è che non ci sia un dibattito pubblico su questo.” – Davide Bennato

Qual è, quindi, il vero problema dei social network? Di fronte a questa domanda, apparentemente semplice, tutti gli intervistati di “The social dilemma” reagiscono con un sorriso imbarazzato, come se la risposta fosse talmente complessa e multifattoriale da non poter essere esplicitata in una singola frase. Sono gli algoritmi? Le proprietà tecnologiche e stilistiche finalizzate a creare dipendenza? Il modello di business? La polarizzazione? La disinformazione? La somma o l’interazione di tutti questi fattori? Solo su un aspetto sembra esserci un accordo piuttosto diffuso: la mancanza di regolamentazione. E propedeutica a questa, la mancanza di un dibattito pubblico utile a evidenziare i rischi legati all’uso di queste piattaforme e finalizzato a individuare delle possibili soluzioni. In gioco, infine, potrebbero non esserci solo i nostri dati e la nostra privacy, ma anche la nostra libertà e i nostri valori democratici.

Bibliografia
[1] I quote sono tratti da “The social dilemma”.
[2] Brady WJ, et al. PNAS 2017;114:7313-8.
[3] Pew Research Center. Partisan conflict and congressional outreach. Febbraio 2017.

fonte: Forward – La Rivista – “Avviene”

IMMAGINE COVER: Fotografia di Lorenzo De Simone

Print Friendly, PDF & Email