Continua da: Dipendenza e Digitale (parte 1); Dipendenza Programmata (parte 2)
Social a processo
Sorge quindi la domanda: data la complessità della questione, delle variabili in campo, e anche la profonda intersezione tra un uso legittimo del digitale ed il suo dare luogo a comportamenti problematici, come è possibile stabilire un confine tra cosa è legittimo e cosa no? Nella creazione di tecnologie che afferiscono al digitale (che siano dispositivi, software, o anche infrastrutture), cosa è giusto fare e cosa evitare?
Non c’è, al momento, una risposta definitiva, nè un metodo preciso per prendere queste decisioni, ma è chiaro che vanno prese. Un ovetto di cioccolata con la sorpresa dentro è attraente per tanti motivi che non sono dissimili dalle motivazioni che rendono il gioco d’azzardo attraente, eppure l’azzardo è strettamente regolamentato (in Italia), le merendine con le sorprese no, e ci sono dei buoni motivi perché sia così. Non c’è giusto e sbagliato, ma una consapevolezza sociale di cosa è dannoso che si evolve nel tempo, e che deve riuscire a stare al passo con l’innovazione tecnologica.
Proprio in questi giorni, ad inizio 2026, stanno avendo luogo dei processi giudiziari in corso a Los Angeles (vedi Il Post e il New York Times) che mirano a stabilire se i social media creino dipendenza, e se siano pericolosi per bambini e adolescenti. L’onere dell’accusa è di dimostrare non solo la concretezza dei danni, ma anche che questi danni siano stati causati consapevolmente, con finalità di profitto. Diversi documenti incriminanti per Meta (all’epoca Facebook, compagnia proprietaria dell’omonima piattaforma, di Instagram e di Whatsapp) erano già emersi nel 2021, quando erano stati trapelati da una informante e pubblicati dal Wall Street Journal; altri documenti sono emersi come parte di questi nuovi processi.
La strategia adottata dall’accusa è simile a quella adottata contro l’industria del tabacco negli anni novanta, ovvero che l’industria del tabacco non stesse facendo abbastanza, né per arginare gli effetti negativi dei propri prodotti, né per rendere consapevoli i consumatori dei rischi. Queste sentenze hanno nel tempo portato alle attuali normative sulla vendita di prodotti contenenti nicotina. Allo stesso tempo, anche la strategia della difesa è simile alla difesa dell’industria del tabacco a suo tempo: negare, negare e negare. Anche quando si tratta di mentire sotto giuramento, di nascondere o modificare documenti, o di ostruire la giustizia.
È stato dimostrato in tribunale (sempre negli Stati Uniti) che gli avvocati di Meta abbiano dato istruzioni allo staff su come nascondere, bloccare o rimuovere le parti compromettenti delle ricerche interne. Si tratta di ricerche che la stessa Meta ha commissionato per valutare l’impatto sulla salute mentale (in particolare degli adolescenti) dei propri prodotti. Così come l’industria del tabacco ha a lungo fatto il possibile per nascondere una verità che il codice legale non permetteva di nascondere, ugualmente l’industria del digitale sta ostruendo la giustizia a più riprese, preferendo pagare multe e offuscare il proprio operato, piuttosto che cambiare il proprio modello di business.
Ci auguriamo, quindi, che questi processi portino a risultati concreti, e che riescano perlomeno ad obbligare le grandi multinazionali dei social ad essere trasparenti sul loro operato. Informazioni che riguardano la salute mentale di miliardi di persone non possono essere un segreto industriale, tenuto sotto chiave come un qualsiasi altro brevetto. Al tempo stesso, ci sono alcune ulteriori considerazioni da fare: il paragone con l’industria del tabacco (ed i suoi prodotti) regge fino ad un certo punto.
“I social creano dipendenza?” è la domanda giusta?
Non è realistico aspettarsi che un processo, o la ricerca scientifica, possano rispondere in maniera esaustiva alla domanda “i social/smartphone/internet/videogiochi/… creano dipendenza?”, perché non è la stessa cosa che chiedersi “Il fumo fa male?”. Se rimaniamo sull’esempio del tabacco: le sigarette sono prevalentemente un dispositivo per consumare nicotina. Non hanno altri usi. Hanno certamente un ruolo sociale e commerciale: ma se lo paragoniamo a quello delle piattaforme digitali (social, ma anche di streaming, shopping, videogiochi), è un ruolo limitato. Allo stesso modo non è paragonabile la complessità dell’uso della sigaretta rispetto all’uso delle piattaforme, e alla diversità di utilizzi che propongono per ogni utente, in particolare quando i social sono diventati, per molte persone, una parte essenziale del proprio lavoro. Se quindi è abbastanza pacifico dire “il fumo uccide”, tanto che oggi sono gli stessi pacchetti di sigarette a riportare obbligatoriamente quella scritta, al contrario simili affermazioni sono molto più problematiche se fatte rispetto al mondo digitale. Generalizzando ed estremizzando (se affermassimo che “i social creano dipendenza”), corriamo il rischio di giocare a favore dell’industria del digitale, che può facilmente contestare simili affermazioni.
È fondamentale spacchettare il problema, cercare di capire quali aspetti del digitale siano maggiormente problematici, e partire da quelli. L’esagerazione è sempre dietro l’angolo: in Italia, il libro “La generazione ansiosa” di Jonathan Haidt (anche autore dell’ottimo blog After Babel), uno dei più letti sul tema digitale e salute mentale, è stato tradotto con il sottotitolo (in copertina) “Come i social hanno rovinato i nostri figli“. C’è un problema non indifferente: da nessuna parte nel libro Haidt fa un’affermazione del genere! Il sottotitolo originale, in inglese, è ben diverso, il che fa pensare ad una scelta dell’editore, ma questo non è chiaro. Comunque sia andata, è un approccio problematico, perché decontestualizza il problema quando in realtà il contesto è fondamentale, se si parla di dipendenze; e non è utile a nessuno, se non a chi vuole vendere qualcosa. Il problema non sono i social, ma avere accettato che delle entità private abbiano monopolizzato gli spazi digitali online per trasformali, da beni comuni a miniere a cielo aperto, dove la risorsa da estrarre è la nostra presenza mentale.
Responsabilità ed etica degli spazi digitali
Un buon punto di partenza per correggere il tiro, è allora chiedersi quali siano gli aspetti problematici dei social, e in che misura dipendono da chi li gestisce. Non è una domanda facile, ma sarebbe un modo utile per arrivare a richieste puntuali e specifiche che permettano di rendere i social luoghi di confronto sani, piuttosto che delle gigantesche slot machine fatte per massimizzare l’engagement di chi partecipa. Abbiamo visto che internet (prima ancora dei social), per le sue caratteristiche intrinseche, può creare dipendenza: chi crea software ha quindi il dovere etico di contrastare questa tendenza, non di assecondarla.
Come scrivono Bhargava e Velazquez nella loro ricerca (“Ethics of the attention economy”), l’uso di metodologie che mirano a rendere gli utenti dipendenti da uno specifico prodotto o servizio non hanno nessuna possibile giustificazione, si tratta solamente di una violazione dei diritti umani che degrada le persone a risorse da sfruttare, in particolare quando il software viene studiato per compromettere l’autonomia cognitiva e la capacità di decidere delle persone. Quando si discute questo tema, ovvero la legittimità dei social allo stato attuale, un’obiezione frequente è: “tutto sommato è bene avere i social, perché i benefici apportati dai social sorpassano i lati negativi”. Bhargava e Velazquez sostengono che questa obiezione da un lato evidenzia una verità innegabile (i social hanno molti lati positivi), ma dall’altro ne nasconde un’altra, altrettanto importante: qualsiasi social (o altro tipo di software o sito web) può essere realizzato senza fare uso di tecniche che mirano a creare dipendenza negli utenti; senza cercare di massimizzare l’engagement, a discapito della dignità umana; senza confondere, ingannare e costringere l’utente a fare ciò che normalmente non farebbe, sfruttando le vulnerabilità psicologiche.
I benefici dei social, come: la possibilità di tenersi in contatto con la famiglia, di rinforzare un senso di comunità, di comunicare durante situazioni di crisi, di informarsi, e così via; tutte queste possibilità possono essere realizzate senza l’utilizzo di meccanismi che non sono rispettosi della dignità umana: “La Social Media Addiction non è una componente necessaria per avere i benefici dei social.” (Bhargava e Velazquez). In altre parole: possiamo avere i social, i social non sono il problema. Il problema è avere lasciato spazi fondamentali e comunitari nelle mani di persone senza scrupoli, davanti alla promessa di un servizio “gratuito”.
Chiaramente per invertire la rotta è necessario capire meglio quali meccanismi, quali interfacce, quali algoritmi possono essere considerati etici ed accettabili, e quali no. È un lavoro enorme (ma c’è chi ci lavora da tempo, vedi per esempio il lavoro sulle dark patterns) e per nulla semplice, fatto anche di errori, ripensamenti e contrattazioni: inevitabilmente, il limite non può che essere arbitrario, guidato tanto dalla ricerca scientifica, quanto dalla presa di consapevolezza comune che la nostra salute mentale collettiva ha un valore inestimabile.
Un primo passo è esigere trasparenza e responsabilità. Chi progetta software ha oggi una responsabilità paragonabile a quella di altre categorie professionali che sono incaricate di costruire gli spazi che attraversiamo quotidianamente: esistono regolamentazioni precise per gli edifici e le case, le città, le strade, i trasporti, gli spazi pubblici; ed esistono per proteggerci. Gli spazi e le infrastrutture digitali hanno un impatto cruciale sulla percezione della realtà, tanto quanto piazze, biblioteche, scuole. Eppure continuiamo a trattarli come se non fossero reali, ad accettare che le regole che governano la vita digitale di miliardi di persone vengano stabilite e sulla base di interessi privati e opachi. Applicare un codice etico a chi progetta e gestisce questi spazi è di estrema urgenza affinché la tecnologia sia al servizio delle persone, e non viceversa.
La buona notizia è che, in parte, questo sta già succedendo: in Europa il Regolamento sui servizi digitali o Digital Services Act (DSA) prevede una serie di misure per inquadrare, monitorare e regolamentare le grandi piattaforme del web (dai motori di ricerca, ai social, allo shopping) ed assicurarsi che ciò che è illegale offline, sia illegale anche online. Il DSA include anche previsioni per le dark patterns. Nel 2024, una grande azienda come ByteDance, proprietaria di TikTok, ha dovuto fare marcia indietro su una funzione specifica (introdotta in Francia e in Spagna, poi rimossa), proprio perché la Commissione Europea aveva giudicato che incoraggiasse l’engagement in maniera eccessiva, elargendo ricompense monetarie agli utenti sotto forma di voucher e gift cards.
Tuttavia, senza una maggiore presa di posizione, regolamentazioni importanti come il DSA rischiano di rimanere applicate in maniera parziale. In questi giorni i grandi divieti dei social ai minori (no ai social sotto ai 16 anni in Austrialia; 15 anni in Francia, legge che attende l’approvazione al Senato), stanno facendo tanto rumore. Ci auguriamo che si riesca a comprendere che questi divieti (giusti o sbagliati che siano) spostano, ma non eliminano il problema. È giusto tutelare le persone più giovani e vulnerabili, ma al tempo stesso questi divieti non servono a correggere le pratiche scorrette dell’industria digitale: siamo tutti vulnerabili, in un modo o nell’altro.
Serve un cambiamento di mentalità anche nel mondo adulto. Per il fumo questa cosa è accaduta: un tempo accettato e diffuso ovunque, è ora riconosciuto come una delle più gravi epidemie di salute a livello globale. La dipendenza programmata nel digitale richiede un simile cambiamento: solo una presa di coscienza ed un rifiuto collettivo degli usi impropri della tecnologia digitale possono farci arrivare dove necessario.