Autore: cuco

  • Dipendenza ed etica: regolamentare gli spazi digitali

    Continua da: Dipendenza e Digitale (parte 1); Dipendenza Programmata (parte 2)

    Social a processo

    Sorge quindi la domanda: data la complessità della questione, delle variabili in campo, e anche la profonda intersezione tra un uso legittimo del digitale ed il suo dare luogo a comportamenti problematici, come è possibile stabilire un confine tra cosa è legittimo e cosa no? Nella creazione di tecnologie che afferiscono al digitale (che siano dispositivi, software, o anche infrastrutture), cosa è giusto fare e cosa evitare?

    Non c’è, al momento, una risposta definitiva, nè un metodo preciso per prendere queste decisioni, ma è chiaro che vanno prese. Un ovetto di cioccolata con la sorpresa dentro è attraente per tanti motivi che non sono dissimili dalle motivazioni che rendono il gioco d’azzardo attraente, eppure l’azzardo è strettamente regolamentato (in Italia), le merendine con le sorprese no, e ci sono dei buoni motivi perché sia così. Non c’è giusto e sbagliato, ma una consapevolezza sociale di cosa è dannoso che si evolve nel tempo, e che deve riuscire a stare al passo con l’innovazione tecnologica.

    Proprio in questi giorni, ad inizio 2026, stanno avendo luogo dei processi giudiziari in corso a Los Angeles (vedi Il Post e il New York Times) che mirano a stabilire se i social media creino dipendenza, e se siano pericolosi per bambini e adolescenti. L’onere dell’accusa è di dimostrare non solo la concretezza dei danni, ma anche che questi danni siano stati causati consapevolmente, con finalità di profitto. Diversi documenti incriminanti per Meta (all’epoca Facebook, compagnia proprietaria dell’omonima piattaforma, di Instagram e di Whatsapp) erano già emersi nel 2021, quando erano stati trapelati da una informante e pubblicati dal Wall Street Journal; altri documenti sono emersi come parte di questi nuovi processi.

    La strategia adottata dall’accusa è simile a quella adottata contro l’industria del tabacco negli anni novanta, ovvero che l’industria del tabacco non stesse facendo abbastanza, né per arginare gli effetti negativi dei propri prodotti, né per rendere consapevoli i consumatori dei rischi. Queste sentenze hanno nel tempo portato alle attuali normative sulla vendita di prodotti contenenti nicotina. Allo stesso tempo, anche la strategia della difesa è simile alla difesa dell’industria del tabacco a suo tempo: negare, negare e negare. Anche quando si tratta di mentire sotto giuramento, di nascondere o modificare documenti, o di ostruire la giustizia.

    È stato dimostrato in tribunale (sempre negli Stati Uniti) che gli avvocati di Meta abbiano dato istruzioni allo staff su come nascondere, bloccare o rimuovere le parti compromettenti delle ricerche interne. Si tratta di ricerche che la stessa Meta ha commissionato per valutare l’impatto sulla salute mentale (in particolare degli adolescenti) dei propri prodotti. Così come l’industria del tabacco ha a lungo fatto il possibile per nascondere una verità che il codice legale non permetteva di nascondere, ugualmente l’industria del digitale sta ostruendo la giustizia a più riprese, preferendo pagare multe e offuscare il proprio operato, piuttosto che cambiare il proprio modello di business.

    Ci auguriamo, quindi, che questi processi portino a risultati concreti, e che riescano perlomeno ad obbligare le grandi multinazionali dei social ad essere trasparenti sul loro operato. Informazioni che riguardano la salute mentale di miliardi di persone non possono essere un segreto industriale, tenuto sotto chiave come un qualsiasi altro brevetto. Al tempo stesso, ci sono alcune ulteriori considerazioni da fare: il paragone con l’industria del tabacco (ed i suoi prodotti) regge fino ad un certo punto.

    “I social creano dipendenza?” è la domanda giusta?

    Non è realistico aspettarsi che un processo, o la ricerca scientifica, possano rispondere in maniera esaustiva alla domanda “i social/smartphone/internet/videogiochi/… creano dipendenza?”, perché non è la stessa cosa che chiedersi “Il fumo fa male?”. Se rimaniamo sull’esempio del tabacco: le sigarette sono prevalentemente un dispositivo per consumare nicotina. Non hanno altri usi. Hanno certamente un ruolo sociale e commerciale: ma se lo paragoniamo a quello delle piattaforme digitali (social, ma anche di streaming, shopping, videogiochi), è un ruolo limitato. Allo stesso modo non è paragonabile la complessità dell’uso della sigaretta rispetto all’uso delle piattaforme, e alla diversità di utilizzi che propongono per ogni utente, in particolare quando i social sono diventati, per molte persone, una parte essenziale del proprio lavoro. Se quindi è abbastanza pacifico dire “il fumo uccide”, tanto che oggi sono gli stessi pacchetti di sigarette a riportare obbligatoriamente quella scritta, al contrario simili affermazioni sono molto più problematiche se fatte rispetto al mondo digitale. Generalizzando ed estremizzando (se affermassimo che “i social creano dipendenza”), corriamo il rischio di giocare a favore dell’industria del digitale, che può facilmente contestare simili affermazioni.

    È fondamentale spacchettare il problema, cercare di capire quali aspetti del digitale siano maggiormente problematici, e partire da quelli. L’esagerazione è sempre dietro l’angolo: in Italia, il libro “La generazione ansiosa” di Jonathan Haidt (anche autore dell’ottimo blog After Babel), uno dei più letti sul tema digitale e salute mentale, è stato tradotto con il sottotitolo (in copertina) “Come i social hanno rovinato i nostri figli“. C’è un problema non indifferente: da nessuna parte nel libro Haidt fa un’affermazione del genere! Il sottotitolo originale, in inglese, è ben diverso, il che fa pensare ad una scelta dell’editore, ma questo non è chiaro. Comunque sia andata, è un approccio problematico, perché decontestualizza il problema quando in realtà il contesto è fondamentale, se si parla di dipendenze; e non è utile a nessuno, se non a chi vuole vendere qualcosa. Il problema non sono i social, ma avere accettato che delle entità private abbiano monopolizzato gli spazi digitali online per trasformali, da beni comuni a miniere a cielo aperto, dove la risorsa da estrarre è la nostra presenza mentale.

    Responsabilità ed etica degli spazi digitali

    Un buon punto di partenza per correggere il tiro, è allora chiedersi quali siano gli aspetti problematici dei social, e in che misura dipendono da chi li gestisce. Non è una domanda facile, ma sarebbe un modo utile per arrivare a richieste puntuali e specifiche che permettano di rendere i social luoghi di confronto sani, piuttosto che delle gigantesche slot machine fatte per massimizzare l’engagement di chi partecipa. Abbiamo visto che internet (prima ancora dei social), per le sue caratteristiche intrinseche, può creare dipendenza: chi crea software ha quindi il dovere etico di contrastare questa tendenza, non di assecondarla.

    Come scrivono Bhargava e Velazquez nella loro ricerca (“Ethics of the attention economy”), l’uso di metodologie che mirano a rendere gli utenti dipendenti da uno specifico prodotto o servizio non hanno nessuna possibile giustificazione, si tratta solamente di una violazione dei diritti umani che degrada le persone a risorse da sfruttare, in particolare quando il software viene studiato per compromettere l’autonomia cognitiva e la capacità di decidere delle persone. Quando si discute questo tema, ovvero la legittimità dei social allo stato attuale, un’obiezione frequente è: “tutto sommato è bene avere i social, perché i benefici apportati dai social sorpassano i lati negativi”. Bhargava e Velazquez sostengono che questa obiezione da un lato evidenzia una verità innegabile (i social hanno molti lati positivi), ma dall’altro ne nasconde un’altra, altrettanto importante: qualsiasi social (o altro tipo di software o sito web) può essere realizzato senza fare uso di tecniche che mirano a creare dipendenza negli utenti; senza cercare di massimizzare l’engagement, a discapito della dignità umana; senza confondere, ingannare e costringere l’utente a fare ciò che normalmente non farebbe, sfruttando le vulnerabilità psicologiche.

    I benefici dei social, come: la possibilità di tenersi in contatto con la famiglia, di rinforzare un senso di comunità, di comunicare durante situazioni di crisi, di informarsi, e così via; tutte queste possibilità possono essere realizzate senza l’utilizzo di meccanismi che non sono rispettosi della dignità umana: “La Social Media Addiction non è una componente necessaria per avere i benefici dei social.” (Bhargava e Velazquez). In altre parole: possiamo avere i social, i social non sono il problema. Il problema è avere lasciato spazi fondamentali e comunitari nelle mani di persone senza scrupoli, davanti alla promessa di un servizio “gratuito”.

    Chiaramente per invertire la rotta è necessario capire meglio quali meccanismi, quali interfacce, quali algoritmi possono essere considerati etici ed accettabili, e quali no. È un lavoro enorme (ma c’è chi ci lavora da tempo, vedi per esempio il lavoro sulle dark patterns) e per nulla semplice, fatto anche di errori, ripensamenti e contrattazioni: inevitabilmente, il limite non può che essere arbitrario, guidato tanto dalla ricerca scientifica, quanto dalla presa di consapevolezza comune che la nostra salute mentale collettiva ha un valore inestimabile.

    Un primo passo è esigere trasparenza e responsabilità. Chi progetta software ha oggi una responsabilità paragonabile a quella di altre categorie professionali che sono incaricate di costruire gli spazi che attraversiamo quotidianamente: esistono regolamentazioni precise per gli edifici e le case, le città, le strade, i trasporti, gli spazi pubblici; ed esistono per proteggerci. Gli spazi e le infrastrutture digitali hanno un impatto cruciale sulla percezione della realtà, tanto quanto piazze, biblioteche, scuole. Eppure continuiamo a trattarli come se non fossero reali, ad accettare che le regole che governano la vita digitale di miliardi di persone vengano stabilite e sulla base di interessi privati e opachi. Applicare un codice etico a chi progetta e gestisce questi spazi è di estrema urgenza affinché la tecnologia sia al servizio delle persone, e non viceversa.

    La buona notizia è che, in parte, questo sta già succedendo: in Europa il Regolamento sui servizi digitali o Digital Services Act (DSA) prevede una serie di misure per inquadrare, monitorare e regolamentare le grandi piattaforme del web (dai motori di ricerca, ai social, allo shopping) ed assicurarsi che ciò che è illegale offline, sia illegale anche online. Il DSA include anche previsioni per le dark patterns. Nel 2024, una grande azienda come ByteDance, proprietaria di TikTok, ha dovuto fare marcia indietro su una funzione specifica (introdotta in Francia e in Spagna, poi rimossa), proprio perché la Commissione Europea aveva giudicato che incoraggiasse l’engagement in maniera eccessiva, elargendo ricompense monetarie agli utenti sotto forma di voucher e gift cards.

    Tuttavia, senza una maggiore presa di posizione, regolamentazioni importanti come il DSA rischiano di rimanere applicate in maniera parziale. In questi giorni i grandi divieti dei social ai minori (no ai social sotto ai 16 anni in Austrialia; 15 anni in Francia, legge che attende l’approvazione al Senato), stanno facendo tanto rumore. Ci auguriamo che si riesca a comprendere che questi divieti (giusti o sbagliati che siano) spostano, ma non eliminano il problema. È giusto tutelare le persone più giovani e vulnerabili, ma al tempo stesso questi divieti non servono a correggere le pratiche scorrette dell’industria digitale: siamo tutti vulnerabili, in un modo o nell’altro.

    Serve un cambiamento di mentalità anche nel mondo adulto. Per il fumo questa cosa è accaduta: un tempo accettato e diffuso ovunque, è ora riconosciuto come una delle più gravi epidemie di salute a livello globale. La dipendenza programmata nel digitale richiede un simile cambiamento: solo una presa di coscienza ed un rifiuto collettivo degli usi impropri della tecnologia digitale possono farci arrivare dove necessario.

  • Dipendenza programmata e design del software

    Continua da: Dipendenza e digitale: qualche definizione

    “Sembra che siamo riusciti ad attivare una psicosi di massa grazie alla quale 17 milioni di persone si sentono in dovere di tenere attive le loro streaks [il modo in cui Snapchat premia gli utenti più attivi, ndr]. Sono felice che stiamo per rendere le streaks ancora più divertenti.”
    Dipendente anonimo di Snapchat

    ““IG [Instagram] è una droga”
    “LOL, se è per quello, tutti i social media lo sono. Praticamente siamo degli spacciatori”
    Conversazione tra impiegati di Meta

    Fonte: Politico

    La massimizzazzione dell’engagement

    In aggiunta ai meccanismi più generici descritti da Greenfield, esiste una serie di tattiche e scelte di design che l’industria digitale utilizza regolarmente per aumentare l’engagement. Per engagement si intende la quantità di tempo che una persona passa su di una determinata piattaforma, dispositivo o servizio, ma anche quanto interagisce, ed in che modo.

    Parliamo di alcune delle scelte più comuni per aumentare l’engagement:

    • Infinite scroll: presente in tanti siti e app, l’interfaccia ci permette di visualizzare (scrollando) una sequenza infinita di contenuti. Anche se di quei contenuti ce ne interessa una minima parte, questo meccanismo funziona, perché il rilascio della dopamina (la sensazione di piacere) avviene non solo in base alla ricompensa (il contenuto che ci interessa), ma anche in base all’attesa della ricompensa.
    • Notifiche e ricompense variabili: app e piattaforme social sono studiate per farci arrivare più notifiche possibile, anche per motivi non richiesti dall’utente. Siccome le notifiche si presentano spesso sotto forma di icona, numero o simile, e non è possibile capire se si tratta di un messaggio importante o meno, il design delle notifiche può essere sfruttato per fare leva sul meccanismo delle ricompense variabili (che come già visto prima, sono un elemento della dipendenza)
    • Impostazioni predefinite: le impostazioni predefinite di ogni applicazione sono pre-impostate non tanto per favorire l’utente, ma per favorire quello che chi possiede il software vuole far fare all’utente. Un esempio molto comune è che tutte le notifiche siano attivate automaticamente appena ci si iscrive, invece di fare scegliere all’utente quali notifiche vuole ricevere. In alcuni casi, viene reso complicato di proposito cambiare queste impostazioni, in modo da disincentivare gli utenti dal cambiarle.
    • Gamification (in particolare della socialità): applicabile a numerosi ambiti, un esempio sono gli streak di Snapchat. Quando due utenti interagiscono, di fianco alla chat appare l’emoji 🔥 ed un contatore numerico. Per ogni giorno che entrambe le persone interagiscono, il contatore aumenta. Se una delle due persone non interagisce per 24h, il sistema prima la avverte, poi rimuove il contatore e l’emoji, e si riparte da zero: come se non interagire ogni giorno, senza sosta, sia un qualcosa da punire. In questo modo il social crea pressione sociale affinché tutti gli utenti interagiscano frequentemente, anche quando non ne avrebbero voglia, a costo di mantenere le streaks.
    • Dark patterns: è una categoria a sé stante ma molto ampia (un catalogo ragionato esiste qui) che indica tutte quelle pratiche che rendono difficile fare qualcosa all’interno di un software. Un esempio è che il pulsante per disiscriversi da qualcosa sia nascosto, o che il processo di cancellazione definitiva (ad es. da un social) sia particolarmente complesso e laborioso, o che l’utente venga bombardato di messaggi studiati per fargli cambiare idea (es. “se ci cancelli non potrai più parlare con i tuoi amici!”). Si tratta di una serie di tattiche scorrette e ingannevoli, che lo diventano ancora di più se rivolte ad utenti che hanno problemi di dipendenza e stanno cercando di cambiare le proprie abitudini.
    • Uso degli algoritmi per creare insoddisfazione e per consigliare contenuti inappropriati a utenti particolarmente sensibili. Gli algoritmi regolano quali contenuti vengono presentati agli utenti, e possono essere tarati per massimizzare l’engagement piuttosto che la sicurezza ed il benessere. Al contrario, più le persone sono insoddisfatte, più useranno la piattaforma: una persona sicura di sé non passerà ore a cercare una conferma online, mentre una persona insicura scivolerà sempre più velocemente verso contenuti che confermano le proprie insicurezze, soprattutto se c’è un algoritmo che la porta in quella direzione. E’ il caso di quasi tutte le piattaforme social, ed in particolare di TikTok, piattaforma che è stata più volte indicata come particolarmente aggressiva nella scelta di contenuti che propone, in particolare su temi sensibili come depressione, autolesionismo e suicidio.
    • Design delle interfacce iperstimolante e caotico: le interfacce delle piattaforme sono particolarmente ricche di contenuti e stimoli; facilitano una fruizione immediata e compulsiva. Questo tipo di design non aiuta gli utenti a trovare quello che cercano, ma a farli stare in un mondo di infinite scelte, dove sia facile perdere la cognizione del tempo; si tratta di un tipo di design degli spazi analogo a quello dei Casinò negli Stati Uniti, la cui architettura caotica serve trattenere i clienti e fargli spendere più soldi possibile (vedi Natasha D. Schüll, “Addiction by Design”). Le medesime tecniche adoperate per lo sviluppo del gioco d’azzardo (slot machine in particolare) si trovano spesso nel design del software.
    • Esasperazione della vetrinizzazione nella socialità online: sui social, il giudizio e il confronto con i profili delle altre persone possono assumere un valore spropositato. Questo dipende tanto da come è la società in cui viviamo, tanto quanto da come è strutturato lo spazio digitale di un social. Se i social promuovono, continuamente, i contenuti che creano più engagement (principalmente tramite soluzioni algoritmiche e di machine learning), questo non può che amplificare una tendenza che ha un suo precedente storico nella celebrity culture. Inoltre, molti social tendono a enfatizzare la comunicazione tramite immagini e video a discapito di altre forme di comunicazione.

    Questo non è un elenco esaustivo, ma serve a spiegare meglio come ci sia una serie di dinamiche, che possono contribuire a fare insorgere comportamenti problematici, tra cui la dipendenza. Visto che spesso si sentono dire frasi del tipo “è tutta colpa dei telefoni” (o di altro), è importante è sottolineare come si tratti di metodologie miste, che legano inestricabilmente la realtà fisica e quella digitale: hanno a che fare con i dispositivi fisici, con le interfacce, con gli algoritmi, con la psicologia e le vulnerabilità psicologiche, con la pressione sociale, con il contesto di internet e con il contesto della persona che ne fa uso.

    Per questo si parla di “Dipendenza programmata”, cioè la tendenza a sfruttare, intenzionalmente, le vulnerabilità psicologiche al fine di raggiungere un livello di engagement, di coinvolgimento, estremamente alto. Dipendenza programmata non significa che un software rende dipendente chi lo usa, a colpo sicuro, anche perché come abbiamo visto parlando di definizioni: una dipendenza non è un interruttore acceso o spento, ma esiste su uno spettro.

    Possiamo quindi dire che la dipendenza programmata è una tendenza strutturale, principalmente usata dall’industria digitale ma con una lunga storia alle spalle, ad usare metodologie e tecnologie della persuasione. Lo scopo è di portare le persone a mettere sempre più tempo ed energie in attività che accrescono il profitto aziendale; il tutto senza curarsi dell’impatto che questo ha sulla società e sulla salute mentale collettiva, e ben al di là dell’utilità sociale del prodotto stesso.

    Se questo può sembrare assurdo e un’accusa infondata, la realtà è che l’engagement paga bene, perché consente di costruire piattaforme più attraenti, partecipate e quindi remunerative; le compagnie che non inseguono questo modello rischiano di essere sorpassate e i loro prodotti rimpiazzati da nuovi, più attraenti. Il risultato è che se da un lato l’industria del digitale si presenta come attenta ai diritti dei consumatori, a più riprese è emerso tutto il contrario: al di là di un argomento sulla morale, è chiaro che il design di molti prodotti (in particolare quelli legati al gioco d’azzardo online) non è studiato nell’interesse dell’utente, ma per trasformare l’utente in risorsa. Oltre ciò che è visibile, i documenti interni di aziende come Meta, o i processi giudiziari contro i giganti dei social hanno a più riprese dimostrato che, oltre la facciata, c’è del marcio, parecchio marcio; e anche se è vero che tanti problemi dei social non derivano direttamente da scelte di design intenzionale, ma esistono a prescindere (come nel caso dell’adescamento dei minori e la pedopornografia), intenzionale è il livello di disimpegno nel combatterli e nel fare sì che gli spazi digitali siano spazi sicuri. In molti casi, peraltro, non si può nemmeno parlare di disimpegno, ma di ostruzione della giustizia.

    Di ostruzione della giustizia parleremo meglio in “Dipendenza ed etica“, per dare uno sguardo ai processi che sono ora in corso, e per parlare di etica rispetto agli spazi digitali.

  • Dipendenza e digitale: qualche definizione

    Questo è un approfondimento per esplorare la dimensione della dipendenza nel contesto delle tecnologie digitali. In questa parte trovate una definizione di dipendenza, nella seconda un approfondimento sui meccanismi della dipendenza programmata (la creazione intenzionale di dipendenza), mentre nella terza si parla di considerazioni etiche e dei recenti processi giudiziari in materia di social e dipendenza.

    Un termine che si usa spesso, rispetto al digitale, è dipendenza. Lo si usa in maniera colloquiale, talvolta scherzosa (“non potrei vivere senza il telefono, sono dipendente!”), per definire un rapporto con la tecnologia che viviamo in maniera ambivalente, tra il piacere ed il disagio. Questo uso colloquiale del termine non corrisponde alla definizione clinica di dipendenza, ma al tempo stesso non è nemmeno così fuori strada: indica un malessere di fondo che è importante indagare.

    Vale la pena chiedersi: la tecnologia digitale può causare dipendenza? Cosa si intende per dipendenza, e cosa, nello specifico, crea dipendenza? Sono gli smartphone a farlo, oppure internet, oppure gli algoritmi, o…? Quanto è responsabile chi produce dispositivi e software?

    In questo approfondimento cerchiamo di rispondere a queste domande, facendo riferimento alla letteratura scientifica in merito, anche se vale la pena anticipare una risposta: sì, è possibile che la tecnologia digitale crei dipendenza, anche se il modo esatto in cui questo avviene è complesso e oggetto di discussione. Quindi, prima ancora di chiedersi se internet/i social/i videogiochi/… creano dipendenza, è importante dare qualche definizione.

    Definizione di dipendenza

    Una prima distinzione è quella tra dipendenze da sostanze (come alcol, eroina, nicotina, …) e dipendenze comportamentali. In passato solo le dipendenze da sostanze venivano riconosciute; nel tempo, la situazione è cambiata, e nel 2020 il Consiglio Superiore di Sanità (CSS) ha ampliato la definizione di dipendenza per includere le alterazioni del comportamento. La definizione attuale di dipendenza data dal CSS è: “condizione psichica, talvolta anche fisica, derivante dall’interazione tra un organismo, una sostanza e/o uno specifico comportamento, caratterizzata da risposte psicofisiche che comprendono un bisogno compulsivo di assumere la sostanza e/o di mettere in atto un determinato comportamento disfunzionale in modo continuativo o periodico, allo scopo di provare i suoi effetti psichici e di evitare il malessere della sua privazione”. (CSS-Sez. I, 2022. Vedi qui per fonte e approfondimento su questo cambiamento).

    Un’altra definizione, meno tecnica, che ci può aiutare a comprendere la dipendenza è quella che ci dà Gabor Maté, medico che ha lavorato a lungo con pazienti dipendenti, e che sottolinea l’importanza del contesto: non esistono “sintomi” standard, non c’è un limite quantificabile oltre il quale si è dipendenti. Piuttosto, un indice fondamentale della dipendenza è quando una persona continua ad comportarsi in un dato modo, nonostante sia chiaro che quel comportamento sta causando un danno importante a sé stesso, ad altri, o entrambi. In altre parole, la dipendenza può esprimersi in modi e abitudini estremamente diverse, ed essere difficile da riconoscere.

    «Dipendenza è qualsiasi comportamento ripetuto, correlato alle sostanze o meno, in cui una persona si sente spinta a persistere, indipendentemente dall’impatto negativo sulla sua vita e su quella degli altri. E comporta:

    1.Coinvolgimento compulsivo con il comportamento e l’ossessione;
    2.Controllo alterato del comportamento;
    3.Persistenza o ricaduta, nonostante l’evidenza del danno;
    4.Insoddisfazione, irritabilità o desiderio intenso quando l’oggetto – sia esso una droga, un’attività o un altro obiettivo – non sia immediatamente disponibile.» (da Gabor Maté, “Nel regno degli spiriti famelici”, Ubiliber 2023)

    Ne consegue che la difficoltà nel decidere che “qualcosa crea dipendenza” o meno, è enorme, perché la stessa definizione di dipendenza è molto ampia, contestuale, e spesso misurata secondo standard diversi. Al contrario di un test che misura la presenza di un virus (con una data precisione), non esiste un test standardizzato per la dipendenza, ma questa viene diagnosticata e curata in maniera diversa a seconda del paese e dell’istituzione, ed ogni dipendenza (che sia da nicotina, da gioco d’azzardo, …) ha delle caratteristiche a sé stanti. A questo si aggiunge il problema che in alcuni casi la dipendenza viene classificata in maniera binaria (cioè: o si è dipendenti o non lo si è), mentre in altri casi secondo una scala (ad es. grave/media/bassa/assente), come ad esempio in questi due studi (USA e Italia) sulla prevalenza della dipendenza da nicotina. Nel tempo sono stati sviluppati test e strumenti diagnostici standardizzati per aiutare a rendere le diagnosi e i trattamenti più uniformi, ma questo processo richiede investimenti, collaborazione, e soprattutto, anni di pratica ed esperienza sul campo. Se questo è difficile nel mondo delle sostanze, lo è ancora di più in ambito digitale, per diversi motivi:

    • L’adozione tecnologica di internet e smartphone è avvenuta in maniera estremamente rapida e pervasiva.
    • La tecnologia digitale (sia hardware che software) cambia costantemente.
    • In molti casi, non si diventa dipendenti da una specifica tecnologia, piuttosto è la tecnologia a veicolare una o più dipendenze; al tempo stesso (come vedremo meglio sotto), non è possibile separare il mezzo dal contenuto (es. internet dal gioco d’azzardo)
    • L’esperienza degli spazi e delle attività digitali è molto più varia e differenziata a seconda delle persone (di quanto non sia con le sostanze), ad esempio: nei social mainstream, ad ogni utente vengono suggeriti contenuti personalizzati. Di conseguenza, alcune esperienze potrebbero essere problematiche, altre no, anche se il social è lo stesso.

    Dipendenza digitale

    La “dipendenza digitale”, di per sé, non esiste: ma il termine può essere usato come termine cappello per una serie di dipendenze, collegate tra loro, come la dipendenza da shopping, dalla pornografia, dal gioco d’azzardo, che vengono mediate da uno strumento digitale. In alcuni casi non è lo strumento digitale (che sia uno smartphone, pc, l’accesso a internet, …) a creare la dipendenza, ma la veicola. Ad esempio, è possibile essere dipendenti da shopping senza avere accesso ad internet. Internet può però facilitare la dipendenza: se prima la persona doveva uscire di casa e spostarsi per potere fare i propri acquisti, ora può farlo di nascosto, in maniera più efficiente e rapida, senza farsi vedere e quindi senza dovere giustificare il proprio comportamento, e ha accesso ad una moltitudine di prodotti inesauribili. Ugualmente, la food addiction (l’ossessione patologica per il cibo) non nasce necessariamente con i social: ma chiaramente chi ha problemi con il cibo si troverà in difficoltà se un algoritmo propone, costantemente, immagini e video di ricette, food bloggers, food challenges e così via.

    È quindi difficile stabilire dei confini precisi tra una dipendenza e l’altra, o anche solo definire l’oggetto preciso della dipendenza. David Greenfield (psichiatra e fondatore di una delle prime cliniche per la dipendenza tecnologica e da internet) parla di “dipendenza da internet”, nell’ottica che il mezzo e le sue particolari proprietà non siano separabili dal contenuto. Internet è particolarmente a rischio perché:

    • È facilmente accessibile.
    • Può darci accesso a contenuti stimolanti molto rapidamente.
    • È dinamico: ci sono sempre contenuti nuovi.
    • Provoca distacco: ci fa perdere traccia di quanto tempo passiamo davanti ad uno schermo.
    • È uno spazio di socialità, ed è quindi un tramite per una funzione fondamentale della vita, alla quale difficilmente possiamo rinunciare.
    • Concede (un senso di) anonimato: ci fa sentire anonimi; anche se molto spesso non lo siamo veramente.
    • Disinibisce: ci permette di esprimerci liberamente, oppure di assumere alter ego, di giocare con il nostro ruolo.
    • È una storia senza fine: l’informazione su internet è sovrabbondante e con limiti di accesso bassi se non assenti ai contenuti. Il nostro innato desiderio di completezza e di chiusura fa sì che ci addentriamo sempre di più su nuovi contenuti, prosciugando tempo e attenzione.
    • È una fonte particolarmente economica, se non gratuita (NdR. anche grazie alla pirateria) di infotainment (informazione-intrattenimento)
    • È istantaneo: più velocemente arriva la “ricompensa” di un dato comportamento (ad es. aprire una notifica per vedere cosa c’è scritto), più quel comportamento può creare dipendenza.
    • È interattivo: potere interagire e scegliere a nostro piacimento su internet ci dà la sensazione di avere il controllo (anche quando in realtà siamo noi ad essere controllati)
    • Fornisce ricompense a intervalli variabili, ovvero: non sappiamo quando arriverà la prossima scarica di dopamina, ma sappiamo che potenzialmente è sempre dietro l’angolo. Il fattore dell’imprevedibilità (la variabilità delle ricompense in risposta al nostro comportamento) è un fattore importante per l’insorgere della dipendenza, ed è stato studiato in molti contesti. (vedi anche Tim Wu, Attention Merchants, cap. 14)

    (Fonte: Human Capacity in the Attention Economy. American Psychological Association, 2021, p. 35-36, capitolo 2 di David Greenfield)

    A queste caratteristiche di internet si aggiungono gli smartphone (e altri dispositivi, es. quelli indossabili) che, attraverso stimoli fisici come notifiche, suoni, luci, vibrazione, sono particolarmente efficaci nel riportarci dal mondo fisico a quello digitale; in alcuni casi un dispositivo può avere un effetto su di noi anche quando non lo usiamo, ma semplicemente perché si trova a portata di mano. Nessuna di queste caratteristiche, di per sé, crea la dipendenza: prese nel complesso però, è evidente che ci troviamo di fronte ad espressioni tecnologiche che creano un richiamo estremamente forte, senza precedenti, e che la nostra cultura deve ancora digerire.

    Continua in “Dipendenza programmata“: cioè quando il design del software viene usato per creare dipendenze, di proposito

  • Estrattivismo, cura, beni comuni

    Mettere in chiaro i collegamenti

    Questo è un approfondimento per inquadrare la questione digitale come un tassello della più ampia crisi della cura. Seguiranno altri, più puntuali, sui temi sollevati.

    Estrattivismo: normalmente se ne parla in riferimento all’estrazione di risorse naturali, sia esauribili, come o i minerali (comuni o rari), ma in alcuni casi anche per quelle rinnovabili, come l’acqua, la legna e i prodotti agricoli. L’estrattivismo, detta molto in breve, è quel fenomeno per cui una grande quantità di risorse viene estratta da un luogo al fine di esportarla, senza riguardo per la sostenibilità ed il possibile esaurimento della risorsa. I danni dell’estrattivismo sono spesso interamente assorbiti da chi abita il luogo coinvolto: da un lato ci sono i danni ecosistemici (es. perdita di accesso ad acqua pulita), dall’altro si crea un differenziale di potere tra chi (a distanza) trae profitto dalla risorsa e chi vive il territorio e ci lavora, ma non ha diritti sulla risorsa stessa. Le conseguenze politiche sono tutt’altro che indifferenti.

    Perché allora parlare di estrattivismo in relazione al digitale? Un aspetto importante è sicuramente quello dei materiali necessari alla tecnologia digitale, le terre rare e i minerali, spesso legati a zone di conflitto o condizioni di sfruttamento virtualmente indistinguibili dalla schiavitù1.

    Ma non è l’unico effetto. L’estrattivismo fa sì che anche risorse che in passato erano considerate rinnovabili si esauriscano: a fronte di operazioni particolarmente aggressive, i corpi d’acqua possono prosciugarsi, le risorse ittiche estinguersi, le foreste possono perdere la capacità di rigenerarsi, il suolo può essere reso sterile quando l’estrazione oltrepassa la naturale capacità di rigenerazione della natura.

    L’estrattivismo non è solo una serie di processi meccanici, ma un modo di organizzare la società e l’economia2. In questa modalità è del tutto possibile che le pratiche estrattiviste, per estensione,vengano applicate non solo alle risorse naturali, ma a qualsiasi risorsa, inclusa la capacità cognitiva umana. Potrebbe non piacerci pensare all’attenzione come ad una risorsa: ma di fatto, il modello di business dell’industria digitale si basa proprio su questo, cioè sull’estrazione, su scala globale, dell’attenzione, manipolata e rivenduta sul mercato sotto forma di pubblicità, di dati, di profili psicologici.

    La tutela dell’attenzione è di importanza cruciale: citando l’Onlife Manifesto edito da Luciano Floridi (integrale in inglese qui, parte prima in italiano qui):

    “Noi riteniamo che le società debbano prendersi cura, proteggere e alimentare le capacità di attenzione proprie dell’essere umano. Con questo non diciamo che si debba rinunciare alla ricerca di miglioramenti, che sono e rimangono sempre utili, ma vogliamo insistere sul fatto che le capacità di attenzione sono una risorsa finita, rara e preziosa. Nell’economia digitale, l’attenzione è vista come una merce, una commodity, che si scambia sul mercato o che viene immessa nel processo produttivo: è una visione meramente strumentale dell’attenzione che ne trascura la dimensione sociale e politica, ossia il fatto che la capacità e il diritto di focalizzare la nostra attenzione sono una condizione necessaria e imprescindibile per l’autonomia, la responsabilità, la riflessività, la pluralità, l’impegno personale e per conservare alla persona un senso di significatività. Esattamente come non deve esservi commercio di organi umani, così è necessario tutelare le nostre capacità di attenzione. Rispettare l’attenzione significa tutelare un diritto fondamentale come la protezione della vita privata e dell’integrità fisica, perché la capacità di attenzione è parte costitutiva dell’io relazionale per il ruolo che svolge nello sviluppo del linguaggio, nell’empatia e nei rapporti di collaborazione.”

    Le modalità di estrazione dell’attenzione sono complesse e articolate: avvengono tramite i dispositivi digitali onnipresenti, un design del software che sfrutta le vulnerabilità psicologiche per catturare l’attenzione (notifiche, infinite scroll, gamification, design delle interfacce), la manipolazione degli spazi digitali e dei contenuti che vediamo tramite l’automazione algoritmica, la creazione artificiale di un senso di insoddisfazione e inadeguatezza che intrappola le persone a rimanere collegate. Questo per citare solo alcune delle modalità prevalenti nell’economia dell’attenzione: per approfondire, vedi “L’attenzione rubata” di J. Hari, “Dieci ragioni per cancellare subito i tuoi account social” di J. Lanier; in inglese, anche “The attention merchants” di Tim Wu, “The Sirens’ Call” di C. Hayes.

    È in questo senso che parliamo di estrattivismo digitale: una risorsa, l’attenzione, viene prelevata e manipolata tramite mezzi tecnologici, senza alcun riguardo per la funzione che essa svolge nell’ecosistema umano. L’attenzione è rinnovabile, perché ad ogni singolo istante possiamo decidere come impiegarla, su cosa concentrarci. Al tempo stesso è una risorsa in pericolo, perché collettivamente è satura, sfruttata oltre il limite entro cui può rigenerarsi, nel senso che viene assorbita con una costanza e penetrazione crescente. L’estrazione indiscriminata dell’attenzione crea una serie di effetti, la cui analisi merita più spazio e che non affronteremo qui. Ma per cercare di riassumere, possiamo osservare: l’uso delle tecnologie più avanzate come strumento per dirottare l’attenzione sul consumo, sul culto della visibilità e della spettacolarità; la creazione di un imperativo sociale che impone connessione e aggiornamento perenne, pena l’esclusione; dinamiche algoritmiche che, oltre ad essere totalmente al di fuori del controllo democratico, aumentano la polarizzazione e la diffusione di contenuti controversi; la destabilizzazione degli strumenti, degli spazi e delle abitudini che favoriscono la conversazione, la concentrazione, l’autonomia personale e collettiva. Sono tutti elementi che, presi assieme, rappresentano un pericolo, tanto per la libertà individuale quanto per la democrazia stessa.

    Questi effetti sono paragonabili a quelli dell’estrattivismo che conosciamo meglio: così come una miniera può inquinare falde acquifere e a catena distruggere un ecosistema, così l’estrazione dell’attenzione ha un effetto che non è individuale, ma sistemico. Quindi: così come lo sfruttamento del suolo crea terreni sterili dove nulla può crescere senza l’immissione di fertilizzanti artificiali, così l’abuso dell’attenzione, a partire dalla prima infanzia, rischia di creare deserti dell’attenzione. Così come una singola pianta non può sopravvivere se rimane isolata in un terreno arido e privo di una copertura verde che mantenga l’umidità del suolo necessaria, allo stesso modo anche gli spazi e le istituzioni più resilienti, i luoghi dove si pratica l’apprendimento ed il pensiero critico, anche questi soffrono se circondati da un deserto della ragione. Questo deserto è fatto di luoghi dove il ragionamento è possibile solo se mediato tecnologicamente, dove si può pensare solo attraverso l’immissione di intelligenza artificiale, dove la capacità di fare attenzione (già di per sé rarefatta) è possibile solo grazie alla gamification, dove è possibile imparare solo tramite (costosi) visori di realtà virtuale, dove la memoria “non serve” perché la risposta si trova su Google o su ChatGPT, e così via. Più in generale, si tratta di luoghi dove qualsiasi processo cognitivo diventa sempre più dipendente da tecnologie proprietarie, non trasparenti, controllate da aziende for-profit sulle quali non abbiamo nessun controllo.

    Salute mentale come bene comune

    In questo contesto, l’attenzione e la salute mentale escono dalla dimensione individuale. Se, da un lato, la scelta di come passiamo il nostro tempo, la scelta di rivolgere l’attenzione ad una cosa piuttosto che ad un’altra è personale ed insindacabile, al tempo stesso le nostre scelte cognitive fanno parte di una collettività, collettività che decide cosa è importante, cosa vale la pena assecondare, su cosa agire. Di fatto, l’attenzione collettiva determina cosa è visibile e cosa no, determina le priorità politiche, forma la nostra cultura vivente ed esistente. Un’attenzione collettiva permanentemente invasa e manipolata, sempre di più soggetta ad interventi tecnologici, non può che andare a destabilizzare le istituzioni democratiche. Contemporaneamente, se gli spazi della socialità finiscono per essere manipolati con l’unico fine di creare profitto, questo non può che incidere negativamente sulla salute mentale collettiva, creando spazi digitali ansiogeni, iper-competitivi, spesso violenti.

    Per questo è utile pensare alla capacità di fare attenzione, liberamente, senza un livello tossico di manipolazione3, come ad una capacità fondamentale per la dignità umana tanto quanto per la salute mentale. È utile pensare alla capacità di fare attenzione, intesa collettivamente, come ad un bene comune. L’idea di salute mentale come bene comune non è certo nuova: è un paradigma che sta venendo accolto a livello istituzionale (vedi il manifesto di Milano, che è anche stato presentato in parlamento, e le iniziative in altre città, come il Recovery College a Bologna). Questo approccio prevede uno sguardo più ampio, che guarda alla base strutturale e sociale del benessere umano, invece di ragionare solamente in termini di pazienti, malattie, terapie.

    Cosa è un bene comune? È un bene, cioè qualcosa che ha un valore sociale: un uso, un impiego che soddisfa certi bisogni, desideri, aspirazioni; ed è comune nel senso che questo valore d’uso è condiviso, è comune ad una pluralità4. Più nello specifico, il bene comune serve ad una pluralità non silenziosa ma attiva, che si fa comunità, che crea valore oltre al bene stesso. Chi si prende cura di un bene comune e si assicura che questo possa durare ed essere consegnato alle prossime generazioni crea un valore aggiuntivo che sta nella relazionalità. Non solo il bene stesso ha un valore, ma è la comunità, la rete di persone, la saggezza e la conoscenza che si va creando attorno al bene ad avere valore. La differenza fondamentale rispetto all’estrattivismo è che queste conoscenze creano un valore condiviso e liberamente accessibile, non sigillato in brevetti privati; un valore condiviso che si presta meno facilmente alla creazione di gerarchie, al controllo e allo sfruttamento.

    Se l’attenzione diventa una risorsa cruciale per le industrie estrattiviste e per il mercato, e se questo prelievo (tra le altre cose) compromette la salute mentale collettiva, possiamo pensare all’attenzione e alla salute mentale come beni comuni: hanno sempre svolto questo ruolo, ma diventiamo maggiormente consapevoli della loro importanza nel momento in cui sono minacciate. Sia in risposta all’estrattivismo digitale, sia per tanti altri buoni motivi, sarebbe utile vedere la salute mentale collettiva come qualcosa da proteggere tramite la creazione di comunità resilienti. Da un lato, è importante che queste comunità siano in grado di porre dei limiti sensati alla tecnologia e al prelievo di attenzione; e al tempo stesso conta che sappiano guardarsi intorno per cercare di colmare i vuoti sui quali operano tante delle promesse del digitale: il vuoto della solitudine, della mancanza di cura, di ascolto, di connessione, di inclusione. Ascrivere queste problematiche interamente alla tecnologia è una caccia alle streghe. Al contrario, quello che spesso accade è che, accorgendosi di problemi strutturali, si usi la tecnologia per colmare dei vuoti esistenti: il risultato sono soluzioni-feticcio, incomplete e palliative, come ad esempio il recente sviluppo dei chatbot come partner romantici, oppure il chatbot al posto della psicoterapia. Apparentemente, sono una forma di contrasto alla solitudine e di accesso alla salute: chi non ha un partner, e chi non ha accesso a forme di psicoterapia adeguate, fa affidamento alla tecnologia dei chatbot. I problemi sono numerosi, ma brevemente: è bene ricordare che queste tecnologie non sono create per restituirci la nostra autonomia, ma, al contrario per creare dipendenza e profitto. I chatbot sono programmati per obbedire e adulare, in alcuni casi adescare, col risultato che forniscono una simulazione estremamente distorta di una relazione; abituarsi collettivamente a questo tipo di relazionalità unidirezionale (dove, di fatto, l’altra parte non esiste ed è solo lì per soddisfare i nostri bisogni) è socialmente tossico. Più questa tecnologia prende piede, più è facile che la relazionalità digitale si sostituisca, nel tempo, a quella delle relazioni interpersonali, e la finta soluzione finisce per creare nuovi problemi.

    Al tempo stesso, ricordiamo che il vuoto esiste, e che eliminare la tecnologia non colma quel vuoto: è quindi necessario che quelle stesse comunità sviluppino alternative alla tecnologia basate sulla cura reciproca.

    La cura dei beni comuni per una visione olistica dei problemi

    I problemi del presente vengono spesso definiti a compartimenti stagni: il problema digitale come un “problema delle nuove generazioni” (oppure come un problema di oligopoli), la crisi ambientale come un “problema tecnologico”, la salute mentale come qualcosa da medicalizzare. L’incapacità di vedere oltre la singola dimensione è il retaggio di un sistema di conoscenze che deve tutelare il sapere esperto e mono-disciplinare a discapito del vissuto reale e comune.

    Queste divisioni non sono più sostenibili: per questo è importante tracciare una mappa che ci aiuti ad uscire da questa situazione, a rompere i dualismi. Quello tra “digitale” e “reale” è uno di questi. Il dispiegamento massiccio della tecnologia digitale è l’estensione di un pensiero economico estrattivista che, in passato, si è servito della tecnologia per estrarre risorse naturali ben oltre la capacità di rigenerazione naturale. Ma il pericolo non sta (solo) in un futuro dal clima invivibile e dagli ecosistemi al collasso: esiste ora ed oggi, quando è già palese che il pensiero economico della crescita infinita si ritorce, in maniera estremamente personale, contro di noi e la capacità di gestire le nostre capacità cognitive e relazionali. Il processo predatorio che trasforma la consapevolezza in merce non risparmia nessuno e, anzi, avviene con particolare ferocia nei confronti delle nuove generazioni, di chi ha meno strumenti per difendersi, di chi non ha accesso ad un’educazione adeguata.

    Termini come “estrattivismo”, “beni comuni” e “cura” possono creare confusione, perché hanno una connotazione forte che spesso esula dalla questione digitale. Eppure è importante usarli, non per creare una conoscenza elitaria, ma al contrario, per riconnettersi ad una lunga storia che ha visto l’appropriazione dei beni comuni, dalle terre, all’acqua, alle fonti energetiche da parte di una piccola percentuale della popolazione mondiale. Oggi, quello stesso processo sta avvenendo nella sfera dell’informazione e della consapevolezza. Sapere riconoscere queste ricchezze comuni, sapere che appartengono a chiunque, saperle difendere è importante, e per questo l’approccio della cura e dei beni comuni sono fondamentali. Sono idee che servono per tracciare una linea, per superare la mania collettiva secondo la quale qualsiasi cosa può essere trasformata in proprietà e merce: perché siamo al punto in cui la consapevolezza umana è un prodotto in vendita. Al contrario, la cura ci dice che ciò che è necessario alla sopravvivenza e alla riproduzione della società non può appartenere a nessuno.

    Perché, ricordiamo, a subire le conseguenze delle crisi dell’estrattivismo (che sia quella climatica, quella dell’attenzione, le situazioni di guerra, …) sono le persone comuni, e in particolare quelle meno privilegiate. E ricordiamo che a cercare di prevenire e rimediare i danni è sempre la società civile. Nel caso del digitale, sono le famiglie e le comunità educanti e di cura che si trovano a dovere fronteggiare una situazione di attenzione precaria, di dovere adottare misure di sicurezza contro un’industria del digitale dotata di mezzi miliardari e di un’influenza politica spropositata, spesso impiegando ore ed ore di volontariato o di lavoro di cura, non retribuito.

    Per questo, se educare al “digitale” o alla tecnologia è fondamentale, al tempo stesso non basta più: è necessario riappropriarsi della tecnologia. Perché non è possibile educare le nuove generazioni a stare in un mondo dove esse stesse diventano merci; dove vengono messe al mondo per diventare estensioni viventi di un brand, di una marca; dove il sogno di essere influencer significa diventare manodopera infantile a basso costo per la macchina del marketing. Allo stesso modo, non è possibile “educarci” noi, persone adulte, perché se l’infrastruttura tecnologica della nostra società è predatoria, se è costruita per estrarre valore dalle persone e accumularlo a favore di pochi, quello farà, come in tutti questi secoli ha fatto nelle miniere, nelle foreste e nei pozzi petroliferi di tutto il mondo, superando guerre e ostacoli politici: non c’è verso di resistere individualmente, di correre più veloce della macchina che vuole divorare il mondo. Ripensare la macchina, ripensare la tecnologia per metterla a servizio del bene comune e della cura è un’alternativa. Quanto sia un’alternativa reale e praticabile saranno i prossimi anni, sarà la collettività, sarà la risposta che daremo alle incursioni dell’estrattivismo a dircelo.

    1. “La rete non ci salverà”, Lilia Giugni, 2022, Longanesi, capitolo 3 “I corpi dietro allo schermo” ↩︎
    2. Chagnon, C. W., Durante, F., Gills, B. K., Hagolani-Albov, S. E., Hokkanen, S., Kangasluoma, S. M. J., … Vuola, M. P. S. (2022). From extractivism to global extractivism: the evolution of an organizing concept. The Journal of Peasant Studies, 49(4), 760–792. https://doi.org/10.1080/03066150.2022.2069015 ↩︎
    3. Chiaramente, non si può pensare di eliminare la manipolazione dalla comunicazione, o dalla natura umana. Ma finché la manipolazione avviene alla pari, senza tecnologia, possiamo imparare a riconoscerla, farci l’abitudine, adattarci. Quando però la manipolazione digitale, algoritmica e automatizzata, diventa la normalità, e quando questa manipolazione è mirata all’utente tramite la precisione della profilazione psicologica dei dati, è in quel caso che la manipolazione diventa altamente tossica, perché c’è un differenziale di potere troppo grande: come se in un confronto pacifico tra due persone, improvvisamente spuntasse fuori una pistola. Dove sia, esattamente, il limite da tracciare (la manipolazione tecnologica non nasce certo col digitale), è difficile da stabilire: ma questo non significa che allora tanto vale rinunciare a tracciarlo. ↩︎
    4. “Omnia Sunt Communia”, Massimo De Angelis, 2017, Zed Books ↩︎
  • Digitale e Salute Mentale: incontri a ottobre

    Momenti di ascolto reciproco e discussione per condividere le proprie percezioni, sentimenti e vissuto sugli spazi digitali (dai social media, ai videogiochi allo studio e al lavoro) che percepiamo come problematiche, o sulle quali semplicemente vorremmo confrontarci, farci delle domande, in uno spazio sicuro e facilitato.

    Cosa si fa durante questi incontri?

    La descrizione completa degli incontri è qui.

    Quando?

    Martedì 14 e sabato 25 Ottobre 2025, a Bologna. Vedi il calendario per le date esatte e i dettagli su come partecipare.