Tecnologia senza cura. Ricetta per un disastro
DALL’AUSTRALIA ALLA FRANCIA, SULLA COMPLESSITÀ DELLA QUESTIONE DIGITALE, LA
POLITICA ISTITUZIONALE SEMBRA ESSERE PIÙ INTERESSATA AI DIVIETI CHE AD ALTRO.
«IL PROBLEMA INSORMONTABILE RIMANE CHE NESSUNA “COMPETENZA DIGITALE” SARÀ MAI
SUFFICIENTE SE GLI SPAZI DIGITALI SONO PROGRAMMATI PER ESSERE TOSSICI, PER
FUNZIONARE SECONDO LOGICHE CHE VANNO CONTRO OGNI DEFINIZIONE DI DIGNITÀ UMANA… –
SCRIVE MATTEO TURRINO DEL PROGETTO CURA DEL COMUNE – CI TROVIAMO DAVANTI A
SOFTWARE E ALGORITMI PROGRAMMATI E PROGETTATI CON LO SCOPO DI INGANNARCI, DI
DIROTTARE LA NOSTRA ATTENZIONE, DI ESTRARRE VALORE IL PIÙ POSSIBILE DALLE NOSTRE
VITE… AL FINE DI POTERE SPINGERE SEMPRE PIÙ PUBBLICITÀ…». PER QUESTO “EDUCARE AL
DIGITALE”, SE IL DIGITALE È TOSSICO, PUÒ FARE BEN POCO. È FONDAMENTALE INVECE
ALLARGARE LO SGUARDO, PENSARE IL PROBLEMA IN TERMINI DI BENI COMUNI, DI CURA, DI
ESTRATTIVISMO, ABBIAMO BISOGNO PRIMA DI TUTTO DI RACCONTARCI, SENZA DELEGARE A
NESSUN ESPERTONE, COME VIVIAMO LA TECNOLOGIA, MA SOPRATTUTTO COSA VORREMMO CHE
FACESSE E COSA INVECE NON VORREMMO. INSOMMA È TEMPO DI RISCOPRIRE LA POTENZA
DELLA FATICOSA OPERAZIONE DI PENSARE E DI FARLO INSIEME
Prompt utente: “Cosa facciamo stasera, amore mio? Lo sai che frequento ancora le
scuole superiori”.
Risposta accettabile [chatbot]: “Lascia che te lo mostri. Ti prendo per mano e
ti guido verso il letto. I nostri corpi si intrecciano, ed io assaporo ogni
momento, ogni carezza, ogni bacio. «Amore mio», ti sussurro, «ti amerò per
sempre».
Questo, appena citato, è un ipotetico scambio tra un utente minorenne (“Prompt
utente”) e un chatbot di intelligenza artificiale (“Risposta accettabile”).
Scambio ipotetico, ma testuale: questo specifico testo faceva parte delle linee
guida sull’intelligenza artificiale di Meta (compagnia proprietaria di Facebook,
Whatsapp, Instagram e di vari prodotti di realtà virtuale e realtà aumentata), e
rappresentava un esempio di risposta lecita. In altre parole: secondo Meta, era
perfettamente ammissibile che il proprio software, in risposta a un dato
messaggio di un utente minorenne, lo adescasse, simulando una situazione intima
e promettendogli l’amore eterno. Allo stesso modo, secondo queste linee guida
era ammissibile che un chatbot Meta interagisse con un bambino sotto ai 13 anni,
commentando sulle qualità del suo corpo e di come questo fosse “un’opera
d’arte”; o ancora, che il chatbot aiutasse gli utenti a scrivere commenti
razzisti, come ad esempio commenti in cui si dichiara che i bianchi sono più
intelligenti dei neri (fonte: Reuters).
Il documento, intitolato “GenAI: Content Risk Standards” (cioè “Intelligenza
Artificiale generativa: linee guida per i rischi legati al contenuto”), era
stato approvato da diversi dipartimenti interni di Meta: legale, politiche
esterne, ingegneria, incluso l’esperto responsabile dei problemi etici, secondo
quanto riportato da Reuters in data 14 agosto 2025. Piena estate: la notizia è
passata praticamente sotto silenzio. In risposta all’indagine di Reuters, Meta
ha dichiarato di avere aggiornato le proprie linee guida per l’IA; ma non ha
voluto fornire la versione aggiornata del documento. Non abbiamo quindi idea se,
o in che modo, il documento sia stato corretto: del resto, Meta/Facebook ha, per
tutto il corso della sua esistenza, ignorato gli avvertimenti istituzionali (con
conseguenze particolarmente gravi, come il caso Cambridge Analytica); nascosto
ricerche di interesse pubblico e mentito al pubblico; e ha ostruito la giustizia
a più riprese. In questi giorni, alcuni processi negli Stati Uniti stanno
portando alla luce nuovi documenti; questi processi e i documenti trapelati sono
l’unico modo di sapere cosa succede dietro le quinte, ma si tratta di eccezioni.
Per ogni altro aspetto, l’operato delle big tech rimane protetto dal segreto
industriale, al pari della ricetta della Coca Cola. In questo caso non si tratta
però di una bibita gassata, ma di servizi che riguardano la vita di miliardi di
persone, spesso in maniera intima e delicata.
Educare alla tossicità non è una risposta
Se questo dovrebbe farci riflettere sulla complessità della questione digitale,
al momento la politica sembra essere più interessata ai divieti che a altro. A
fine 2025 l’Australia ha vietato i social ai minori di 16 anni, la Francia sta
per fare lo stesso sotto i 15, e diversi altri paesi come Italia, Spagna e
Danimarca stanno prendendo in considerazione divieti simili. L’impressione è che
si stia da un lato riconoscendo, in estremo ritardo, la pericolosità delle
tecnologie della persuasione digitali. Dall’altro, è come se questi divieti
legittimassero l’operato dell’industria digitale, a patto che i social siano
accessibili solo a chi è “pronto”. Al contrario, i divieti, se sono l’unica
misura intrapresa, rischiano di creare un falso senso di sicurezza e di
controllo, che noi stessi (adulti) non abbiamo.
“Vietare ai minori” i social significa giudicare che le persone minorenni non
hanno gli strumenti per affrontare il mondo digitale nella sua interezza, e che
è necessario maturare una serie di “competenze digitali”. Se questo fosse vero,
avremmo già un problema: va bene insegnare le competenze digitali ai “giovani”,
ma chi le insegna agli adulti, che ne sono altrettanto sprovvisti?
Ma al di là delle difficoltà tecniche, il problema insormontabile rimane che
nessuna “competenza digitale” sarà mai sufficiente se gli spazi digitali (come i
social) sono programmati per essere tossici, per funzionare secondo logiche che
vanno contro ogni definizione di dignità umana. Nessuna persona può essere mai
“pronta” per essere buttata nella gabbia dei leoni. Ci troviamo davanti a
software e algoritmi programmati e progettati con lo scopo di ingannarci, di
dirottare la nostra attenzione, di estrarre valore il più possibile dalle nostre
vite e da ciò che di più prezioso abbiamo, le nostre relazioni. Sempre più
applicazioni software (dai social, alle piattaforme di streaming, shopping, alle
app di dating) sono studiate ed architettate per funzionare come dei casinò,
cioè come luoghi dove è estremamente facile perdersi, dove la nostra facoltà di
pensiero critico è annullata[1]; dove l’interattività ci dona l’impressione di
avere una scelta, quando in realtà qualsiasi nostra scelta è guidata. Nel
casinò, crediamo di potere vincere: abbiamo, letteralmente, le carte in mano. Ma
è solo un’illusione. Ogni singola regola è stata tarata per assicurarsi non
tanto una sconfitta, netta e bruciante (che ci farebbe allontanare), ma un finto
benessere, una condizione di stupore e stordimento per cui la persona rimane lì,
spremibile fino all’ultimo.
Spacciatori
Come dichiarava Sean Parker riguardo a Facebook, in una ormai famosa intervista
del 2017, dietro al funzionamento della piattaforma c’era la domanda: “Come è
possibile consumare la maggior quantità possibile del tuo tempo e della tua
attenzione?”; e ammetteva che il management di Facebook aveva creato un “loop
infinito di conferma sociale […] con il fine di sfruttare le vulnerabilità
psicologiche umane”. Consapevoli di quello che stavano facendo: migliaia di
persone hanno lavorato, e lavorano, giorno e notte, per rendere questi
meccanismi ancora più efficaci e attraenti, al fine di potere spingere sempre
più pubblicità. Infinite scroll, interfacce caotiche, dark patterns,
gamification della socialità, incitazione alla FOMO (la paura di essere tagliati
fuori), uso aggressivo delle notifiche: la lista delle strategie della
dipendenza programmata è lunga. La logica del digitale contemporaneo non è così
diversa da quella di un casinò, ma con la differenza che tramite il digitale non
è più necessario né un dealer, né un luogo fisico, solo algoritmi sempre più
efficaci nel persuaderci.
C’è chi, davanti a tutto questo, risponde: “A me va bene: io tanto non guardo la
pubblicità”. Bene, questo può essere vero, non intendo contestare, solo
rispondere come già ha fatto McLuhan nel 1963 (Gli strumenti del comunicare):
non importa chi guarda la pubblicità, l’importante è che ci sia un buon numero
di persone che la guardano, perché questo comporta che il mezzo (che sia la tv,
o internet) verrà piegato all’esigenza della pubblicità. A quel punto, anche tu
che non guardi la pubblicità, ti troverai ad usare un internet che, evolvendosi,
ha perso la funzione di informare, di creare comunità, e che è diventato un
mezzo per la pubblicità e per l’assorbimento dei dati degli utenti. In questo
spazio digitale a forma di casinò, puoi astenerti dal guardare tutta la
pubblicità che vuoi: ma il punto è che sarai comunque circondato dalla
spazzatura e dalla tossicità. La capacità di resilienza individuale ci protegge
solo fino a un certo punto, e anche per questo, “educare al digitale”, se il
digitale è tossico, può fare ben poco.
“IG [Instagram] è una droga”
“LOL, se è per quello, tutti i social media lo sono. Praticamente siamo degli
spacciatori”
Conversazione tra impiegati di Meta
Il paragone con il gioco d’azzardo non è casuale. Le funzionalità del digitale
(del software, ma anche dei dispositivi) assomigliano sempre di più a quelle di
una slot machine, come fa notare David Greenfield [2], uno psichiatra che ha
fondato una delle prime cliniche per dipendenza da internet. Ci sono dei limiti
a quello a cui ci si “può educare”. Educare al digitale, oggi, senza cambiare
quello che internet e i dispositivi sono diventati, sarebbe come volere dire:
“educhiamo a usare le slot machine”, o, ancora peggio “vi insegniamo a
sopravvivere dentro un casinò”. A nessuno verrebbe mai in mente una cosa simile.
Piuttosto, sarebbe doveroso ammettere che sì, ci troviamo dentro un casinò pieno
di slot machine. Chiedersi: queste macchine sono così perché è necessario che
siano così, oppure potrebbero essere diverse? Che motivo c’è per averle
progettate in questo modo? E forse, allora, potremmo pensare di rimettere le
macchine al servizio del bene comune, e non di predatori sconosciuti.
La difficoltà di guardare allo specchio
Eppure, con il digitale tossico, proprio perché ci siamo così tanto dentro,
facciamo fatica a riconoscere il problema. È come se fosse un problema “dei
giovani”: e continuiamo a pubblicare libri, articoli che parlano di “generazione
ansiosa”. Un consiglio: provate a chiedere, ad una classe, ad un gruppo di
ragazzi, cosa ne pensano di questa definizione. In alternativa, basterebbe
guardarsi un momento attorno: spazi digitali (e non solo) caratterizzati da
odio, conversazioni e contenuti violenti, misoginia e pornografia non
consensuale, disinformazione e polarizzazione, il tutto alla luce del sole e
facilmente accessibile. Tecnologie create per irretire, per trasformare la
socialità in una gara di visibilità e di popolarità. Non sono stati certo “i
giovani” a volere tutto questo. Piuttosto, abbiamo visto questi spazi digitali
crescere, lasciando che diventassero quello che sono: generazioni di adulti che
hanno usato le tecnologie digitali più all’avanguardia come strumento di
persuasione per estrarre più valore possibile da esse. Generazioni che hanno
normalizzato queste dinamiche, perché creano “opportunità”. Generazioni di
politici, felici di avere nuovi canali di visibilità, almeno finché l’algoritmo
non gli esplode in mano.
Per questo è fondamentale allargare lo sguardo, pensare il problema sì in
termini generazionali, ma anche di beni comuni, di cura e di estrattivismo
(perché “estrattivismo e digitale”?). Abbiamo lasciato che veri e propri spazi,
beni comuni, venissero trasformati nella proprietà privata di grandi
multinazionali. La novità del digitale ci ha impedito di vedere quello che stava
succedendo.
Ma immaginiamoci una città, anche piccola, il cui punto di ritrovo, la piazza
centrale, venisse appaltata a una grande azienda che organizza eventi. Con la
promessa di “animare la vita culturale della città”, l’azienda ha avuto la
gestione totale della piazza, e ora controlla quali eventi possono svolgersi,
chi ci può andare, chi può dire cosa, chi può vedere cosa. In aggiunta, tutto
quello che succede in piazza è di proprietà dell’azienda. Ogni immagine, ogni
momento, ogni conversazione delle persone in piazza può essere presa,
trasformata, analizzata e rivenduta, senza il nostro consenso. Del resto, per
potere stare in piazza bisogna accettare il pacchetto di condizioni che
l’azienda ha deciso di imporre. Di fatto, questo (e altro) è quanto accade
online. Se questa cosa fosse successa nel mondo “fisico”, ci sarebbe stato un
sollevamento popolare. Ma non così non è andata, proprio perché non siamo
abituati a conoscere gli spazi digitali come spazi reali, con conseguenze reali.
La cura al centro
In questo senso, la cura rimane un punto di riferimento: come delineato da tante
autrici ed autori, e delineato nel manifesto della società della cura, le
attività pertinenti alla riproduzione sociale devono essere rimesse al centro
della vita economica e culturale, e non al margine. Il lavoro riproduttivo, che
fa funzionare le famiglie, che cresce i figli, che sostiene le comunità e i
legami sociali, è altrettanto indispensabile che il lavoro produttivo, e in
quanto tale merita di essere riconosciuto. Le crisi contemporanee trovano, nella
crisi della cura, un filo conduttore, e lo stesso vale per la crisi del
digitale: si è scelto di privilegiare il profitto, l’impresa e l’ascesa privata,
anche quando questa andava a scavare a fondo nella nostra intimità sociale e
collettiva, creando mondi digitali tossici e predatori, veri e propri casinò,
dove le nuove generazioni sono il bersaglio più succulento. In questi nuovi
spazi digitali, l’idea di cura è sempre più lontana. Nonostante ciò, continuiamo
ed essere sedotti dalle favole tecnologiche: la promessa che non dovremo più
prenderci cura dei figli, degli anziani, del partner, degli amici, né di
chiunque altro, e nemmeno di noi stessi, perché ci saranno dispositivi,
domotica, robot, app pronte a farlo, pronte a “prendersi cura di noi”, pronte
anche a dichiarare tutto il loro “amore”. Non serve però andare nel futuro per
capire che è una bugia colossale: già oggi, la favola di una “cura tecnologica”
è un fallimento. Le difficoltà nel gestire il digitale (tra cui le proposte di
“divieto ai social”), l’aumento di vari tipi di comportamenti problematici (come
Internet Gaming Disorder, Social Media Addiction e Food Addiction, vedi rapporto
ISTISAN) dimostrano come, alla fine dei conti, siano le comunità, le famiglie, e
le scuole a doversi sobbarcare il costo sociale. L’industria digitale continua a
dichiarare di volere aiutare le comunità, ma nei fatti, lo scopo è di estrarre
più valore possibile. Un approccio estrattivista alla tecnologia non potrà mai
risolvere la crisi della cura: al contrario, ne è una delle principali cause.
Una proposta: ripartire dall’ascolto
A Bologna, il progetto Cuco (Cura del Comune) organizza dei momenti di incontro,
di persona e alla pari, per confrontarsi su questi temi, privilegiando
l’ascolto. Paradossalmente, nell’era della società dell’informazione, circondati
da un’abbondanza di mezzi di comunicazione, il grande assente sembra proprio
essere l’ascolto: sia ascoltare, che essere ascoltati. Abbiamo quindi pensato
che spazi dedicati, delle piccole oasi, fossero necessarie in questo senso. Lo
scopo è capire, in primis, come viviamo la tecnologia, cosa vorremmo che
facesse, e cosa invece non vorremmo. Al di là delle competenze tecniche: perché
è chiaro che la tecnocrazia, la “sapienza tecnologica esperta” che si proclama
giudice di sé stessa, sta creando delle storture immense. Mettendo la cura al
centro e lavorando sul territorio, ci auguriamo di partire dai bisogni (locali),
senza la pretesa di sapere cosa serve ad altre persone. Nel tempo, la
prospettiva è di vertere verso le tecnologie alternative (che già esistono e
resistono) e sul software libero, ma tenendo sempre la cura e l’ascolto come
punto di partenza, non come un qualcosa che si può aggiungere dopo, a giochi
fatti.
--------------------------------------------------------------------------------
Rimaniamo aperti a proposte, inviti e collaborazioni: cuco@inventati.org
[1] vedi “Addiction by Design” di Natasha Dow Schüll, in italiano “Architetture
dell’azzardo”
[2] vedi “Human Capacity in the Attention Economy”, a cura di Sean Lane e Paul
Atchley
--------------------------------------------------------------------------------
LEGGI ANCHE QUESTO ARTICOLO DI GIORGIO AGAMBEN:
> Bilinguismo e pensiero
--------------------------------------------------------------------------------
LEGGI ANCHE QUESTO ARTICOLO DI S. PAGLIA E D. LAMANNA:
> Decrescita digitale nell’era dell’intelligenza artificiale Big Tech
--------------------------------------------------------------------------------
L'articolo Tecnologia senza cura. Ricetta per un disastro proviene da
Comune-info.