IA degenerativa: ovvero come le macchine (e il mercato) dominano il mondo
Si dice che le macchine complesse non siano neutrali, indipendentemente dai loro
creatori e dalle istruzioni che ricevono. HAL 9000, il supercomputer di 2001
Odissea nello spazio di Stanley Kubrick ne è stato il prototipo cinematografico
e ora quell’avvertimento prende sostanza nella realtà mentre le borse temono una
nuova bolla finanziaria legata ai colossali investimenti nello sviluppo di IA e
mentre la Commissione di Bruxelles riscrive il Gdpr, ovvero l’insieme di leggi
che fino ad oggi ha regolato l’uso dei dati personali mettendo al centro la
difesa dei diritti e della privacy.
Nel farlo, come preteso dalle big tech USA che non vogliono alcun vincolo per
addestrare le loro macchine, l’Europa riscrive le norme sull’intelligenza
artificiale cancellando quelle poche misure che proteggevano gli utenti.
Qui voglio indicare alcuni punti che devono far riflettere su come viene
utilizzata l’IA e su che cosa può fare, anche da sola.
1. è da poco disponibile GROKIPEDIA l’enciclopedia online sviluppata da X.AI.
Voluta da Elon Musk come alternativa a Wikipedia con il chiaro intento di
eliminare “la propaganda di sinistra” , si è immediatamente distinta nel
promuovere tesi pseudoscientifiche, teorie del complotto e opinioni
personali del magnate americano. Anche se molti dei suoi articoli sono copie
quasi identiche di Wikipedia non sfugge come altri operino una
palese disinformazione su temi come clima, AIDS, autismo e identità di
genere diffondendo idee palesemente false e transfobiche. Sui temi storici e
politici, giusto per fare due esempi, nella voce che riguarda il
negazionista dell’olocausto David Irwing si da ampio spazio alle sue
argomentazioni mentre su quella che riguarda Trump si omettono gli scandali
che lo circondano. Del resto l’I.A. viene ormai utilizzata direttamente come
propaganda sui social e sono milioni gli utenti che scrollando TikTok hanno
guardato video in cui i discorsi nazisti e le musiche marziali sono stati
trasformati in suoni virali utilizzati come colonne sonore in decine di
migliaia di clip.
2) Per molte persone l’uso dell’IA sta emergendo come il modo principale per
conoscere il mondo. Deepak Varuvel Dennison ricercatore esperto della Cornell
University, fa presente che questi sistemi possono sembrare neutrali ma sono ben
lontani dall’esserlo considerato che i modelli più diffusi privilegiano le
modalità di conoscenza dominanti (tipicamente occidentali, istituzionali e in
lingua inglese), marginalizzando le alternative, soprattutto quelle codificate
nelle tradizioni orali e nelle lingue che il mondo informatico considera “a
basso contenuto di risorse”. L’IA procede dunque con la cancellazione di sistemi
di comprensione evolutisi nel corso dei secoli, vasti corpi di intuizione e
saggezza che non sono stati codificati ma che rimangono modalità essenziali di
conoscenza umana e in concreto, IA riflette le gerarchie di conoscenza e di
potere dominanti amplificandole. Il professor Andrew Peterson dell’università di
Poitiers, descrive questo fenomeno come “collasso della conoscenza”, ossia un
graduale restringimento delle informazioni a cui gli esseri umani possono
accedere, insieme a una minore consapevolezza di punti di vista alternativi. Ciò
vale per tutte le culture rurali e in particolar modo per i saperi indigeni. La
scomparsa della conoscenza locale rappresenta un’interruzione della più ampia
rete di conoscenze che sostiene il benessere umano ed ecologico ed è noto che
quando questa trama viene interrotta le conseguenze possono estendersi ben oltre
il loro punto di origine.
3) Gli esperti hanno individuato gravi debolezze in centinaia di test utilizzati
per verificare la sicurezza e l’efficacia dei nuovi modelli di IA rilasciati sul
mercato. Ad esempio, gli informatici dell’AI Security Institute del governo
britannico e gli esperti di università come Stanford, Berkeley e Oxford hanno
esaminato più di 440 parametri di riferimento e hanno trovato difetti che minano
la validità delle affermazioni. L’indagine sui test avviene in un contesto di
crescente preoccupazione poiché nuove IA vengono rilasciate a ritmo serrato da
aziende tecnologiche concorrenti. Alcune di queste, recentemente sono state
costrette a ritirare i loro prodotti o a inasprire le restrizioni nell’uso dopo
che hanno contribuito a causare danni che vanno dalla diffamazione al suicidio.
Character.ai, ad esempio, ha vietato agli adolescenti di intrattenere
conversazioni con i suoi chatbot dopo che un quattordicenne della Florida si è
tolto la vita.
* 4) L’IA opera già nel campo della medicina virtuale, della terapia della
salute mentale e nella compagnia agli anziani. Per i malati, gli ansiosi, gli
isolati e per molte altre persone vulnerabili che potrebbero non avere
risorse e attenzioni mediche, il tono rassicurante ed empatico dell’IA può
far percepire i bot come partner saggi e confortanti. A differenza di
coniugi, figli, amici o vicini, IA è sempre disponibile e risponde sempre.
Poiché imprenditori e investitori internazionali stanno proponendo l’IA come
una soluzione per i sistemi sanitari non adeguatamente sostenuti da risorse
pubbliche, si sta procedendo ad una esternalizzazione dell’assistenza medica
alle macchine. Sono già noti casi in cui i pazienti e persone fragili
preferiscono il medico IA a quello in carne e ossa definendo il primo “più
umano” del secondo. La dipendenza dalle chatbot induce le persone a sentirsi
sufficientemente preparate per curarsi da sole seguendo le indicazioni
fornite dalle macchine. A quando la prescrizione di farmaci e l’invio di
ricette e impegnative per visite specialistiche? In Cina, Chao Zhang,
fondatore della startup di IA per la sanità Zuoshou Yisheng, ha sviluppato un
medico di base virtuale che è già entrato in contatto con 500.000 utenti
sebbene in uno studio pubblicato su Science Advances lo scorso marzo, i
ricercatori hanno valutato un modello utilizzato per analizzare le
radiografie del torace e hanno scoperto che, rispetto ai radiologi umani,
l’IA tende a non rilevare malattie potenzialmente letali in gruppi
emarginati, come donne, pazienti di colore e persone di età inferiore ai 40
anni.5) Mentre ancora si discute se queste macchine abbiano o no una
coscienza in senso umano, IA supporta già gran parte delle nostre attività
quotidiane e consente la sorveglianza di massa da parte di governi,
istituzioni e multinazionali, tanto che i processi d’uso sono ora codificati
anche nelle scuole dove alunni e docenti vengono sollecitati ad utilizzarla
sotto le mentite spoglie dell’aiuto nella progettazione didattica, nella
produzione di materiali e nella personalizzazione dei percorsi di
apprendimento. Insomma, di IA si normalizza la funzione in materia di
presunta sicurezza e se ne magnificano le applicazioni per renderla una icona
di modernità e un prodotto comunque utile e insostituibile senza mai parlare
del suo effetto sulla psiche e del suo impatto ambientale. Tra gli altri, uno
studio condotto dall’università del Massachusetts Amherst, ha dimostrato come
per sviluppare una singola IA si producano 284 tonnellate di anidride
carbonica, cinque volte le emissioni di un’automobile di media cilindrata
durante il suo intero ciclo di vita, mentre per ogni richiesta (query) la
produzione è di 4,32 grammi, una cifra mostruosa se pensiamo che ogni giorno
le IA ricevono miliardi di interrogazioni.6) E’ inoltre un fatto che queste
macchine rimpiazzeranno gli esseri umani in molte professioni. L’automazione
spinta dall’IA prevede infatti una sostituzione significativa delle attività
umane in molti ambiti lavorativi con implicazioni culturali e sociali che
sono destinate a modificare la nostra vita quotidiana. L’IA è infatti in
grado di svolgere compiti in modo automatico e più veloce rispetto a noi
umani e analizzando le tecnologie GPT (Generative Pre-trained Transformer),
l’Università della Pennsylvania ha dimostrato che il suo utilizzo avrà
effetti massicci sul mercato del lavoro coinvolgendo l’ 80% delle persone,
mentre il restante 20% subirà comunque un cambiamento radicale riguardo ai
tempi, modi, stipendi, offerta di lavoro. Per gli effetti dell’uso dell’IA si
calcola che solo nell’U.E circa 20 milioni di lavoratori sono a rischio
disoccupazione. In merito, la direttrice generale del F.M.I. (Fondo Monetario
Internazionale) ha dichiarato che nella maggior parte degli scenari
l’IA peggiorerà la disuguaglianza complessiva aumentando le tensioni sociali.
L’analisi del FMI ha indicato che i lavoratori più a rischio sono gli
impiegati (per l’81% il loro lavoro è automatizzabile), gli analisti
gestionali (70%), gli operatori di telemarketing (68%), gli assistenti
statistici (61%) e i cassieri (60%) mentre quelli “più al sicuro” sono quelli
che hanno un’elevata complementarità con l’IA come chirurghi, avvocati e
giudici.
Sono molti gli esempi sulla degenerazione della macchine IA e di chi le
alimenta, e tra questi emergono l’uso militare, di cui abbiamo un esempio nel
genocidio perpetrato da Israele a Gaza, oppure l’utilizzo come ministro della
repubblica (accade in Albania), giornalista, esperto meteorologo, ecc. Siamo
solo all’inizio dell’era IA e già la prospettiva orwelliana del super
controllo, della mistificazione, del dominio e della iper concentrazione del
potere sostenuto dalle macchine si delinea come un percorso forzato e
verosimilmente ancora peggiore di quello che finora abbiamo conosciuto.
Che i luddisti avessero ragione?
Fonti:
https://hal.science/hal-04534111v1/file/Knowledge_collapse.pdf
https://aeon.co/essays/generative-ai-has-access-to-a-small-slice-of-human-knowledge
https://www.theguardian.com/society/2025/oct/28/deepseek-is-humane-doctors-are-more-like-machines-my-mothers-worrying-reliance-on-ai-for-health-advice
https://www.theguardian.com/technology/2025/nov/04/experts-find-flaws-hundreds-tests-check-ai-safety-effectiveness
Max Strata