Tag - Intelligenza Artificiale

Bignami, concetti base degli LLM (parte prima)
Walter Quattrociocchi ha pubblicato un bignamino di concetti base degli LLM. (ovvero: capire in 90 secondi un LLM e sembrare competenti a cena senza coprire l’abisso delle proprie lacune con il pensiero circolare e le supercazzole pop-filosofiche sull’etica dei termosifoni col cimurro) Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente. Riporto di seguito i concetti. L'originale si può leggere su Linkedin Correlazione Due parole sono “amiche” se nei dati compaiono insieme più spesso di quanto accadrebbe per puro caso. Non serve sapere cosa significhino: il modello rileva che “pizza” e “mozzarella” si presentano insieme molto più di “pizza” e “batteria dell’auto” e registra quella regolarità. Ogni parola è un vettore in uno spazio con centinaia di dimensioni; la vicinanza riflette la probabilità di apparire in contesti simili. Processo stocastico Quando scrive, un LLM non applica logica o ragionamento causale: genera parole campionando dalla distribuzione di probabilità appresa per il contesto. Se il testo è “Il gatto sta…”, la distribuzione assegnerà alta probabilità a “dormendo” e bassa a “pilotando un aereo”. Parametri come temperature, top-k o nucleus sampling introducono variabilità. È una catena di Markov di ordine elevato: chi sostiene che “ragiona” deve spiegare in che senso un campionamento possa costituire ragionamento. Ottimizzazione L’abilità dell’LLM deriva dalla minimizzazione di una funzione di perdita (tipicamente la cross-entropy) tra le previsioni e i dati reali. Attraverso il gradient descent, miliardi di parametri vengono regolati per ridurre l’errore di previsione sul prossimo token. Dopo trilioni di iterazioni, l’output diventa statisticamente indistinguibile dal testo umano. Transformer Architettura alla base degli LLM. Il self-attention valuta quanto ogni parola sia rilevante rispetto a tutte le altre del contesto, non solo a quelle vicine. A differenza delle vecchie reti sequenziali, il Transformer guarda l’intera sequenza in parallelo, mantenendo il contesto anche a distanza, accelerando l’addestramento e gestendo testi lunghi. Allucinazioni Il modello può produrre frasi false ma plausibili perché non confronta le uscite con il mondo reale. L’accuratezza è un effetto collaterale, non un vincolo progettuale. Scaling La potenza di un LLM cresce con parametri, dati e calcolo (scaling laws). Più grande non significa “più intelligente”: significa solo un vocabolario statistico più ricco e preciso. La cosa affascinante non è che stia emergendo una mente, ma che sappiamo codificare in forma computabile l’intelligenza implicita nel linguaggio. Quel linguaggio lo abbiamo generato noi: un LLM è il riflesso statistico della nostra produzione linguistica, organizzato così bene da sembrare vivo, ma resta un simulatore di linguaggio umano.
Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
I problemi delle linee guida per l’adozione dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione: tra clamorose assenze, contraddizioni e ossimori. L’ennesima riforma calata dall’alto. Ma un’altra strada è possibile Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione. A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private.  L'articolo di Mazzoneschi e Barale (C.I.R.C.E.) è uscito nel quotidiano Domani. Qui per leggere la versione integrale
Vietare i cellulari e promuovere l’Ia, l’insostenibile confusione al potere
Al rientro a scuola, studenti, famiglie e docenti hanno trovato l’ennesima sorpresa: un dettagliato libriccino contenente le linee guida per una rapida adozione – naturalmente consapevole, responsabile e senza ulteriori oneri a carico del bilancio – dell’intelligenza artificiale in tutti gli ordini e gradi di istruzione. A una prima analisi, le linee guida sembrano proseguire nella spinta verso l'adozione di tecnologie digitali non facilmente controllabili dagli attori della scuola, con un forte rischio che si riproponga lo scenario già visto con i progetti PNRR Scuola 4.0: una corsa a spendere fondi per introdurre hardware e software, senza possibilità di scelta consapevole da parte delle scuole, terminata in un sostanziale trasferimento di fondi pubblici al privato. L'enfasi sull'innovazione tecnologica e sulla transizione digitale delle scuole raramente tiene conto delle esigenze didattiche della comunità scolastica, per puntare l'obiettivo su un mero accumulo di tecnologie che si rivelano ingestibili dalle scuole, vuoi per incapacità, vuoi perché le tecnologie adottate sono spesso opache, o anche perché delegate completamente a imprese private.  DIDATTICA: LA GRANDE ASSENTE Basterebbe il mero dato statistico a rendersi conto di quanto siano vaghe le Linee Guida su questo tema centrale per la scuola. Su 33 pagine solo due sono riservate alla didattica in senso stretto, nel paragrafo dedicato alle aree di applicazione per tipologia di destinatari (4.2).   La maggior parte del testo si sofferma sugli aspetti tecnico-normativi, richiamando norme europee (AI act) e cosiddette buone pratiche consolidate. Se non bastasse il dato statistico, la lettura del paragrafo mostra la genericità e la confusione delle indicazioni . Riportiamo di seguito uno degli esempi di possibili applicazioni pratiche dell'IA per docenti, perché esemplificativo della poca conoscenza di strumenti che, in alcuni casi, sono in uso da tempo nelle attività didattiche, senza avere nulla a che vedere con l'IA. > Strumenti interattivi e innovativi: l’IA permette l’elaborazione di risorse > didattiche (come simulazioni, giochi, mappe concettuali, riassunti per > l’apprendimento e quiz interattivi) che aumentano la motivazione e il > coinvolgimento degli studenti;  La domanda sorge spontanea: che senso ha far generare una mappa concettuale all’IA, quando l'obbiettivo didattico di questa metodologia è proprio fare in modo che lo studente possa "mappare" la propria conoscenza di un argomento e collegarne i vari elementi? AI COME AUTOMAZIONE Le indicazioni divengono invece più definite laddove sono individuati i campi di automazione dei processi lavorativi tipici dell'amministrazione e del monitoraggio da parte del Dirigente Scolastico. In particolare risulta evidente il riferimento all'automazione nei paragrafi Ottimizzazione nella riorganizzazione dell’orario o Monitoraggio documenti programmatici, nei quali si menziona l'evidenziazione di eventuali scostamenti di bilancio come risultato dell’uso dell’IA. D’altra parte l’Intelligenza Artificiale è un insieme di tecniche di cui le IA generative sono solo un sotto insieme. Nelle Linee Guida si parla genericamente di IA, senza distinguere un algoritmo per l’ottimizzazione dell’orario scolastico, caso classico di automazione, da un Large Language Model, Chat GPT per intendersi, lasciando alla scuola il compito di districarsi tra le molte e confuse offerte private. CONTRADDIZIONI E OSSIMORI Oltre all’imbarazzante assenza dei temi della didattica, il secondo aspetto che salta all’occhio sono le numerose contraddizioni interne ai messaggi del Ministero. Anzitutto le Linee Guida si pongono come obiettivi la sostenibilità e la tutela dei diritti degli allievi, raccomandando alla dirigenza e al corpo docente di rendere effettivamente esercitabile il diritto a non fornire i dati degli allievi come pre-requisito per l’utilizzo dell’IA. Peccato che le IA generative, che vengono proposte al suo interno, ossia i servizi SaaS (Software as a service) come ChatGPT, siano incompatibili con entrambi questi principi: il primo a causa dei pantagruelici consumi di elettricità e acqua dei datacenter indispensabili per la fornitura del servizio, il secondo perché il modello SaaS si basa per l’appunto sulla fornitura di questi dati, ossia il servizio erogato è gratuito proprio perché i dati dell’utilizzatore sono parte del modello di business delle imprese che producono questi software. Quando invece il servizio è a pagamento, i dati sono usati per migliorare l’addestramento dell’IA. L’ENNESIMA RIFORMA DALL’ALTO A giudicare dalla letteratura scientifica citata dal ministero, in cui la parte da leone la fanno le riflessioni sulla produttività più che quelle sul senso e sulla missione della scuola, sembra evidente che queste prime Linee Guida siano state redatte senza tenere nella dovuta considerazione le dinamiche sociali che questa nuova tecnologia sta promuovendo. Questo spiega come sia possibile che lo stesso ministero abbia, nella stessa giornata, varato un divieto draconiano contro gli smartphone (i cui effetti tossici sono ormai riconosciuti da letteratura bi-partisan) e promosso le Linee Guida per l’IA (i cui effetti tossici stanno cominciando a manifestarsi lentamente solo ora). VALORIZZARE LE COMUNITÀ Nel frattempo in molte zone della penisola vengono adottati sistemi per la didattica che valorizzano la creazione di conoscenza locale e condivisa, oltre che utilizzare il denaro per pagare lavoro invece che licenze d’uso a grandi aziende USA. Ci sono esempi virtuosi di scuole che acquistano software (anche l’Intelligenza Artificiale è software) rilasciati con licenze libere e/o aperte (F/LOSS) modificabili secondo le esigenze delle comunità scolastiche. In questo modo le scuole possono mettersi in rete per condividere risorse computazionali, risparmiando, oltre che per confrontarsi e condividere esigenze e soluzioni. Esistono già in Italia imprese che forniscono servizi con queste modalità, l’esempio delle scuole della Provincia Autonoma di Bolzano è solo uno e il più longevo. Il modello è quello delle Comunità Energetiche Rinnovabili che, secondo gli ultimi dati del GSE, stanno crescendo vertiginosamente. Si può fare! Maurizio Mazzoneschi e Stefano Barale per C.I.R.C.E
“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo
Vivere le tecnologie come se fossero qualcosa che cade dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle dinamiche di potere e profitto connesse all’innovazione tecnologica. “Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa. Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo? Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione. Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche. Leggi l'intervista completa , che ha molti altri spunti interessanti, sul sito di Guerre di rete
“Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo
Immagine in evidenza: Jathan Sadowski, credits: Jathan Sadowski Vivere le tecnologie come se fossero qualcosa caduta dall’alto ci rende passivi e ci limita a considerare “cosa fanno” senza concentrarci sul “perché lo fanno”. È il tema centrale del libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, scritto dal ricercatore americano Jathan Sadowski, i cui studi si concentrano sulle  dinamiche di potere e profitto connesse all’innovazione tecnologica.  CHI È JATHAN SADOWSKI Senior lecturer presso la Monash University di Melbourne (Australia), è esperto di economia politica e teoria sociale della tecnologia. Oltre al libro The Mechanic and the Luddite – A Ruthless Criticism of Technology and Capitalism, nel 2020 Sadowski ha pubblicato il libro Too Smart – How Digital Capitalism is Extracting Data, Controlling Our Lives, and Taking Over the World. Inoltre conduce il podcast This Machine Kills insieme a Edward Ongweso Jr. È anche autore e co-autore di diversi studi che indagano le conseguenze della tecnologia e della datificazione. L’ERA DEL CAPITALISMO TECNOLOGICO Jathan Sadowski parte da alcuni presupposti. Il primo vuole che tecnologia e capitalismo non siano forze separate ma che si rafforzino in modo reciproco, con le persone relegate al ruolo di osservatori passivi, senza valutarne le ricadute politiche, economiche e sociali. Il secondo presupposto vuole le tecnologie come forma di legislazione che crei regole, definisca diritti, stabilisca cosa è consentito e – a monte – delinei il tipo di società in cui viviamo. Con un impatto anche sul mondo fisico. I magazzini automatizzati sono ambienti costruiti per i robot e non per l’uomo, le strade su cui viaggiano le automobili a guida autonoma sono pensate per quel tipo di veicolo e, ancora, qualsiasi tecnologia futura avrà bisogno di un ambiente fisico adeguato e inedito. Per definire il capitalismo tecnologico, Sadowski fa riferimento a un’idea ampia che si sofferma sugli algoritmi discriminatori, sulle piattaforme che trattano i dati degli utenti, anche i più sensibili, e sulle Big Tech che stipulano ricchi contratti con corpi militari. Tutto ciò porta in superficie le connessioni tra tecnologia e potere, così come mette in risalto la natura politica e le ricadute economico-sociali delle tecnologie. Ciò che andrebbe osservato, e questo è un punto centrale nella narrazione di Sadowski, è il contesto nel quale alcune innovazioni vengono incentivate e altre scartate. Il ruolo dei venture capitalist nell’innovazione capitalista I venture capitalist, investitori privati che finanziano imprese in cambio di quote societarie, definiscono l’innovazione in base a ciò che si adatta ai rispettivi portafogli di investimento e allineano il progresso ai loro obiettivi di profitto. Un modello – critica l’autore – sostenuto da sussidi governativi e agevolazioni fiscali e incentrato sull’ipercrescita (hypergrowth), selezionando startup e tecnologie che possono scalare e dominare il mercato esponenzialmente in breve tempo. Per Sadowski la Silicon Valley siede al tavolo della roulette, decide su quale numero si fermerà la pallina e decide quanto scommettere. Può capitare che la mano non sia vincente ma – sul lungo periodo e sulla quantità di mani giocate – il saldo per i venture capitalist è sempre positivo.   Anche quando il mercato crolla, i venture capitalist al vertice sono in gran parte immuni dai rischi e ottengono comunque profitti significativi. Questo processo crea un “realismo dell’innovazione”, al cui interno il venture capital sembra l’unica via praticabile per sostenere l’innovazione. Dati come capitale e la politica della datificazione L’autore sostiene che le metafore popolari quali “i dati sono il nuovo petrolio” oscurano la vera natura dei dati, che non sono una risorsa naturale, ma sono sempre manufatti. Le aziende inquadrano i dati come una risorsa preziosa, disponibile universalmente e soggetta alle dinamiche di mercato, ma ciò vale solo per quelle imprese che possiedono le tecnologie speciali per scoprirli, estrarli, elaborarli e capitalizzarli. I dati sono una forma di capitale essenziale per la produzione, estrazione e circolazione del valore nei sistemi digitali. Questo spinge le aziende a creare e catturare quanti più dati possibile, da tutte le fonti e con ogni mezzo.  Le acquisizioni aziendali, come l’acquisto di DoubleClick da parte di Google, LinkedIn da parte di Microsoft, WhatsApp da parte di Facebook (ora Meta, ndr) e OneMedical da parte di Amazon, sono spesso fusioni di dati. Una smania per la datificazione che trasforma le persone in dati. Ciò trova conferma, secondo l’autore, per esempio nella ricerca sulla visione artificiale che tende a categorizzare gli esseri umani al pari di oggetti da rilevare, identificare e tracciare, spogliandoli così del loro contesto sociale e della loro umanità. Un’astrazione che fa cadere eventuali resistenze etiche in chi implementa tecnologie di sorveglianza e giustifica – seppure indirettamente – la creazione di oligopoli che trovano forma nelle Big Tech, organizzazioni che fondano le rispettive potenze sui dati, sulla capacità computazionale e sul loro peso geopolitico che le mette in condizione di presentare le tecnologie prodotte al pari di asset strategici nazionali. Il ruolo dei “meccanici” e dei “luddisti” Per il professor Sadowski le parole “mechanic” e “luddite” sono da intendere in un contesto critico. Entrambi, in senso metaforico, incarnano un modo di vivere il capitalismo tecnologico. I “mechanic”, i meccanici, sono le persone che coltivano curiosità su come il mondo funziona, mentre i “luddite” (i luddisti) hanno posizioni più consapevoli delle funzioni intrinseche della tecnologia.  Il termine luddista prende origine dal movimento nato nel Regno Unito durante i primi anni del 1800 che, preoccupato dagli impatti dei macchinari industriali sul lavoro degli artigiani, ha ingaggiato una lotta contro le fabbriche, accusandole di peggiorare le condizioni di vita.  Tanto all’epoca quanto oggi, i luddisti non sono refrattari alle tecnologie in quanto tali ma alle loro implicazioni. Il luddismo odierno è un movimento molto più complesso di quello che, nel XIX secolo, il governo britannico ha represso con la violenza e con leggi ad hoc. In sintesi, il meccanico comprende come funziona un sistema, mentre il luddista sa perché è stato costruito, a quali scopi serve e quando dovrebbe essere smantellato o distrutto. Entrambi i modelli, sostiene Sadowski, sono cruciali per una critica puntuale del tecno-capitalismo.  INTERVISTA CON L’AUTORE Abbiamo approfondito queste posizioni con l’autore del libro. Nel libro emerge un panorama in cui le tecnologie sono sempre più opache (il fenomeno della “scatola nera”), complesse e dominate da interessi aziendali e statali che limitano l’agire umano. Si tratta di uno sviluppo contemporaneo o di un modello ricorrente? “L’idea delle tecnologie come una ‘scatola nera’ esiste da tempo ed è stata a lungo rilevante. È un modello ricorrente nel modo in cui le tecnologie sono progettate e utilizzate. Una scatola nera in cui possiamo vedere gli input e gli output di una tecnologia, di un sistema o di un’organizzazione, ma non possiamo vedere o capire come la cosa effettivamente operi. Se mai, la scatola è diventata semplicemente più opaca col passare del tempo. Che si tratti di intelligenza artificiale o di strumenti finanziari, i meccanismi interni di questi sistemi, che hanno un enorme potere nella società, sono schermati da strati di opacità. Certo, questi sistemi astratti sono complessi, ma sono anche mistificati per design. Ci viene detto che solo pochi eletti sanno come sono stati creati, e ancora meno sanno come effettivamente funzionino. Il risultato è che alla grande maggioranza delle persone viene impedito di conquistare la posizione minacciosa di sapere come le cose funzionano, dire di no al modo in cui funzionano ora e poi pretendere che funzionino diversamente. Consideriamo un modello di machine learning che sta alla base di un sistema di AI. Ora non possiamo nemmeno vedere o comprendere gli input che entrano nel modello perché si tratta di dataset enormi raccolti tramite scraping automatico del web e altre forme di raccolta dati. Nessun essere umano ha mai effettivamente spulciato questi dataset nella loro interezza. Forse qualcuno ha visto solo parti dei dati, o ha solo un’idea generale di che tipo di dati siano inclusi nel dataset. Ma, funzionalmente, il dataset (o input nel sistema) è anch’esso una scatola nera. Le operazioni del modello di machine learning sono anch’esse ‘black-boxed’ poiché questi sistemi computazionali hanno strati nascosti di calcoli probabilistici in cui neppure il creatore della tecnologia sa esattamente cosa stia succedendo. Per di più, persino gli output di questi sistemi sono ora scatole nere: le decisioni prese da questi sistemi di AI e, le loro conseguenze sulla vita delle persone, sono nascoste alla vista del pubblico.  Un decennio fa (era il 2016, nda), il giurista Frank Pasquale scrisse un eccellente libro intitolato The Black Box Society in cui spiegava come le scatole nere si stiano moltiplicando nelle nostre vite grazie a modi tecnici, legali, politici e sociali. Le scatole nere mantengono nascoste le operazioni di questi sistemi.  Quindi, sebbene il fenomeno delle tecnologie a scatola nera sia un modello ricorrente, possiamo sempre più vedere come quelle scatole stanno ora diventando ancora più grandi, inglobando più parti del sistema”. Parliamo dei venture capitalist che plasmano il capitalismo tecnologico anche gonfiando in modo artificioso gli asset speculativi. Come possiamo spezzare questo ciclo dell’hype? Cosa servirebbe per orientare l’innovazione verso il benessere sociale piuttosto che verso l’accumulazione di capitale? “Le nostre aspettative sul futuro sono molto importanti per influenzare dove allocare le risorse e per modellare come e perché costruiamo le tecnologie. Le aspettative sono anche performative del futuro. Andrebbero pensate come prove generali per futuri potenziali che non sono ancora arrivati. Le nostre aspettative creano anticipazione riguardo al futuro e possono aiutare a motivare l’azione nel presente. È per questo che la Silicon Valley spende così tanto tempo e denaro cercando di modellare le nostre aspettative in modi molto specifici che si allineano ai loro desideri e favoriscono i loro interessi. Ecco cosa sono i cicli dell’hype: sono il business della gestione delle aspettative. Gli investimenti speculativi – come quelli che sono la specialità dei venture capitalist e degli imprenditori tecnologici – dipendono dall’hype, dal creare aspettative e motivare all’azione. Questa speculazione è un modo di ricavare valore e profitto da cose che non sono ancora accadute e che potrebbero non accadere mai. Il futuro potrebbe sempre non materializzarsi nel modo in cui la Silicon Valley lo immagina, ma proprio questa incertezza è un elemento cruciale della performance. Significa che la partecipazione del pubblico è necessaria. Nel mio libro chiamo questo il Tinkerbell Effect: le tecnologie speculative esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a svanire, diventando sempre più immateriali fino a sparire. Anche investire miliardi di dollari non garantisce la realizzazione di un sogno se le persone smettono di alimentarlo con la loro energia psichica. Gli esempi ci sono, si chiamano Metaverso (un ricordo lontano), Web3 oppure Google Glass (in realtà mai visti davvero sul mercato). Questa natura effimera dell’hype è anche un punto chiave di intervento. Attualmente, molti dei benefici della tecnologia avvengono in modo accidentale e ‘a cascata’. Il loro scopo principale è catturare mercati e creare profitti per grandi aziende. Ci viene detto che questo è l’unico modo possibile e che non dovremmo aspettarci nulla di diverso o migliore. Ma potremmo fare molta strada per orientare l’innovazione in direzioni diverse semplicemente avendo aspettative più alte su come le tecnologie vengono create e a quali scopi servono”. I dati tendono a ridurre le persone a oggetti. Questo processo, intrinseco ai sistemi di intelligenza artificiale, è oggi estremamente rilevante. Quali interventi politici e sociali ritiene necessari per garantire che le tecnologie basate sui dati vengano sviluppate in modi che rispettino la dignità umana? A suo avviso, quali aspetti del capitale umano dovrebbero rimanere al di fuori della portata della datificazione? “Le nuove tecnologie possono catturare quantità di dati così vaste da risultare incomprensibili, ma quei dati sul mondo resteranno sempre incompleti. Nessun sensore o sistema di scraping può assorbire e registrare dati su tutto. Ogni sensore, invece, è progettato per raccogliere dati su aspetti iper-specifici. Ciò può sembrare banale, come un termometro che può restituire un numero sulla temperatura, ma non può dirti che cosa si provi davvero con quel clima. Oppure può essere più significativo, come un algoritmo di riconoscimento facciale che può identificare la geometria di un volto, ma non può cogliere l’umanità soggettiva e il contesto sociale della persona. I dati non potranno mai rappresentare ogni fibra dell’essere di un individuo, né rendere conto di ogni sfumatura della sua vita complessa.  Ma non è questo lo scopo né il valore dei dati. Il punto è trasformare soggetti umani integrati in oggetti di dati frammentati. Infatti, ci sono sistemi che hanno l’obiettivo di conoscerci in modo inquietante e invasivo, di assemblare questi dati e usarli per alimentare algoritmi di targeting iper-personalizzati. Se questi sistemi non stanno cercando di comporre un nostro profilo completo e accurato possibile, allora qual è lo scopo? Ecco però un punto importante: chi estrae dati non si interessa a noi come individui isolati, ma come collettivi relazionali. I nostri modi di pensare la raccolta e l’analisi dei dati tendono a basarsi su idee molto dirette e individualistiche di sorveglianza e informazione.  Ma oggi dobbiamo aggiornare il nostro modo di pensare la datificazione – e le possibili forme di intervento sociopolitico in questi sistemi guidati dai dati – per includere ciò che la giurista Salomé Viljoen chiama ‘relazioni “orizzontali’, che non si collocano a livello individuale, ma a scala di popolazione. Si tratta di flussi di dati che collegano molte persone, scorrono attraverso le reti in modi tali che le fonti, i raccoglitori, gli utilizzatori e le conseguenze dei dati si mescolano in forme impossibili da tracciare se continuiamo a ragionare in termini di relazioni più dirette e individualistiche.  Nel libro spiego che questa realtà delle reti di dati orizzontali indebolisce l’efficacia di interventi troppo concentrati sulla scala dei diritti individuali, piuttosto che sulla giustizia collettiva. Se vogliamo salvaguardare la dignità umana contro la datificazione disumanizzante, allora possiamo farlo solo riconoscendo come i diritti e la sicurezza di tutti i gruppi siano interconnessi attraverso queste reti guidate dai dati. In altre parole, la dignità e la sicurezza di un gruppo di persone colpite da sorveglianza e automazione è legata alla dignità e alla sicurezza di tutte le persone all’interno di questi vasti sistemi sociotecnici che letteralmente connettono ciascuno di noi”. Nel libro esprime il concetto di “AI Potemkin” per descrivere l’illusione di un’automazione che in realtà nasconde enormi quantità di lavoro umano. Un inganno per utenti, investitori e opinione pubblica: che cosa è esattamente questa illusione? “Ci sono tantissime affermazioni altisonanti sulle capacità dei sistemi di intelligenza artificiale. Ci viene fatto credere che queste tecnologie ‘intelligenti’ funzionino unicamente grazie ai loro enormi dataset e alle reti neurali.  In realtà, molte di queste tecnologie non funzionano – e non possono funzionare – nel modo in cui i loro sostenitori dichiarano. La tecnologia non è abbastanza avanzata. Al contrario, molti sistemi dipendono pesantemente dal lavoro umano per colmare le lacune delle loro capacità. In altre parole, il lavoro cognitivo che è essenziale per queste presunte macchine pensanti, proviene in realtà da uffici pieni di lavoratori (mal retribuiti) in popolari destinazioni di outsourcing come le Filippine, l’India o il Kenya. Ci sono stati diversi esempi di alto profilo, come la startup Builder.AI, che affermava di automatizzare il processo di creazione di app e siti web. Un’indagine ha rivelato che il sofisticato ‘sistema di AI’ della startup sostenuta da Microsoft e valutata 1,5 miliardi di dollari  era in realtà alimentato da centinaia di ingegneri software in India, istruiti a fingersi l’AI della società quando interagivano con i clienti. Esempi come questo sono così frequenti che ho coniato il termine AI Potemkin per descriverli. Potemkin si riferisce a una facciata progettata per nascondere la realtà di una situazione (da il villaggio Potemkin, ndr). L’AI Potemkin è collegata al concetto di ‘black boxing’, ma spinge l’occultamento fino alla vera e propria ingannevolezza. Lo scopo non è solo nascondere la realtà, ma mentire sulla realtà delle capacità di una tecnologia, per poter affermare che un sistema sia più potente e prezioso di quanto non sia in realtà. Invece di riconoscere e valorizzare pienamente il lavoro umano, da cui queste tecnologie dipendono, le aziende possono continuare a ignorare e svalutare i componenti umani indispensabili dei loro sistemi. Con così tanti soldi e così poco scetticismo che vengono pompati nel settore tecnologico, l’inganno dell’AI Potemkin continua a crescere a ogni nuovo ciclo di hype della Silicon Valley”. Per concludere, il capitale può eliminare il lavoro umano senza finire, alla lunga, per distruggere sé stesso? “Il capitalismo è un sistema definito da molte contraddizioni che minacciano costantemente di distruggerne le fondamenta e lo gettano di continuo in cicli di crisi. Una contraddizione importante che individuo nel libro è la ricerca del capitale di costruire quella che chiamo la ‘macchina del valore perpetuo’. In breve, questa macchina sarebbe un modo per creare e catturare una quantità infinita di plusvalore senza dover dipendere dal lavoro umano per produrlo. Il capitale persegue questa ricerca da centinaia di anni. Ha motivato enormi quantità di investimenti e innovazioni, nonostante non si sia mai avvicinato a realizzare davvero il sogno di produrre plusvalore senza le persone. Ciò che rende questa una contraddizione è il fatto che gli esseri umani non sono una componente accessoria della produzione di valore; il lavoro umano è parte integrante della produzione di plusvalore. L’AI è l’ultimo – e forse il più grande – tentativo di creare finalmente una macchina del valore perpetuo. Gran parte del discorso sull’automazione, e ora sull’intelligenza artificiale, si concentra sulle affermazioni secondo cui il lavoro umano verrà sostituito da lavoratori robotici, con l’assunzione che si tratti di una sostituzione diretta dei corpi organici con sistemi artificiali, entrambi intenti a fare esattamente la stessa cosa, solo in modi diversi e con intensità diverse. Tuttavia, a un livello fondamentale, l’idea di una macchina del valore perpetuo non può riuscire, perché si basa su un fraintendimento del rapporto tra la produzione di valore e il funzionamento della tecnologia. Il capitale equipara una relazione – gli esseri umani che usano strumenti per produrre valore – a un’altra relazione completamente diversa: gli strumenti che producono valore (con o senza esseri umani). Dal punto di vista del capitale, il problema degli esseri umani è che non sono macchine. Aziende come Amazon non vogliono rinunciare alla fantasia di una macchina del valore perpetuo, ma sanno anche che ci sono molte più alternative che sostituire direttamente gli uomini con le macchine: si possono anche gestire i lavoratori tramite le macchine, renderli subordinati alle macchine e, in ultima analisi, farli diventare sempre più simili a macchine. Questo è un punto cruciale per ripensare il potere dell’AI per il capitalismo e per capire perché le aziende stanno riversando più di mille miliardi di dollari nella costruzione dell’AI. Ai loro occhi, il futuro del capitalismo dipende dall’uso dell’AI per sostituire gli esseri umani come unica fonte di plusvalore o, se questo obiettivo fallisse, dall’obbligare i lavoratori a trasformarsi in oggetti, semplici estensioni delle macchine, costringendo le persone a diventare sempre più meccaniche nel modo in cui lavorano e vivono”. L'articolo “Siate meccanici, siate luddisti”: così si resiste al tecnocapitalismo proviene da Guerre di Rete.
Alcune informazioni sull'intelligenza artificiale
Una compagna a partire dagli articoli di giornale dell'estate ci illustra e commenta i recenti sviluppi derivanti dall'ampliamento delle infrastrutture per l'intelligenza artificiale. Dallo sviluppo dei data center all'energia per la sua alimentazione fino ai possibili impatti sul lavoro
I data center delle piattaforme prosciugano i rubinetti dell’acqua
Con lo sviluppo dell’intelligenza artificiale i data center consumano sempre più acqua, lasciando a secco intere comunità Una famiglia che abita nella contea di Newton, a un’ora e mezza in macchina da Atlanta, da diversi anni ha problemi con l’acqua. Racconta infatti il New York Times che dal 2018 la lavastoviglie, la macchina del ghiaccio, la lavatrice e il gabinetto hanno smesso uno per uno di funzionare. Poi, nel giro di un anno, la pressione dell’acqua si è ridotta a un rivolo. Finché dai rubinetti del bagno e della cucina non usciva più acqua. Nulla. Ma il problema, ovviamente, non riguarda solo questa famiglia. [...] Tutto questo perché? Perché dal 2018, appunto, è cominciata la costruzione del nuovo data center di Meta. I data center sono immensi centri di elaborazione dati che in breve tempo sono diventati la spina dorsale della nostra economia. Sono l’infrastruttura critica che alimenta l’archiviazione cloud, i servizi di emergenza, i sistemi bancari, le comunicazioni e la logistica. Ma sono i data center sono strutture gigantesche che consumano quantità immense di energia, suolo e acqua. Con il rapido sviluppo dell’intelligenza artificiale, questi consumi sono destinati a crescere a ritmo esponenziale. Leggi l'articolo
Vibe coding, quando credere troppo nell’IA ti distrugge il lavoro
Il caso di Jason Lemkin, dirigente d’impresa e investitore, che si è lasciato ammaliare dalle promesse dell’azienda di IA Replit, rischiando di perdere l’intero database di produzione: il cuore pulsante della sua attività professionale. A partire dal 12 luglio, il co-fondatore di Adobe EchoSign e SaaStr ha documentato via blog la sua esperienza personale con il vibe coding. Il primo approccio è stato idilliaco: adoperando un linguaggio naturale, il manager è riuscito “in una manciata di ore a costruire un prototipo che era molto, molto fico”. Un inizio estremamente promettente, soprattutto considerando che Replit si propone alle aziende come una soluzione accessibile anche a chi ha “zero competenze nella programmazione”, promettendo di far risparmiare alle aziende centinaia di migliaia di dollari. Leggendo tra le righe, la promessa implicita è chiara: sostituire i tecnici formati con personale più economico, supportato dall’IA. La premessa, tuttavia, è stata presto messa alla prova. “Dopo tre giorni e mezzo dall’inizio del mio nuovo progetto, ho controllato i costi su Replit: 607,70 dollari aggiuntivi oltre al piano d’abbonamento da 25 dollari al mese. Altri 200 dollari solo ieri”, ha rivelato Lemkin. “A questo ritmo, è probabile che spenderò 8.000 dollari al mese. E sapete una cosa? Neanche mi dispiace”. Anche perché, a detta del manager, sperimentare con il vibe coding è una “pura scarica di dopamina”, e Replit è “l’app più assuefacente” che abbia mai usato. Dopo poco, il manager si è reso conto che... Leggi l'articolo
Gotthard Günther / 70 anni dopo l’alba cibernetica
«Una di quelle affermazioni udite fino alla nausea è che una macchina non può essere creativa». Niente potrebbe suonare più trito di un’affermazione come questa nell’odierno dibattito sulle IA, ma per un testo filosofico apparso settanta anni fa, all’alba della rivoluzione cibernetica di Wiener, McCulloch e John Von Neumann, non riesco invece a immaginare una migliore garanzia di assoluta attualità. Rimandiamo al mittente quindi anche questa sgradevole sensazione di deja-vu. E a scanso di equivoci diciamo subito che La coscienza delle macchine non appartiene – come avverte prudentemente Alberto Giustiniano nell’introduzione – alla fiorente pubblicistica che dalle bacheche degli e-commerce e delle librerie preme per spiegarci come l’intelligenza artificiale migliorerà inevitabilmente le nostre vite e/o ci condurrà altrettanto inevitabilmente all’estinzione. Il saggio, ora tradotto da Orthotes, fu pubblicato per la prima volta negli Stati Uniti nel 1957 e rivisto dal suo autore nel 1963. In pratica costituì l’esordio americano di Gotthard Gunther e una delle prime, audaci riflessioni filosofiche sulla cibernetica e l’intelligenza artificiale del secolo scorso. Tedesco naturalizzato  americano, di quel contesto Gunther ha rappresentato sicuramente una delle menti imprescindibili e più brillanti, benché,   anche per ragioni linguistiche, un autore per lo più sottotraccia, malgrado il sostegno ricevuto da McCulloch e dal Dipartimento di Stato.  Allievo di  Eduard Spranger, laureato con una tesi di dottorato su Hegel, emigrò all’inizio della Seconda Guerra Mondiale in Sudafrica e di lì negli  USA dove divenne amico tra gli altri di autori di fantascienza come Isaac Asimov  e John W. Campbell. Ignorato dalla filosofia continentale è oggi oggetto di riscoperta da parte di una nuova generazione di ricercatori come Yuk Hui[1] Gunther parte osservando che la logica aristotelica classica risulterebbe inservibile per la cibernetica che, a differenza di altre discipline scientifiche, deve fare i conti con i fenomeni di un’intelligenza meccanica emergente. I principi di identità, non contraddizione e del terzo escluso, in particolare, non potrebbero aver ragione di quelle intricate capacità riflessive che chiamiamo coscienza e che esulano dal tradizionale binarismo soggetto/oggetto. Per supplire a questa inadeguatezza, la prima parte del saggio introduce i lineamenti di una possibile logica post-classica,  con un set di operatori transgiunzionali, prima di addentrarsi nel nucleo centrale della trattazione. Sul piano storico e metafisico l’idealismo tedesco,  verso cui La coscienza delle macchine riconosce pienamente il suo debito dalle prime pagine, avrebbe infatti introdotto un modo completamente diverso e nuovo di guardare alla riflessione e ai fenomeni dell’autocoscienza, fornendo concettualizzazioni rivelatesi cruciali per il tipo di soggettività richiesta successivamente dalla cibernetica. Gunther, in particolare,  attribuisce a Hegel la prima disamina scientificamente comunicabile dell’interiorità, attraverso un quadro concettuale formato da una pluralità di nuclei. Un modo formale e computabile per descrivere la soggettività e i suoi livelli di consapevolezza, superando i limiti della logica oggettiva bivalente (che alla fine può immaginare la coscienza soltanto nei termini di un “soffio vitale”). Un secolo e mezzo dopo Fichte e Hegel, non c’è più lo spirito del mondo a cavallo ma la bomba atomica e il computer. Nel nuovo mondo di Von Neumann e della teoria dell’informazione, il filosofo intende ora far emergere una coscienza cibernetico-trascendentale anche se non per questo, necessariamente, una coscienza assoluta, cioè “umana”. Più probabilmente, come osserva sempre Giustiniano, si tratterà di  “un’eccedenza di riflessione”, né soggetto né oggetto, la manifestazione di processi in ambienti a riflessività diffusa. Una visione che – ne La coscienza delle macchine come nel successivo Cybernetic Ontology and Transjunctional Operation (1962)[2] – sembra connettere il pensiero logico-matematico di Gunther direttamente alla rivoluzione cibernetica di Norbert Wiener, saltando tutte le caselle intermedie.  Dopotutto, come osserva Valeria Pinto [3] «Al di là del tratto apparentemente rivoluzionario la cibernetica si iscrive in una metafisica assolutamente conforme al paradigma occidentale, come Gunther positivamente rivendica».  Settanta anni dopo la direzione di questo rivolgimento è ancora oggetto di un dibattito contrastato, non così la sua portata, ormai sotto gli occhi di tutti. [1] Yuk Hui, Machine and Sovereignty, University of Minnesota Press, 2024 [2] Gotthard Gunther, Cybernetic Ontology and Transjunctional Operation, Self Organizing System, Spartan books, pp. 313-392, 1962 [3] Valeria Pinto, Quel genere di macchine che possono esplodere, apocalissi della tecnica e integrazione della cultura in MECHANE, Rivista di filosofia e antropologia della tecnica, 9/2025 L'articolo Gotthard Günther / 70 anni dopo l’alba cibernetica proviene da Pulp Magazine.