Tag - AI

L’Europa abbandona Big Tech?
Per conformarsi a un ordine esecutivo del presidente americano Donald Trump, nei mesi scorsi Microsoft ha sospeso l’account email di Karim Khan, procuratore della Corte penale internazionale che stava investigando su Israele per crimini di guerra. Per anni, scrive il New York Times, Microsoft ha fornito servizi email al tribunale con sede a L’Aja, riconosciuto da 125 paesi tra cui l’Italia (ma non da Stati Uniti, Israele, Cina, Russia e altri).  All’improvviso, il colosso di Redmond ha staccato la spina al magistrato per via dell’ordine esecutivo firmato da Trump che impedisce alle aziende americane di fornirgli servizi: secondo il successore di Biden, le azioni della Corte contro Netanyahu “costituiscono una inusuale e straordinaria minaccia alla sicurezza nazionale e alla politica estera degli Stati Uniti”.  Così, di punto in bianco, il procuratore non ha più potuto comunicare con i colleghi.  C’è stata una mediazione, ricostruisce il New York Times: dopo una riunione tra Redmond e i vertici della Corte si è deciso che la Cpi avrebbe potuto continuare a utilizzare i servizi di Microsoft. Anche perché l’azienda, secondo la ricostruzione del quotidiano, sarebbe stata fondamentale per la cybersecurity dell’organizzazione, finita nel mirino degli hacker russi dopo l’inchiesta per i crimini di guerra in Ucraina.  Il discorso, però, non vale per Khan, il cui account resta bloccato: cittadini e aziende statunitensi rischiano conseguenze serie – multe e persino l’arresto – se forniscono “supporto finanziario, materiale e tecnologico” a chi viene identificato come pericoloso per la sicurezza nazionale (spesso sulla base di ragionamenti dal sapore politico). Insomma, in una paradossale inversione di ruoli, il procuratore è diventato un criminale, trattato alla stregua di un nemico pubblico.  Le conseguenze non si sono fatte attendere. Tre dipendenti con contezza della situazione hanno rivelato al quotidiano newyorchese che alcuni membri dello staff della Corte si sarebbero rivolti all’azienda svizzera Protonmail per poter continuare a lavorare in sicurezza. Il giornale non chiarisce il perché della decisione, né se tra essi vi sia lo stesso Khan. Una conferma al riguardo arriva dall’agenzia Associated Press. Protonmail, contattata da Guerre di Rete, non ha commentato, spiegando di non rivelare informazioni personali sui clienti per questioni di privacy e di sicurezza. UNO CHOC PER LE CANCELLERIE Quello che conta è che la situazione ha scioccato le cancellerie europee: quasi tutte – e  il quasi è un mero ossequio al dubbio giornalistico – impiegano software, servizi e infrastrutture statunitensi per le proprie normali attività. Ma nel clima pesante di questi mesi sono saltate le classiche e paludate convenzioni della diplomazia: Trump negozia nelle cancellerie come farebbe con i colleghi palazzinari, senza andare troppo per il sottile. Non è possibile, non lo è per nessuno, prevedere la prossima mossa. Il punto è che correre ai ripari non è semplice: sia perché  uscire dalla “gabbia” creata dalle aziende, il cosiddetto “vendor lock in”, richiede tempo, formazione, strategia; sia perché esistono contratti in essere e la questione può diventare spinosa dal punto di vista giuridico. Ma anche perché – ed è una questione centrale – al momento le alternative, quando esistono, sono poco visibili. La situazione è seria. Per dare un’idea, l’Irish Council for Civil Liberties ha rivelato che il parlamento europeo ha un contratto di fornitura di servizi cloud con Amazon. L’accordo imporrebbe di utilizzare solo modelli linguistici di grandi dimensioni “ospitati” su Amazon Web Services. Somo, ong olandese che si occupa da cinquant’anni di monitorare l’attività delle multinazionali, ha rivelato in un recente rapporto gli accordi capestro che le società di intelligenza artificiale hanno dovuto sottoscrivere con Big Tech per sostenere i costi di sviluppo dell’AI (comprese società europee come Mistral e Aleph Alpha).  E tutte le aziende di riferimento, da Microsoft ad Amazon a Oracle a Google a Intel, sono statunitensi e possono quindi potenzialmente ricadere tra i destinatari degli ordini esecutivi di Trump.  LA DIFESA DI MICROSOFT Per riguadagnare fiducia e mercato – i clienti governativi spostano cifre importanti anche per una Big Tech – nei mesi scorsi Microsoft ha cercato di rassicurare i propri utenti europei.  Il presidente Brad Smith a fine aprile ha schierato l’azienda a fianco di Bruxelles: “Oggi ci impegniamo solennemente”, ha detto in una conferenza del think tank Atlantic Council. “Se in futuro un qualsiasi governo, in qualsiasi parte del mondo, dovesse emettere un ordine che intenda obbligare Microsoft a sospendere o cessare le operazioni e l’assistenza per l’Europa, faremo ricorso al tribunale. Percorreremo ogni via legale per opporci a un simile ordine”. Non solo: se le cause fossero, alla fine, perse, “i nostri partner europei avrebbero accesso al nostro codice sorgente di cui conserviamo una copia in un repository sicuro in Svizzera”, paese neutrale per antonomasia.  CHI STA GIÀ LASCIANDO LE BIG TECH Ma c’è qualcuno che, nonostante tutto, sta già lasciando le Big Tech? Due città danesi (Copenhagen e Aarhus) starebbero abbandonando Microsoft per il timore di finire tra le braccia di un monopolista. Il parlamento olandese, dal canto proprio, nelle scorse settimane ha approvato alcune mozioni per spingere il governo a non fare più affidamento sulla tecnologia cloud statunitense. Il timore è il cosiddetto vendor lock in, cioè la politica commerciale alla base della creazione degli ecosistemi in stile Apple: tutto griffato, tutto dello stesso brand, o dentro o fuori. Chi usa un certo elaboratore di testi avrà, così, la strada spianata se sceglierà di impiegare anche il foglio di calcolo e l’applicazione di videoconferenze della stessa società; andrà, invece, incontro a parecchie (e strategicamente posizionate) difficoltà nel caso dovesse decidere di avvalersi dei servizi di un’azienda concorrente. Ricordate i tempi in cui cambiare operatore di cellulare richiedeva di accollarsi il rischio di restare settimane senza telefono? Funziona esattamente allo stesso modo: uscire non è facile, perché l’obiettivo è proprio complicare la vita a chi decide di farlo.  Ma in questo caso la posta in gioco è molto più alta, perché non parliamo di singoli, per quanto importanti come i giudici di una corte internazionale, ma di intere amministrazioni. Lo US CLOUD Act firmato da Trump nel corso del primo mandato consente alle forze dell’ordine di imporre alle società tech di fornire accesso ai dati custoditi nella “nuvola” per investigare crimini particolarmente gravi: difficile mettersi al riparo.  Dall’altra parte, a un esame anche basilare di cybersecurity molti politici sarebbero bocciati: un’indagine della Corte dei conti olandese ha scoperto che molti ministri del governo hanno usato cloud di Google, Microsoft, Amazon senza essere consapevoli dei rischi potenziali. E non c’è ragione per pensare che altrove vada meglio. Italia compresa.    Qualcosa sta cambiando? Guerre di rete ha chiesto ad alcuni soggetti direttamente coinvolti se la copertura mediatica degli ultimi anni abbia alzato il livello di consapevolezza del pubblico e delle aziende sul tema.  “Negli ultimi dieci anni aziende e consumatori hanno cominciato a cambiare”, afferma al telefono Alexander Sander, policy consultant della Free software foundation. “Il problema è sbarazzarsi del vendor lock in, che significa essere ostaggio dell’ecosistema del fornitore: oggi è difficile passare da un prodotto all’altro, tutto funziona bene e facilmente solo se si utilizzano servizi di una sola azienda. Lo si è visto chiaramente nel periodo pandemico, quando la gente cercava disperatamente servizi di videoconferenza e tendeva a scegliere quelli dell’azienda con cui già lavorava: oggi vale anche per l’intelligenza artificiale, che devi pagare anche se non ti interessa, non ne hai bisogno o semplicemente preferisci usare quella di un’altra società”. Questo, prosegue l’esperto, “significa che alla fine costruisci una relazione con un solo marchio: migrare è complicato e costoso. Non solo: molti dei servizi commercializzati in Europa, lo vediamo, non rispettano le norme continentali dal punto di vista della privacy e della cybersecurity: il Patriot Act non rispecchia le nostre normative, e quindi – nel caso di un’azienda Usa che vende servizi in Europa – i servizi segreti possono avere accesso ai file”.  Sander suggerisce di usare software open source, “il cui codice sorgente è pubblico e in cui si possono anche cercare eventuali backdoor: se le individui puoi sistemarle tu stesso, o incaricare qualcun altro di fare le modifiche del caso. Con il software delle grandi multinazionali del tech, invece, devi scrivere all’azienda, che a propria volta ti risponderà se può o meno mettere mano al codice”. E, come visto, oltre alle decisioni di business conta anche il clima politico.  C’è un altro tema, rimarca Sander: “Un conto è negoziare con un paese come l’Italia o la Spagna, un conto è quando al tavolo si siede una piccola azienda”. In questo caso le tutele sono rasenti lo zero.  C’è un’azienda che fa peggio delle altre, chiediamo, in termini di rispetto dei diritti digitali? “In realtà, credo sia più un problema di modello di business. Dobbiamo crearci delle alternative. E penso che Stati e governi dovrebbero avere un ruolo nello stimolare i mercati in questo senso. L’Europa si è mossa bene con il Digital markets act: qui non ci mancano tanto le idee, quanto l’implementazione. E poi bisogna educare cittadini e consumatori a comprendere come funzionano certi modelli di business”.  Qualche passo in avanti si comincia a vedere: in Francia c’è il progetto La Suite numerique, che offre una serie completa di servizi digitali sotto la bandiera del governo di Parigi. In Germania c’è Open Desk di ZenDis, il Centro per la sovranità digitale di Berlino fondato nel 2022 come società a responsabilità limitata di proprietà del governo federale. Anche qui, c’è tutto il necessario per una pubblica amministrazione. La strada, però, è ancora lunga. LA VERSIONE DI PROTONMAIL E poi ci sono i privati. Protonmail (lo abbiamo già incontrato poco sopra) è un servizio email sicuro nato nel 2014 da scienziati che si sono incontrati al Cern di Ginevra. “Lo abbiamo creato per fornire una risposta alla crescente domanda di sicurezza e privacy nella posta elettronica, e anche perché ci siamo resi conto che internet non stava più lavorando nell’interesse degli utenti”, dice a Guerre di Rete Anant Vijay Singh, head of product della società elvetica. “L’email non rappresenta solo uno strumento di comunicazione importante, ma anche la nostra identità online. Noi assicuriamo all’utente di avere il pieno controllo sui  propri dati: li criptiamo, per cui nemmeno noi possiamo analizzare, monetizzare o accedere a informazioni personali. È così che siamo diventati attraenti per chi è stanco di società che sfruttano i dati personali per farci soldi, spesso senza il consenso degli utenti”.  Singh afferma che l’azienda si basa solo sugli abbonamenti: il servizio di base è gratuito, gli upgrade a pagamento. “Il maggiore azionista è la Proton Foundation, che è una non profit, il che significa che quando pensiamo a un prodotto mettiamo davanti le persone, e non i soldi. E questo in definitiva porta a un’esperienza utente migliore”.  Il manager conferma che qualcosa si muove. “Negli anni scorsi abbiamo visto che la gente ha cominciato a rifiutare il capitalismo della sorveglianza e a cercare alternative più sicure e rispettose della privacy: nel 2023 abbiamo superato i 100 milioni di account, e questa tendenza ha accelerato negli ultimi mesi su entrambe le sponde dell’Atlantico”.  Proton, assicura Singh, opera sotto la legge svizzera, “che sulla privacy è tra le più stringenti al mondo. Ma le normative cambiano, e se non bastassero c’è sempre la matematica [cioè la crittografia, ndr] a difendere gli utenti”. “Inoltre tutti i nostri prodotti sono open source e sottoposti a regolari verifiche sulla sicurezza da terze parti indipendenti”. I dati sono conservati in Svizzera, ma alcune porzioni, prosegue, anche in Germania e Norvegia. Singh non nasconde che la Rete ha tradito le aspettative dei creatori. “Per anni i giganti del web l’hanno plasmata sulla base dei propri interessi e la natura centralizzata di molti servizi ha esacerbato i problemi: grandi società controllano enormi quantità di dati. Anche la sorveglianza governativa ha giocato un ruolo nell’erodere la fiducia: le rivelazioni sui programmi di sorveglianza di massa hanno mostrato quanto sia grande il potere degli esecutivi nel monitorare le attività online”. Ma la gente “è sempre più consapevole che alternative esistono, e vuole acquistare ‘europeo’, perché conscia della eccessiva dipendenza da servizi americani”.    L’alternativa elvetica a WeTransfer C’è un altro servizio, sempre basato in Svizzera, che sta spopolando da qualche tempo e tra i clienti vanta molti grossi nomi corporate. Si chiama Swiss Transfer ed è l’alternativa al notissimo WeTransfer, nato olandese e recentemente comprato dall’italiana Bending Spoons. Infomaniak è la società madre. “Abbiamo creato Swiss Transfer innanzitutto per testare su larga scala la nostra infrastruttura basata su OpenStack Swift”, dice a Guerre di Rete Thomas Jacobsen, a capo della comunicazione e del marketing. “Offrire un servizio free e utile al pubblico è  un modo per dimostrare l’affidabilità e la robustezza delle nostre soluzioni. Ma, al di là dell’aspetto tecnico, è anche un modo per aumentare la consapevolezza di cosa sia Infomaniak senza fare affidamento sui tradizionali canali promozionali, come Facebook, Instagram, Google e Linkedin, che richiedono grossi budget per acquisire visibilità. Abbiamo preferito creare un tool che parla da sé, rispetta la privacy, non traccia e offre un valore quotidiano all’utente. E funziona. Milioni di persone usano Swiss Transfer, spesso senza sapere che dietro ci siamo noi. Direi, anzi, che è ironico: in alcuni paesi il brand è più conosciuto della società che ci sta dietro. Ma lo consideriamo un successo”.  Le informazioni, spiega Jacobsen, sono custodite in data center proprietari in Svizzera, protetti dalla legge elvetica. “E dal momento che lavoriamo con l’Europa, ci conformiamo al Gdpr”.  Il modello di business è particolare. “Infomaniak è una società svizzera indipendente, posseduta dai propri stessi dipendenti: oggi gli azionisti sono circa trenta. Questa autonomia assicura indipendenza, e il rispetto dei nostri valori: protezione della privacy, sostenibilità ambientale e supporto per l’economia locale. Tutto è prodotto e sviluppato in Svizzera: i nostri team sono qui, sia quello di sviluppo che il customer care, il che ci dà il controllo totale su tutta la catena del valore, senza intermediari. Significa trasparenza, massima reattività e alta confidenzialità dei dati del cliente, che non verranno mai usati per altri fini se non quello di fornire i servizi richiesti”.   Chiediamo: ma siete davvero sicuri di essere in grado di sostituire i prodotti delle grandi multinazionali? “Sì. È sbagliato pensare che solo le Big Tech possano soddisfare le esigenze di grandi organizzazioni: lavoriamo già con oltre tremila media company tra cui radio e televisioni, ma anche banche centrali, università, governi locali e anche infrastrutture critiche”. Jacobsen sa che uno dei colli di bottiglia è la paura delle difficoltà nella migrazione, e parla di supporto personalizzato 24/7 . “La nostra filosofia è semplice: ci guadagnamo da vivere solo con i nostri clienti, non con i loro dati. Non li vendiamo e i servizi gratuiti sono interamente finanziati da quelli a pagamento: può sembrare strano, ma paghiamo tutti i nostri stipendi in Svizzera, e nonostante ciò  spesso riusciamo a offrire prezzi più competitivi. E funziona da trent’anni”. I dipendenti sono trecento, in crescita: “Ma siamo per la biodiversità digitale: il mondo ha bisogno di alternative locali dovunque”. Jacobsen va oltre: “I dati sono le materie prime dell’intelligenza artificiale e un asset strategico, ma l’Europa continua a spendere milioni di euro di soldi pubblici in soluzioni proprietarie come quelle di Microsoft, Amazon o Google senza reali benefici locali [sul tema lavora anche la campagna Public money, public code, ndr]. Queste piattaforme portano i profitti in America, creano posti di lavoro lì e aumentano la nostra dipendenza. Ma c’è di più: Big Tech investe un sacco di soldi per portare via i nostri migliori ingegneri e ricercatori, spesso formati con denaro pubblico. Per esempio, Meta ha recentemente assunto tre ricercatori dell’ufficio di Zurigo di OpenAI con offerte che a quanto pare hanno raggiunto i cento milioni di dollari. Nel frattempo, quando si presenta una necessità tecnologica negli Stati Uniti, il governo federale non esita ad aprire linee di credito eccezionali per supportare i player locali con contratti da miliardi di dollari, come nel caso di Palantir, OpenAI o cloud provider come Oracle. E l’Europa? Che sta facendo? Firma contratti con società straniere, anche se esistono alternative forti vicino a casa: noi in Svizzera, ma anche Scaleway  e OvhCloud in Francia, Aruba in Italia o Hetzner in Germania”.  Se davvero conquisteremo la biodiversità digitale, lo scopriremo nei prossimi anni. Certo, per cambiare rotta, ci vuole coraggio. E, come dice ancora Sanders, tempo. “C’è un movimento verso il software libero più o meno in tutti i paesi. Dieci anni fa era molto più difficile. Oggi governi e amministrazioni stanno cercando di cambiare passo dopo passo per uscire da questo vendor lock in, e non solo per i pc desktop: si stanno rendendo conto che si tratta anche delle infrastrutture, come i server.Il processo  non è immediato, un’amministrazione non dice all’improvviso: voglio passare al software libero. Ma piuttosto, quando si pone la necessità di acquistare un servizio, comincia a considerare le alternative”. Del resto, se ci sono voluti trent’anni per arrivare fin qui, è difficile immaginare che si possa invertire la rotta dall’oggi al domani L'articolo L’Europa abbandona Big Tech? proviene da Guerre di Rete.
Strane analogie, LLM sta al linguaggio umano come i numeri razionali stanno ai numeri reali
Riporto un testo di Alberto Messina apparso su Linkedin. E' da tempo che rimescolo nella testa un’analogia un po’ strana, ma che continua a sembrarmi feconda - oggi voglio condividerla per divertirmi con voi in qualche discussione: Il testo generato da un LLM sta al linguaggio umano come i numeri razionali stanno ai numeri reali. A prima vista può sembrare poetica o azzardata, a seconda vista una supercazzola, ma esprime un punto per me importante. I numeri razionali sono densi: tra due numeri reali qualsiasi, ce n’è sempre uno razionale. Computabili, regolari, enumerabili, possiamo generarli con regole fisse. I numeri reali, invece, includono gli irrazionali: incomprimibili, non numerabili, e molti di essi non possono essere calcolati da alcun algoritmo in maniera compiuta in un tempo finito. Ora pensiamo ai LLM. Essi generano testo prevedendo statisticamente il prossimo token, sulla base di grandi quantità di dati. Il risultato è fluente e denso nello spazio delle frasi plausibili. Ma, come i razionali, questa fluidità è vincolata: nasce da operazioni computabili, all’interno di un set finito di token. Non possono autonomamente inventare nuovi token, né deviare radicalmente dal sistema che li genera. Il linguaggio umano, invece, è un continuo creativo e aperto. Esso è situato in corpi, culture, storie, è affettivo, ambiguo, non deterministico. E' espandibile: possiamo coniare parole, sovvertire grammatiche, rompere aspettative. E' onomatopeico e sonoro: possiamo dire “zot!”, “sgnac”, “brummm”, “fiuuu”, senza regole o significati condivisi, ma certi che qualcuno capirà. Infine, è spesso non computabile non perché sia casuale, ma perché è immerso in una realtà vissuta e storicamente aperta. Una differenza profonda emerge anche dall'analogia con un principio dell’analisi matematica: l’assioma degli intervalli incapsulati: in ℝ una sequenza di intervalli "sempre più stretti" converge a un punto esatto (si perdoni la sintesi). Nel linguaggio umano, possiamo raffinare indefinitamente ciò che vogliamo dire, e arriviamo proprio al significato, a quel concetto vissuto e condiviso con gli altri. In un LLM, al contrario, anche con prompt sempre più precisi, si resta sempre intorno, in una serie di approssimazioni che non contengono mai davvero il punto. A me capita spesso di interagire son un chatbot per qualche minuto e poi di uscire dall'interazione per completare, per dare la pennellata essenziale al concetto. Come le approssimazioni razionali di π, il testo di un LLM può avvicinarsi molto a quello umano. Ma c’è sempre un residuo, qualcosa che manca: la trama stessa del significato, dell’intenzione, della possibilità inventiva, del puro gioco fonico. Questo non è un rifiuto dei LLM le loro capacità sono straordinarie. E' un promemoria: la fluidità sintattica non equivale alla profondità semantica. E l’approssimazione statistica non è comunicazione vissuta. Non scambiamo uno spazio denso per un continuum reale. Restiamo curiosi su ciò che questi modelli possono fare ma anche lucidi su ciò che non possono. Il testo originale è su Linkedin
Eliza colpisce ancora
Lezioni di Cassandra/ L'alter ego di Cassandra ha fatto una chiacchierata eretica sulle false IA in un paio di eventi pubblici, apparentemente con una certa soddisfazione dei presenti; perché allora non trasformare gli appunti in una esternazione vera e propria, salvandoli dall'oblio digitale? Se oggi siamo in questa situazione è tutta colpa di Joseph Weizenbaum, noto eretico dell'informatica. Anzi, è colpa di Joseph Weizenbaum e della sua segretaria. Ma andiamo con ordine. Nell'ambito dell'intelligenza artificiale, una delle pietre miliari più conosciute è stato ELIZA, un programma informatico sviluppato appunto da Weizenbaum nel 1966, che ha rivoluzionato la nostra comprensione delle interazioni tra l'uomo e la macchina. Eliza, sebbene rudimentale rispetto agli standard odierni, ha gettato le basi per molte delle tecnologie di chatbot e assistenti virtuali che utilizziamo oggi. [...] In 70 anni di storia dell'IA sono stati sviluppati i motori di inferenza, le reti neurali, le tecniche di apprendimento profondo: tutte cose che nei loro ambiti funzionano benissimo. Se non li avete mai sentiti nominare, ricorderete certo le notizie che l'IA referta le TAC meglio di un radiologo e che ha battuto i campioni mondiali di scacchi e Go (dama cinese). Tre anni fa una tecnologia già nota da tempo, gli LLM (Large Language Models — Grandi modelli di Linguaggio) ha cominciato a funzionare. Perché? Per semplici motivi di scala, cioè l'utilizzo di server più potenti per eseguirli e di più informazioni con cui allenarli. La speculazione finanziaria delle dotcom in cerca di nuove opportunità di far soldi ci si è buttata a pesce. Improvvisamente ChatGPT e i suoi fratelli sono diventati disponibili a chiunque gratuitamente: hanno cominciato ad affascinare tutti esattamente come Eliza aveva fatto con la segretaria di Weizenbaum. Ma, come Eliza, un LLM non sa niente, non comprende niente, non può rispondere a nessuna domanda e nemmeno rispondere sempre nello stesso modo. Leggi l'articolo su ZEUS News
La Silicon Valley è pronta ad andare in guerra
Da culla del progressismo a cuore dell’industria bellica a stelle e strisce: Meta, OpenAI, Microsoft, Anduril e l’inarrestabile crescita della defence tech. “C’è un sacco di patriottismo che è stato a lungo tenuto nascosto e che adesso sta venendo alla luce”, ha spiegato al Wall Street Journal, Andrew Bosworth, direttore tecnico di Meta. Bosworth – assieme a Kevin Weil e Bob McGrew, rispettivamente responsabile del prodotto ed ex responsabile della ricerca di OpenAI, ai quali si aggiunge Shyam Sankar, direttore tecnico di Palantir – è infatti uno dei quattro dirigenti tech assoldati in quello che è stato ironicamente chiamato “Army Innovation Corps” - Corpo degli ingegneri degli Stati Uniti (il nome ufficiale del programma è Detachment 201). Il clima che si respira oggi nella Silicon Valley è molto differente, la maschera progressista che le Big Tech hanno a lungo indossato è stata infine calata (come mostrato plasticamente dall’ormai storica foto che ritrae i principali “broligarchs” celebrare l’insediamento di Donald Trump), e adesso nessuno sembra più farsi scrupoli a seguire la strada tracciata dalle due più note realtà del settore “defence tech”: Palantir e Anduril, aziende fondate rispettivamente dall’eminenza grigia della tech-right Peter Thiel e dal guerrafondaio Palmer Luckey (già noto per aver fondato Oculus, poi acquistata da Meta, e per rilasciare dichiarazione come: “Vogliamo costruire tecnologie che ci diano la capacità di vincere facilmente ogni guerra”). Articolo completo qui
La IA di WhatsApp riassume i messaggi non letti. Ma si legge tutte le chat
Preoccupazioni per la privacy. L'ultimo aggiornamento di WhatsApp è pensato per mettere la IA al servizio di chi si trova spesso sommerso dalle notifiche e riesce ad accumulare decine o magari centinaia di messaggi non letti, tra i quali poi deve destreggiarsi. Con la nuova funzione Message Summaries, già attiva negli Stati Uniti, WhatsApp genera infatti riassunti automatici dei messaggi non letti, sfruttando la IA di Meta. Il cuore della tecnologia è il Private Processing, un'infrastruttura che, secondo Meta, assicura che né Meta stessa né WhatsApp possano accedere ai contenuti delle conversazioni. I dati vengono elaborati in un ambiente protetto, al quale le richieste di elaborazione vengono inviate in modo anonimo e protette crittografia end-to-end. La questione della riservatezza per WhatsApp è particolarmente delicata: Meta ha una storia complessa in termini di privacy. Leggi l'articolo completo
Meta e il mega data center in Louisiana: così la “fame d’energia” dell’IA rischia di gonfiare le bollette dei cittadini Usa
I costi energetici di migliaia di server che effettuano miliardi di calcoli al secondo e i rischi per i cittadini Bollette più alte e nuove centrali a gas per soddisfare la fame d’energia di Meta, il colosso tech di Mark Zuckerberg. La multinazionale sta costruendo un gigantesco data center in Louisiana, nelle campagne di Holly Ridge (una vasta area rurale nel nord-est dello stato). Sono infrastrutture strategiche per Big Tech: i data center contengono migliaia di server che, a loro volta, effettuano miliardi di calcoli al secondo, lavorando senza sosta. È il “cervello” dell’intelligenza artificiale, che se ne serve per eseguire i compiti che gli vengono commissionati o, più banalmente, per fornirci le risposte richieste. Ma proprio perché i computer lavorano ininterrottamente in condizioni normali si surriscalderebbero; dunque, per evitare guasti tecnici, vanno raffreddati artificialmente (ad esempio, tramite aria condizionata industriale ad alta potenza). Bisogna poi alimentare la potenza di calcolo e sostenere i costi energetici relativi ai sistemi d’illuminazione o di sicurezza dell’infrastruttura. In definitiva, il fabbisogno complessivo di energia dei data center è già di per sé molto elevato. Ma Zuckerberg vuole costruire un arcipelago informatico che si estenderà su 370.000 metri quadrati (a grandi linee, un’area coperta da cinquantadue campi di calcio regolamentari). E secondo le stime di una Ong locale, Alliance for Affordable Energy, avrà bisogno del doppio dell’energia di cui vive New Orleans, una città che conta quasi quattrocentomila abitanti. Leggi l'articolo completo
Intelligenza artificiale: sorveglianza, controllo, abusi
Molti ne sono entusiasti: l’AI (Artificial Intelligence), nella forma di ChatGPT (Generative Pre-Trained Transformer Chat) li aiuta a scrivere curriculum e testi, fa ricerche e le consegna ben confezionate, svolge perfettamente i temi scolastici partendo anche dalla traccia più difficile, spiega come procedere nel caso di controversie condominiali. E poi, da brava chat, chiacchiera con te. Puoi darle un nome. Puoi allenarla persino, se sei bravo e sai come aggirare certi limiti imposti, a fornirti eccitazioni erotiche, come se stessi parlando con un essere umano. C’è chi giura che svolga, gratis, addirittura il lavoro di uno psicoanalista, e chi ha smesso di consultare google quando avverte dei sintomi preoccupanti, perché ChatGPT è capace di fornire diagnosi mediche accurate. Ci sono preoccupazioni etiche, ci sono paure. Presto ci trasformeremo tutti in AI-dipendenti, restii a imparare perché non servirà più, goffi nello scrivere perché anche questo non servirà più, inabili nel prendere decisioni perché l’intelligenza artificiale lo saprà fare molto meglio di noi, dotata come sarà (è) di una quantità quasi smisurata di informazioni, scaltrissima nell’effettuare collegamenti che a noi non sarebbero mai venuti in mente, e soprattutto razionale, priva di quelle debolezze psicologiche-emotive che inducono gli umani a commettere errori? Sì, qualcuno ha di questi pensieri. Ma in prospettiva, come materia di riflessione filosofica. Intanto, i problemi che si lamentano, immediati ma che tutto sommato sembrano di scarsa importanza, sono le foto “finte”, immagini di scene che raccontano persone che non esistono, vicende mai avvenute, talmente rifinite da essere scambiate per vere. Ci si stupisce, al massimo. Uno spunto per prendere in giro chi si è lasciato ingannare, e vantarci che noi no, noi siamo più furbi. L’intelligenza artificiale non ci frega. Ben altri sono i risvolti di una tecnologia che è andata molto più avanti di quanto,  a meno che non siamo del settore, possiamo immaginare. Si è impegnata in un’indagine che l’ha portata in giro per il mondo l’immunologa e giornalista scientifica indiana Madhumita Murgia, che ha iniziato le sue ricerche aspettandosi di scoprire come l’AI avesse risolto problemi difficili e migliorato la vita di molte persone. Non è però stato così. Nel suo viaggio, riportato nel libro Essere umani. L’impatto dell’intelligenza artificiale sulle nostre vite (ed. Neri Pozza), ha dovuto registrare quanto pesanti, a volte devastanti e comunque sempre manipolatorie possano essere le conseguenze dell’AI sugli individui, sulle comunità e sulle culture in generale. Murgia approfondisce dei casi esemplari, persone che solo apparentemente non hanno nulla in comune tra loro: un medico dell’India rurale, un rider di Pittsburg, un ingegnere afroamericano, una funzionaria burocratica argentina, una rifugiata irachena a Sofia, una madre single ad Amsterdam, un’attivista cinese in esilio.  Diana, la madre single: una storia kafkiana. Due suoi figli minori erano stati inseriti in liste di “ragazzi ad alto rischio di diventare criminali”, liste compilate con un sistema progettato dall’AI e basate su punteggi di rischio, con punti assegnati non solo per aver commesso un reato, ma per essere stati spesso assenti a scuola, aver assistito a una violenza, essere parente di qualcuno che ha guai con la giustizia, vivere in un quartiere povero o semplicemente essere poveri (le cosiddette “variabili proxy”). A quel punto, ecco una serie di misure volte a “tutelare” la società e prevenire il crimine. Interventi continui e quasi persecutori, con visite ripetute di assistenti sociali, poliziotti, funzionari a controllare e redarguire il genitore –  Diana, in questo caso – trattandolo come un demente, rimproverandolo, minacciandolo. Piatti sporchi nel lavello? Attenzione, potremmo doverti portare via la bambina piccola.  È chiaro che così le situazioni di disagio e povertà non possono che peggiorare. Non esistono perdono, aiuto, comprensione. Nato povero e sfortunato, sei destinato a diventarlo ancora di più. Diana aveva finito col perdere il lavoro, stressata com’era, ed era stata ricoverata in ospedale con palpitazioni cardiache. «Le liste generate dall’algoritmo non erano soltanto fattori predittivi», scrive Murgia. «Erano maledizioni».  Uno degli aspetti più lamentati da chi frequenta i social riguarda la rimozione di immagini e contenuti. Viene subita da utenti che hanno semplicemente postato un quadro rappresentante un nudo, e viene subita anche, al contrario, da chi si trova di fronte foto e filmati cruenti accompagnati da commenti di giubilo, e si domanda perché non siano stati censurati. Quello che non ci domandiamo è chi siano i censori. Attraverso storie vere e dati, Murgia racconta quanto porti al DPTS (disturbi post-traumatici da stress) il dover vagliare i contenuti dei social, guardando violenze e atti d’odio a ritmo sostenuto per tutto il tempo, in modo, oggi, di addestrare gli algoritmi. Un lavoro a sua volta guidato dagli algoritmi: pausa pranzo e tempo per andare in bagno predeterminati, come la produttività, che non deve scendere sotto una certa soglia. A fronte di questo, remunerazione bassa, accordi di segretezza, scoraggiato in ogni modo il contatto con i colleghi, e figuriamoci l’unirsi in sindacato.   C’è poi il risvolto della sostituzione dell’AI generativa in lavori prettamente umani: illustratori, copywriter, progettisti di videogiochi, animatori e doppiatori si trovano già adesso in grande difficoltà, e molti dichiarano che viene chiesto loro, più che di creare… di correggere ciò che è stato fatto dall’AI (pagati un decimo rispetto a prima). E c’è la questione contraffazione, il “deepfake”: generati dalle tecnologie AI, foto di persone reali prese da Internet che un software fonde con corpi di attori porno, ottenendo video assolutamente realistici di cui non sarà facile ottenere la rimozione (su TikTok era diventato virale già nel 2020 un video deepfake di Tom Cruise, e parliamo di cinque anni fa, quando i software erano meno sofisticati di oggi).  Non dimentichiamo nemmeno i pregiudizi. Un esempio: il modo in cui vengono calcolati i punteggi di rischio che riguardano la salute. Negli USA, i pazienti neri – e con redito basso – sembravano avere punteggi più bassi, ma questo non accadeva perché si ammalassero meno, ma perché i progettatori avevano addestrato il sistema a stimare la salute i una persona in base ai suoi costi sanitari (e più si è poveri, meno si ricorre all’assistenza sanitaria). Attivisti pieni di buona volontà stanno cercando di raddrizzare le cose. Non è detto che non ci riescano, ma intanto quanti danni sono stati fatti?  Si potrebbe continuare a lungo, e Murgia non si è tirata indietro. Ha indagato le più varie situazioni, incontrato avvocati che cercano di difendere chi è rimasto intrappolato da questi sistemi opachi che possono disporre delle nostre vite e procurarci danni anche senza che lo sappiamo. E ha affrontato il tema forse più delicato e spaventoso: il controllo. In Cina (e Murgia porta riferimenti precisi) esistono già da un po’ sistemi software interconnessi che aggregano i dati dei cittadini e l collegano ai database della polizia.  Gli algoritmi a funzione predittiva considerano sospette decine di comportamenti (addirittura spegnere ripetutamente il cellulare e avere certe espressioni del viso, riprese dalle infinite videocamere), e per motivi di “sicurezza pubblica” moltissimi cittadini, soprattutto dissidenti o appartenenti a gruppi etnici minoritari, sono stati e sono sorvegliati e vessati, quando non portati in campi di rieducazione. Sorveglianza e controllo. Capillari, incessanti. I governi (la rete di connessioni esisterà solo in Cina? non scherziamo) potranno a breve arrivare a prevedere e neutralizzare qualunque azione o manifestazione di protesta, sia individuale che collettiva. E le aziende tecnologiche, con miliardi di utenti, aumenteranno il loro potere, che già è immenso. George Orwell, in 1984. Ninteeen Eighty Four, scritto nel 1949: «Se vuoi un’immagine del futuro, immagina uno stivale che schiaccia il volto umano. Per sempre». Susanna Schimperna
[entropia massima] Estrattivismo dei dati
Puntata 27, ottava del ciclo Estrattivismo dei dati, parliamo di digitale e psicoanalisi. Presentiamo "I Popoli dell’Es", il nuovo libro di Chiara Buoncristiani e Tommaso Romani, entrambi psicoanalisti e ricercatori a Roma. Tra riflessioni sul nostro rapporto con le tecnologie e l’ibridazione delle soggettività. PRIMA PARTE: ISTITUZIONI DIGITALI E APOCALISSE QUOTIDIANA Si parte dal rito del doomscrolling, che rivela come i feed personalizzati abbiano preso il posto di scuole, famiglie e chiese: le “istituzioni” che un tempo garantivano orientamento psichico, vengono oggi sostituite da algoritmi e flussi informativi. L’attenzione, moneta del capitalismo cognitivo, ci cala in un sentimento apocalittico — inteso sia come rovina sia come rivelazione — che da un lato manifesta la crisi di poteri gerarchici e, dall’altro, apre spazi di desiderio politico orizzontale. Tra i rischi di fake news e neo-verità, emerge però la possibilità che molte voci marginali trovino finalmente ascolto. SECONDA PARTE: IBRIDAZIONE E SCRITTURA COLLETTIVA Il cuore del libro pulsa in un approccio assemblage, dove mondi interiori e realtà digitali non si fronteggiano ma si intrecciano in un “tra” di soggettività multiple. La scrittura diventa pratica politica: non un dialogo a due, ma un montaggio di frasi e contributi — da psicoanalisti, antropologi, filosofi, teorici queer e artisti — che dà forma a un «collettivo» di voci. Il capitolo “Nexa”, realizzato in forma collettiva, incarna l’idea deleuziana di concatenamento, mostrando come ogni soggettività sia a sua volta un piccolo arcipelago di relazioni. TERZA PARTE: TECNOLOGIE, CORPO E INTELLIGENZA ARTIFICIALE Conclude la puntata un’immersione nell’ibridazione tra corpo reale e “corpo algoritmico”: protesi, botox, like sui social diventano spinte pulsionali che rimodellano i nostri desideri. Dal cyber-femminismo alla nozione di “soggetto nomade”, si esplora come le IA non ci rispecchino passivamente, ma diventino l’altro con cui negoziare un «macro-organismo» postumano. Tra visioni transumaniste di potenza e prospettive postumane più democratiche, il futuro si gioca nella capacità di coesistere — umani, altre specie e macchine — in un equilibrio dinamico e ancora tutto da raccontare.   TRASCRIZIONE INTEGRALE DELLA PUNTATA.  
Your Brain on ChatGPT
Una segnalazione di lettura della Stultiferanavis: un paper pubblicato con accesso libero su Arxiv.org dal titolo Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task In modo disomogeneo e non così diffuso come molti raccontano, un numero crescente di persone e di aziende fa ricorso ogni giorno a strumenti di IA generative e ai modelli LLM. Interrogarsi su benefici ed effetti di questi comportamenti può risultare utile, forse anche interessante. E’ ciò che ha fatto un gruppo di ricercatori con lo studio “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”, pubblicato su Arxiv.org. Lo studio si è concentrato sull’individuazione del costo cognitivo derivante dall’utilizzo di un LLM on un contesto particolare, quello legato alla scrittura di un saggio. Leggi l'articolo di Carlo Mazzucchelli
Le domande intime degli altri fatte a Meta AI si possono leggere online
Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp, fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato sull’intelligenza artificiale integrato da qualche tempo in queste app e simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi, può capitare che vengano addirittura pubblicate online e rese leggibili a chiunque. Come quella che avete appena sentito. E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale di Meta per chiedere cose estremamente personali e le sta affidando indirizzi, situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta pubblicando tutto quanto, con conseguenze disastrose per la privacy e la protezione dei dati personali: non solo i propri, ma anche quelli degli altri. Questa è la storia di Meta AI, di come mai i dati personali degli utenti finiscono per essere pubblicati da quest’app e di come evitare che tutto questo accada. Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo. Ascolta il podcast o leggi la trascrizione della puntata