Tag - Meta

I data center delle piattaforme prosciugano i rubinetti dell’acqua
Con lo sviluppo dell’intelligenza artificiale i data center consumano sempre più acqua, lasciando a secco intere comunità Una famiglia che abita nella contea di Newton, a un’ora e mezza in macchina da Atlanta, da diversi anni ha problemi con l’acqua. Racconta infatti il New York Times che dal 2018 la lavastoviglie, la macchina del ghiaccio, la lavatrice e il gabinetto hanno smesso uno per uno di funzionare. Poi, nel giro di un anno, la pressione dell’acqua si è ridotta a un rivolo. Finché dai rubinetti del bagno e della cucina non usciva più acqua. Nulla. Ma il problema, ovviamente, non riguarda solo questa famiglia. [...] Tutto questo perché? Perché dal 2018, appunto, è cominciata la costruzione del nuovo data center di Meta. I data center sono immensi centri di elaborazione dati che in breve tempo sono diventati la spina dorsale della nostra economia. Sono l’infrastruttura critica che alimenta l’archiviazione cloud, i servizi di emergenza, i sistemi bancari, le comunicazioni e la logistica. Ma sono i data center sono strutture gigantesche che consumano quantità immense di energia, suolo e acqua. Con il rapido sviluppo dell’intelligenza artificiale, questi consumi sono destinati a crescere a ritmo esponenziale. Leggi l'articolo
Campagna israeliana per censurare i post pro Palestina su Facebook e Instagram, le prove
Abbiamo forse l’impressione di vedere un buon numero di messaggi postati sui social media a favore della resistenza palestinese, ma in realtà, secondo un gruppo di whistleblower (informatori)  impiegati presso Meta – la Big Tech che gestisce Facebook, Instagram e WhatsApp – i messaggi che vediamo effettivamente sono solo una piccola parte di tutti i messaggi pro-Palestina che sono stati postati.  La maggior parte non la potremo mai vedere perché è svanita nel nulla, censurata.  E, sempre secondo questi whistleblower, a promuovere la massiccia censura dei post contro il genocidio in corso a Gaza, c’è lo Stato sionista di Israele, con la piena complicità dei dirigenti di Meta. La denuncia di questi whistleblower appare in due documenti bomba che rivelano come oltre 90.000 post pro palestinesi sono stati indebitamente rimossi da Facebook e da Instagram su richiesta specifica del governo israeliano. I documenti offrono persino un esempio delle email che Israele ha scambiato con Meta per far sopprimere tutti quei post che Tel Aviv giudica “pro terroristi” o “antisemiti”.  (In realtà, dicono i whistleblower, si tratta di normali messaggi di solidarietà per la causa palestinese.) Inoltre, a causa dell’effetto a cascata insito negli algoritmi usati da Meta per vagliare in automatico i messaggi postati sulle sue piattaforme, altri trentotto milioni di post pro Palestina sarebbero spariti nel nulla dal 7 ottobre 2023.  In pratica, si tratta della più grande operazione di censura di massa nella storia moderna, concludono questi informatici militanti che ora, con il loro sito “ICW” (International Corruption Watch), hanno indossato anche i panni di giornalisti investigativi alla Julian Assange. Ma non si tratta soltanto di denunce di atti di censura.  Le rivelazioni dell’ICW mostrano come l’Intelligenza Artificiale (IA) possa essere facilmente manipolata per dare risposte tendenziose: proprio quelle volute da chi ha i mezzi per “avvelenare il pozzo” dei dati, come, in questo caso, Israele.  Si tratta di una denuncia che ci deve far riflettere tutti quanti.  Perché se l’IA può essere manipolata, allora anche noi possiamo essere manipolati ogni volta che leggiamo una cosiddetta riposta “obiettiva” generata dall’IA in una ricerca su Google, ogni volta che poniamo un quesito ad un’app IA che si professa “imparziale” come Chat-GPT o, infine, ogni volta che scegliamo di guardare un video segnalataci da una lista creata dall’IA di YouTube in base a sedicenti criteri di “popolarità”.  (In un precedente studio, l’ICW ha mostrato come, in realtà, gli algoritmi di You Tube – in maniera estremamente sottile – ci spingono a visionare video politicamente orientati a destra.)  In altre parole, l’apparente neutralità degli algoritmi IA usati non solo da Meta ma da tutte le Big Tech è puramente illusoria e dobbiamo esserne consapevoli. Meta sostiene, invece, che i meccanismi che usa per censurare determinati messaggi postati sui suoi social media siano imparziali.  Infatti, spiega Meta, in alto a destra di ogni post che appare su Facebook o su Instagram, c’è un tasto “Report” (“Segnala”) per consentire a chiunque di segnalare che quel post andrebbe rimosso – perché, ad esempio, esso sprona alla violenza, usa la calunnia o costituisce bullismo.  Quindi tutti gli utenti possono fare una “proposta di rimozione” (take down request) riguardante qualsiasi post che essi giudicano offensivo; saranno poi gli algoritmi IA di Meta a decidere se un post è davvero da rimuovere o meno, in base ad una valutazione “obiettiva”.  In conclusione, secondo Meta, se spariscono tanti post pro Palestina dalle sue piattaforme, è soltanto perché molti utenti li hanno segnalati come offensivi e l’algoritmo “obiettivo” di Meta ha convalidato questo loro giudizio. Ma chi abbia usato il tasto “Report” sa benissimo che solo in alcuni casi una richiesta di rimozione fatta da un utente qualsiasi viene accettata.  La procedura illustrata da Meta non può spiegare la sparizione di trentotto milioni di post pro Palestina. Ciò che Meta non dice pubblicamente, infatti, è che esiste anche un secondo canale per far rimuovere post indesiderati ed è proprio quello che ha usato Israele. Si tratta di un indirizzo email riservato, divulgato solo a governi o a grossi enti internazionali, che consente loro di presentare richieste di rimozione che verranno prese in carico prioritariamente, non da un algoritmo, ma da un essere umano (un “verificatore”). Molti governi, infatti, ricorrono a questa procedura per far censurare messaggi postati dai loro cittadini scontenti.  Meta accoglie le loro richieste, almeno in parte, sia per accondiscendenza, sia per evitare che le sue piattaforme vengano oscurate in quei Paesi. Israele, invece, è un caso a parte.  Inoltra a Meta richieste di censurare i commenti critici postati dai propri cittadini solo nell’1,3% dei casi.  (A titolo di paragone, il 95% delle richieste di rimozione fatte dal governo brasiliano riguarda messaggi postati dai cittadini brasiliani).  Ciò significa che nel 98,7% dei casi, il governo israeliano chiede a Meta di censurare messaggi pro Palestina postati sui social da cittadini che abitano fuori da Israele.  E lo fa attraverso una sua Cyber Unit creata appositamente. Così, Israele risulta il Paese con il maggior numero di richieste di rimozione pro capite – tre volte di più di qualsiasi altro. Non solo, ma a differenza di altri Paesi, Israele beneficia di un tasso di accettazione delle sue richieste del 94%, cifra che l’ICW giudica palesemente forzata e anche pericolosa.   Infatti, siccome le accettazioni dei verificatori umani vengono poi usate per addestrare gli algoritmi IA, quegli algoritmi subiscono un “avvelenamento” anti-palestinese e cominciano poi a censurare in automatico ogni futuro post con contenuti simili a quelli rimossi dai verificatori umani su richiesta della Cyber Unit.  In questa maniera, Israele riesce a censurare il resto del mondo. Un dato sorprendente emerge poi dalle rivelazioni dei whistleblower dell’ICW. Il Paese con il maggior numero di richieste di rimozione fatte dalla Cyber Unit non sono gli Stati Uniti o un Paese europeo bensì l’Egitto, che vanta il 21% del totale delle richieste di rimozione israeliane.  Perché questa attenzione particolare all’Egitto? I documenti sul sito dell’ICW non lo dicono, ma è facile indovinare: Facebook è il primario strumento di comunicazione tra gli egiziani ed è stata proprio una valanga di post su Facebook che ha innescato, nel gennaio e febbraio del 2011, manifestazioni anti-governative gigantesche in piazza Tahrir al Cairo (alcune con due milioni di partecipanti) e la conseguente caduta del regime del dittatore Mubarak.  Oggi, un simile massiccio tam-tam di post Facebook contro il blocco degli aiuti umanitari per Gaza al varco di Rafah potrebbe innescare un massiccio assalto popolare a quel varco. Infatti, esso si trova a soli cinque ore di macchina dal Cairo.  Chiaramente, dunque, Israele ha ogni interesse a prevenire una simile protesta: se i manifestanti fossero due milioni come nel 2011, il loro assalto al varco sarebbe incontrollabile.  Da qui l’assoluta priorità data alla rimozione dei post egiziani pro Palestina. I documenti fatti trapelare dai whistleblower di Meta sono stati elaborati da un informatico specializzato in IA, che si fa chiamare “nru”, per creare due documenti che egli ha poi pubblicato sul sito ICW NRU, Meta Leaks Part 1 l’11 agosto 2025 e Meta Leaks Part 2 il 15 agostohttps://bsky.app/profile/icw-nru.bsky.social.  I due documenti esistono anche in formato pdf, la prima parte si trova qui e la seconda parte qui. https://archive.org/details/meta_leaks_part_2/mode/1up?view=theater Una bozza della prima parte è apparsa l’11 aprile 2025 su DropSite News, ma senza provocare reazioni.  Ciò non significa, tuttavia, che la censura dei post pro Palestin da parte di Meta sia passata inosservata o che non susciti interesse. Anzi, già un anno e mezzo fa (21 dicembre 2023), Human Rights Watch (HRW) ha formalmente accusato Meta di censurare con sistematicità una buona parte dei commenti pro Palestina postati su Instagram e Facebook.  Come prove, HRW ha raccolto e analizzato le lamentele di un migliaio di utenti di queste piattaforme i cui post sono stati fatti sparire da Meta. Purtroppo, si tratta di prove necessariamente indirette perché HRW non ha accesso agli algoritmi usati; quindi Meta ha potuto attribuire le soppressioni dei post a non meglio precisate “imperfezioni in alcuni suoi algoritmi” (“bug“) che ha poi promesso di correggere col tempo.  E così, tutto è finito lì. Ora, invece, grazie alle rivelazioni di un piccolo gruppo di whistleblower all’interno di Meta, abbiamo le prove concrete che Meta continua a censurare i post pro Palestina, consapevolmente e impunemente. Infine, grazie alla loro denuncia della tecnica di “avvelenamento del pozzo” dei dati praticata da Israele, abbiamo un’idea più chiara dei limiti dell’Intelligenza Artificiale.  L’IA è palesemente un “pappagallo stocastico”, ovvero una creatura che “parla” usando calcoli di probabilità al posto di una vera consapevolezza di quello che dice.  Questo pappagallo può essere ammaestrato, poi, a presentare prioritariamente le informazioni che i suoi padroni hanno voluto, con maggiore insistenza, fargli incamerare.  In altre parole, apprendiamo che chiunque controlli l’addestramento di un’IA controllerà le basi e influenzerà le possibilità di deduzione grazie a cui quell’IA creerà le sue risposte.  Oggi chi controlla l’IA in Occidente è una manciata di miliardari della Silicon Valley legati alla lobby sionista, ma anche a tutte le più grosse lobby. In conclusione, l’IA è da usare, sì, ma con cautela; in quanto ai prodotti Meta (Facebook, Instagram, WhatsApp), meglio smettere di usarli.  Per quanto riguarda la vicenda Meta Leaks, essa svela solo uno dei vari intrighi escogitati dai sionisti per soffocare il grido che sale da Gaza. Vanno contrastati risolutamente, tutti quanti.         Patrick Boylan
Il fediverso inizia a pensare in grande
Dopo un lungo periodo di graduale apertura, Threads – il social network rivale di X e sviluppato da Meta – ha annunciato nel mese di giugno la sua completa integrazione con il fediverso (che sta per universo federato): l’ecosistema social decentralizzato il cui esponente più noto è Mastodon. In sintesi, tutte le piattaforme che fanno parte del fediverso sfruttano lo stesso protocollo e possono quindi comunicare l’una con l’altra. Di conseguenza, ogni utente che lo desidera potrà vedere all’interno di Threads, anche se in un feed diverso e con qualche altra limitazione, i post pubblicati dagli utenti del fediverso che si è scelto di seguire. E viceversa: gli utenti di Mastodon che lo desiderano – e sempre che la loro istanza lo consenta – potranno integrare i post pubblicati su Threads. [...] Da una parte, la speranza è che la massiccia infrastruttura di Threads possa far crescere la base utenti delle altre piattaforme del fediverso, incrementandone la visibilità; dall’altra, il timore – espresso anche da parecchi utenti – è che un colosso come Meta possa introdurre le logiche del “capitalismo della sorveglianza” in un mondo piccolo, fragile e che soprattutto a queste si è sempre fieramente contrapposto. È anche per questa ragione che molti utenti di Mastodon si oppongono all’integrazione di Threads e hanno espresso la loro intenzione di “defederare” Threads, impedendogli cioè di comunicare con le istanze di Mastodon che gestiscono. Leggi l'articolo sul sito di Guerre di Rete
La IA di WhatsApp riassume i messaggi non letti. Ma si legge tutte le chat
Preoccupazioni per la privacy. L'ultimo aggiornamento di WhatsApp è pensato per mettere la IA al servizio di chi si trova spesso sommerso dalle notifiche e riesce ad accumulare decine o magari centinaia di messaggi non letti, tra i quali poi deve destreggiarsi. Con la nuova funzione Message Summaries, già attiva negli Stati Uniti, WhatsApp genera infatti riassunti automatici dei messaggi non letti, sfruttando la IA di Meta. Il cuore della tecnologia è il Private Processing, un'infrastruttura che, secondo Meta, assicura che né Meta stessa né WhatsApp possano accedere ai contenuti delle conversazioni. I dati vengono elaborati in un ambiente protetto, al quale le richieste di elaborazione vengono inviate in modo anonimo e protette crittografia end-to-end. La questione della riservatezza per WhatsApp è particolarmente delicata: Meta ha una storia complessa in termini di privacy. Leggi l'articolo completo
Meta e il mega data center in Louisiana: così la “fame d’energia” dell’IA rischia di gonfiare le bollette dei cittadini Usa
I costi energetici di migliaia di server che effettuano miliardi di calcoli al secondo e i rischi per i cittadini Bollette più alte e nuove centrali a gas per soddisfare la fame d’energia di Meta, il colosso tech di Mark Zuckerberg. La multinazionale sta costruendo un gigantesco data center in Louisiana, nelle campagne di Holly Ridge (una vasta area rurale nel nord-est dello stato). Sono infrastrutture strategiche per Big Tech: i data center contengono migliaia di server che, a loro volta, effettuano miliardi di calcoli al secondo, lavorando senza sosta. È il “cervello” dell’intelligenza artificiale, che se ne serve per eseguire i compiti che gli vengono commissionati o, più banalmente, per fornirci le risposte richieste. Ma proprio perché i computer lavorano ininterrottamente in condizioni normali si surriscalderebbero; dunque, per evitare guasti tecnici, vanno raffreddati artificialmente (ad esempio, tramite aria condizionata industriale ad alta potenza). Bisogna poi alimentare la potenza di calcolo e sostenere i costi energetici relativi ai sistemi d’illuminazione o di sicurezza dell’infrastruttura. In definitiva, il fabbisogno complessivo di energia dei data center è già di per sé molto elevato. Ma Zuckerberg vuole costruire un arcipelago informatico che si estenderà su 370.000 metri quadrati (a grandi linee, un’area coperta da cinquantadue campi di calcio regolamentari). E secondo le stime di una Ong locale, Alliance for Affordable Energy, avrà bisogno del doppio dell’energia di cui vive New Orleans, una città che conta quasi quattrocentomila abitanti. Leggi l'articolo completo
Le domande intime degli altri fatte a Meta AI si possono leggere online
Se siete fra gli utenti delle app di Meta, come Facebook, Instagram o WhatsApp, fate attenzione alle domande che rivolgete a Meta AI, l’assistente basato sull’intelligenza artificiale integrato da qualche tempo in queste app e simboleggiato dall’onnipresente cerchietto blu. Moltissimi utenti, infatti, non si rendono conto che le richieste fatte a Meta AI non sempre sono private. Anzi, può capitare che vengano addirittura pubblicate online e rese leggibili a chiunque. Come quella che avete appena sentito. E sta capitando a molti. Tanta gente sta usando quest’intelligenza artificiale di Meta per chiedere cose estremamente personali e le sta affidando indirizzi, situazioni mediche, atti legali e altro ancora, senza rendersi conto che sta pubblicando tutto quanto, con conseguenze disastrose per la privacy e la protezione dei dati personali: non solo i propri, ma anche quelli degli altri. Questa è la storia di Meta AI, di come mai i dati personali degli utenti finiscono per essere pubblicati da quest’app e di come evitare che tutto questo accada. Benvenuti alla puntata del 16 giugno 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo. Ascolta il podcast o leggi la trascrizione della puntata
Zuckerberg fornirà caschi smart e AI per i soldati USA
Meta, colosso tech fondato da Mark Zuckerberg, e Anduril, la società di tecnologie per la difesa di Palmer Luckey (fondatore di Oculus acquisita da Facebook), stanno collaborando su una gamma di prodotti XR integrati, progettati specificamente per i soldati americani. Il ceo di Anduril, Palmer Luckey, ha elogiato la partnership come una spinta tecnologica necessaria per le forze armate. “Di tutti i settori in cui la tecnologia a duplice uso può fare la differenza per l’America, questo è quello che mi entusiasma di più”, ha affermato Luckey. “La mia missione è da tempo quella di trasformare i combattenti in tecnomanti, e i prodotti che stiamo sviluppando con Meta fanno proprio questo”. Da parte sua Zuckerberg ha dichiarato nella nota che “Meta ha trascorso l’ultimo decennio a sviluppare intelligenza artificiale e realtà aumentata per abilitare la piattaforma informatica del futuro”. “Siamo orgogliosi di collaborare con Anduril per contribuire a portare queste tecnologie ai militari americani che proteggono i nostri interessi in patria e all’estero” ha aggiunto il numero uno di Meta. Non va dimenticato che solo lo scorso novembre Meta ha cambiato politica per aprire Llama al governo degli Stati Uniti per “applicazioni di sicurezza nazionale”. Tra gli appaltatori governativi a cui Meta stava aprendo Llama ci sono Amazon Web Services, Lockheed Martin, Microsoft, Palantir e appunto Anduril. Articolo qui
LibGen e la ricerca universitaria piratata sono il nuovo giacimento di dati per allenare l'intelligenza artificiale
Meta ha usato anche LibGen, un database illegale online, per allenare la sua AI, scavalcando così il diritto d'autore e il lavoro di chi fa ricerca, che finisce sfruttato due volte. Ma il copyright non è la soluzione. Notizia di queste settimane è quella relativa all’utilizzo da parte di Meta di LibGen, un archivio online di materiali, anche accademici, piratati, per aiutare ad addestrare i suoi modelli linguistici di intelligenza artificiale generativa. La notizia è un paradosso, soprattutto, in particolare se letta dalla prospettiva della ricerca accademica. Chi scrive è l’opposto di un sostenitore del copyright: è un sistema che offre pochissima autonomia e un lievissimo sostegno ai piccoli, e dona, invece, un enorme potere ai grandi gruppi editoriali, oltre a essere un ostacolo alla libera circolazione della conoscenza e della cultura. [...] La razzia spregiudicata di questi contenuti è predatoria perché omette completamente l’esistenza di chi quei contenuti li ha creati, e non perché non ne rispetta il copyright, ma perché avanza una pretesa di possesso su quei contenuti come se non esista alcun livello ulteriore. È predatoria perché si rivolge, senza alcun ragionamento culturale, alla pirateria, che è stata creata per indebolire un sistema iniquo. Così facendo Meta crea un livello di sfruttamento ulteriore su quei contenuti, facendosi gioco di una strategia di resistenza, di fatto svuotandola. Il fatto che Meta si sia rivolta a un database illegale per questa operazione dimostra due cose: che il copyright è finito e non serve assolutamente a nulla (ma questo lo sapevamo già da molto) e, allo stesso tempo, che non esiste limite alcuno all’azione delle aziende tecnologiche e alle loro dinamiche estrattive. Non vi erano limiti all’estrazione di dati per la pubblicità targetizzata, perché dovrebbero esistere per l’AI generativa? Credere che questo contribuirà a indebolire il copyright o a finalmente mandarlo in soffitta è una favola che può funzionare solo in qualche narrazione determinista dove l’AI è un agente neutro, inevitabile e irrefrenabile, cui non è possibile, né giusto, porre limiti. È una narrazione tossica e di comodo, e molto pericolosa, ed è la stessa da decenni. La risposta non può certamente essere il copyright, ma nemmeno la resa incondizionata a questo pensiero che mischia linguaggio corporate a filosofia spiccia. Non abbiamo fatto e sostenuto le battaglie per la Rete libera, il fair use, le licenze creative commons e per la memoria di Aaron Swartz per fare finta che finire sfruttati da Meta una volta in più sia una cosa di cui essere contenti. Articolo completo qui
Per Apple e Meta sanzioni “soft” da parte della Commissione Ue. Dovranno pagare 700 milioni di euro
La Commissione Ue ha multato Apple per 500 milioni di euro e Meta per 200 milioni per violazioni del regolamento sui mercati digitali Dma. Si tratta di importi relativamente modesti rispetto a multe precedentemente comminate per simili infrazioni. Possibile che la scelta di Bruxelles di limitare l’ammontare delle sanzioni sia anche un “segnale” all’amministrazione Trump della volontà europea di non andare ad uno scontro su questioni commerciali. Il presidente statunitense ha definito le normae Ue sul settore tecnologici una barriera commerciale non tariffaria che i suoi dazi reciproci mirano a colpire. Un’ipotesi formalmente smentita dalla Commissione. “Si tratta di applicazione delle normative, non di commercio. Sono questioni distinte, completamente separate. Abbiamo un regolamento e lo stiamo applicando”, ha detto la portavoce della Commissione europea Arianna Podestà. Leggi l'articolo
Meta AI, come opporsi all'uso dei propri contenuti
È possibile impedire che l'intelligenza artificiale usi per l'addestramento ciò che abbiamo pubblicato sui social network. Ecco come L’annuncio è arrivato lo scorso 14 aprile: Meta comincerà ad addestrare il suo modello di intelligenza artificiale Meta AI con i dati pubblicati dagli utenti di Facebook e Instagram anche in Europa. La mossa dell’azienda di Mark Zuckerberg ha immediatamente provocato un vero tsunami di reazioni (prevedibilmente) negative e la maggiore preoccupazione degli utilizzatori dei social network targati Meta, al momento, è quella di sapere come impedire l’utilizzo dei loro contenuti per foraggiare l’algoritmo. L’azienda ha annunciato la possibilità di opporsi all’uso delle informazioni pubblicate, ma le cose non sono semplici come potrebbe sembrare. Nell’addestramento del modello, infatti, potremmo finirci anche se ci opponiamo all’utilizzo dei nostri dati. Come anticipato da Wired, Meta AI verrà addestrata usando i “contenuti pubblici condivisi da utenti adulti”. Sono esclusi, quindi, i post e i commenti pubblicati da utenti minori di 18 anni e i messaggi privati scambiati con altri contatti. Il riferimento ai commenti pubblici escluderebbe, almeno in teoria, tutti i contenuti che vengono pubblicati con restrizioni di visualizzazione. Se abbiamo cioè impostato l’account di Facebook per consentire l’accesso ai post solo ai nostri contatti o usiamo un account Instagram privato, questi dovrebbero essere esclusi dall’addestramento di Meta AI. Vi rientrerebbero, comunque, il nome, l’immagine profilo e altri contenuti come i commenti a post pubblici, le valutazioni o recensioni su Marketplace e su un account Instagram pubblico. leggi l'articolo Link diretto Facebook per opporsi Link diretto Instagram per opporsi