Tag - LLM

Le Dita Nella Presa - Nel ventre dell'IA
Nella puntata di domenenica 17 novembre intervistiamo Antonio Casilli sul lavoro nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che documentano il genocidio in Palestina: quali alternative? Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si situano nella società le data workers, ovvero le persone che fanno questi lavori? come è strutturata la divisione (internazionale) del lavoro che fa funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano? Per approfondire questi sono alcuni siti di lavoratori che si organizzano menzionati durante la trasmissione: * https://data-workers.org/ * https://datalabelers.org/ * https://turkopticon.net/ * https://www.alphabetworkersunion.org/ Inoltre: * L'approfondimento di Entropia Massima, sempre con Antonio Casilli * L'approfondimento di StakkaStakka di Luglio 2024, sempre con Antonio Casilli Tra le iniziative: * lo Scanlendario 2026 a sostegno di Gazaweb * 27 Novembre, alle cagne sciolte, presentazione del libro "Server donne" di Marzia Vaccari (Agenzia X, 2025) Ascolta la puntata intera o l'audio dei singoli temi trattati sul sito di Radio Onda Rossa
[Le Dita nella Presa] Nel ventre dell'IA (1/4: Puntata completa)
Intervistiamo Antonio Casilli sul lavoro nascosto e senza diritti che fa funzionare l'Intelligenza Artificiale; di questi temi parleremo meglio Giovedì 20 al Forte Prenestino con la proiezione di In the belly of AI. Segnaliamo alcune iniziative, poi le notiziole: l'Unione Europea attacca il GDPR per favorire le grandi imprese dell'IA; Google censura video che documentano il genocidio in Palestina: quali alternative? Nella lunga intervista con Antonio Casilli, professore ordinario all'Istituto Politecnico di Parigi e cofondatore del DiPLab, abbiamo parlato del rapporto tra Intelligenza Artificiale e lavoro: la quantità di lavoro diminuisce a causa dell'intelligenza artificiale? quali sono i nuovi lavori che crea? come si situano nella società le data workers, ovvero le persone che fanno questi lavori? come è strutturata la divisione (internazionale) del lavoro che fa funzionare l'intelligenza artificiale? è vero che sostituisce il lavoro umano? Per approfondire: * Questi alcuni siti di lavoratori che si organizzano menzionati durante la trasmissione: * https://data-workers.org/ * https://datalabelers.org/  * https://turkopticon.net/  * https://www.alphabetworkersunion.org/ * L'approfondimento di Entropia Massima, sempre con Antonio Casilli * L'approfondimento di StakkaStakka di Luglio 2024, sempre con Antonio Casilli Tra le iniziative: * lo Scanlendario 2026 a sostegno di Gazaweb * 27 Novembre, alle cagne sciolte, presentazione del libro "Server donne" di Marzia Vaccari (Agenzia X, 2025)  
Modelli linguistici: oracoli da bar con manie di grandezza
Le allucinazioni nei modelli linguistici sono un problema intrinseco, non un difetto risolvibile. I tentativi di controllo qualità sui dati richiedono risorse impossibili da ottenere. L’unica soluzione pratica: assistenti personali addestrati su dati limitati I modelli linguistici rappresentano oggi il cuore pulsante – e più fragile – dell’industria dell’intelligenza artificiale. Tra promesse di precisione e realtà di caos statistico, si rivelano strumenti tanto affascinanti quanto pericolosi, specchio fedele delle illusioni tecnologiche del nostro tempo. L‘insistenza criminale sui sistemi predittivi fallimentari C’è solo una cosa peggiore della continua serie di disastri inanellata da tutti i sistemi predittivi nelle pubbliche amministrazioni negli ultimi dieci anni, ed è la criminale, idiota insistenza a volersene dotare. Uno vorrebbe parlare di informatica parlando di scienza, bene, allora parliamo di tre articoli che i ricercatori in intelligenza artificiale hanno tirato fuori di recente. Ma non temete, non ci mettiamo a discuterli in dettaglio, facciamo un discorso più generale. leggi l'articolo di Vannini oppure ascolta il suo podcast (Dataknightmare)
Dopatevi con moderazione e andrà tutto bene
L’articolo di Marcello Oberosler, pubblicato su Il Dolomiti e qui riproposto, affronta il tema dell’uso dell’intelligenza artificiale nella scienza e nell’università, oggi sempre più diffuso e pervasivo. Dalle abitudini degli studenti ai comportamenti dei ricercatori, l’Ai è ormai parte integrante della produzione accademica, con implicazioni profonde sull’integrità della ricerca. Alberto Baccini, uno dei fondatori di ROARS, mette in guardia dai rischi di una “scienza dopata”, dove quantità e indicatori contano più della qualità. Tra linee guida inefficaci e incentivi distorti, emerge l’urgenza di un cambiamento strutturale nel modo in cui la ricerca viene valutata e finanziata. Gli studenti universitari italiani utilizzano quotidianamente l’intelligenza artificiale per cercare idee, riformulare testi, generare interi paragrafi. Si tratta di una realtà diffusa e normalizzata, di un dato di fatto: e se da un lato impressiona la rapidità con cui l’Ai è stata assorbita nel “quotidiano” degli studenti di ogni età, dall’altro preoccupa l’assenza di regolamenti chiari e di strumenti in grado di governare questo fenomeno deflagrante. Colpisce anche il fatto che (lo rivela una recente analisi di Cetu) l’uso dell’Ai cresca in modo proporzionale al livello accademico: e cioè che i dottorandi sono quelli più inclini ad integrarla nel proprio lavoro (ben l’87%) seguiti dagli studenti di laurea magistrale (84%) e quindi da quelli delle triennali (83%). Insomma, l’Ai non è uno strumento usato da “principianti” o da chi fatica a scrivere. Anzi, sembra vero esattamente l’opposto. E salendo ancora nella “gerarchia” accademica fino ad arrivare al mare magnum della ricerca universitaria, la situazione com’è? Da questa domanda partono le riflessioni di Alberto Baccini, fondatore e membro dell’Associazione Roars e professore ordinario di economia politica dell’Università di Siena. “L’impressione è che l’uso dell’intelligenza artificiale nel mondo della ricerca sia già ubiquo – racconta Baccini a il Dolomiti –. Non più di un paio di anni fa si scoprivano articoli fake andando a cercare le impronte dell’uso di traduttori automatici o di software specializzati come Mathgen (un generatore di matematica non sense) e Scigen (un generatore di articoli scientifici). Adesso l’impresa appare ancora più ardua e si ricorre all’analisi dello stile di scrittura per inferire l’uso di Llm (Large language models, ndr). Un articolo recente ha stimato che su 15 milioni di articoli di area biomedica indicizzati dal più grande magazzino di articoli medici del mondo (pubmed) ci sono evidenze che il 13,5% abbia usato Chat-gpt, con punte che arrivano al 30% per alcuni segmenti della letteratura”. Quali sono i principali rischi legati all’uso di strumenti di Ai nella redazione di paper accademici, specialmente in termini di plagio, “fabbricazione” di dati o manipolazione dei risultati? Insomma, utilizzare l’Ai rischia di compromettere l’integrità della ricerca? “La risposta è ovviamente sì. Ci tengo però a sottolineare che la scienza contemporanea, anche prima della diffusione su larga scala del Llm si stava muovendo su un pericoloso crinale in cui la cattiva scienza tendeva a scacciare quella buona. Nel mondo del publish or perish dove si pubblica per aggiungere righe al proprio curriculum in vista dell’assunzione/promozione o aumento di stipendio non conta la qualità di ciò che si pubblica, ma la quantità. Quindi avere a disposizione strumenti che facilitano la scrittura, la creazione di codice, di dati e immagini permette di migliorare i propri indicatori. Quindi perché non se ne dovrebbe fare uso, visto che la probabilità di essere scoperti e sanzionati sono estremamente basse?”.  In che modo, concretamente, si sta correndo ai ripari per mettere dei limiti al suo utilizzo nel campo della ricerca accademica? Quali misure o linee guida sono necessarie per regolamentare l’uso dell’Ai e prevenire abusi? “Domanda difficile. Non credo ci siano soluzioni semplici. Molte riviste scientifiche ormai chiedono agli autori di dichiarare se e come hanno fatto uso di Ai nel loro lavoro. Altre chiedono di dichiarare che non si è fatto uso di Ai nella scrittura e così via. Alcuni atenei in Italia e nel mondo scrivono linee guida. Sono molto scettico su questo approccio. In un mondo in cui gli scienziati rispondono agli incentivi del publish or perish e dove i governi sono interessati a scalare i ranking della scienza, pensare di arginare la cattiva scienza con le linee guida è un po’ come pensare di svuotare il mare con un cucchiaino. Senza un cambiamento strutturale del modo in cui si finanzia la ricerca, la scienza è destinata ad essere sempre più inquinata dalle cattivi pratiche” Ci possono anche essere risvolti positivi nell’utilizzo di Ai? Magari per un suo uso “etico” di chi gli elaborati li controlla e con nuovi strumenti può identificare frodi o verificare più facilmente la correttezza dei dati. “Certo, si può giocare a guardie e ladri. Con l’Ai usata per scoprire manipolazioni e frodi. Ma è un po’ la storia dell’antidoping: si mettono a punto nuove sostanze dopanti. Gli organismi anti-doping mettono a punto i test per scovare chi ne fa uso. A quel punto le vecchie sostanze vengono sostituite con nuove sostanze invisibili ai test. Gli organismi anti-doping mettono a punto nuovi test e così via. La mia impressione è che nel mondo della scienza contemporanea sia ormai diffusa una sorta di rassegnazione. Per favore dopatevi con moderazione. E noi istituzioni scientifiche e governi faremo finta che tutto vada per il meglio”.  Esistono differenze significative nell’impatto dell’Ai sulla ricerca accademica tra discipline diverse, ad esempio tra scienze naturali, sociali e umanistiche? “L’Ai può essere usata in modi molto diversi nelle diverse discipline. Non mi risulta ci siano lavori che studiano sistematicamente come l’Ai è usata nella diverse discipline. Evidenze aneddotiche mi dicono che c’è chi la usa in fase di scrittura, revisione e traduzione di testi, chi per scrivere codice di programmazione, chi per leggere o modificare immagini. Allo stato attuale mi pare che siamo in una fase di crescente espansione verso un futuro che è difficile da immaginare”.  Come sta oggi il mondo della ricerca accademica italiana? Quella della Ai è la sfida principale da affrontare o i problemi sistemici sono altri? “Credo che la ricerca italiana abbia gli stessi problemi che sono diffusi a livello globale. Con alcune peculiarità che lo rendono più soggetto alle lusinghe della cattiva scienza e del cattivo uso, per restare in tema, della Ai. Abbiamo un sistema ingessato dalla scarsità di risorse, dalla crescente precarizzazione dei ricercatori e da un sistema di valutazione amministrativa centralizzato che fa capo ad Anvur. In particolare il sistema di valutazione ha generato omologazione, autoreferenzialità e incentivato comportamenti opportunistici se non apertamente fraudolenti. L’Anvur ha concentrato il potere, sostituendo ai vecchi ‘baroni’ accademici una nuova élite tecnocratica legittimata dai suoi stessi criteri. Intanto la precarizzazione del personale ha aumentato la dipendenza dei giovani ricercatori dai gruppi dominanti. La ricerca si è uniformata ai parametri della valutazione quantitativa. Abbiamo la strada spianata verso una crescente irrilevanza. Cosa mai potrebbe andare storto lungo questa strada?”. 
Bignami, concetti base degli LLM (parte seconda)
Seconda parte del bignamino di Quatrociocchi sugli LLM spiegati senza supercazzole. Un LLM non è un pensatore profondo: è un sistema statistico addestrato su enormi quantità di testo per modellare le regolarità del linguaggio, senza accesso diretto al mondo reale. Tutto quello che fa è empiricamente descrivibile e riproducibile: nessuna magia, nessun “spirito” emergente. Riporto di seguito i concetti. L'originale si può leggere su Linkedin EMBEDDING I computer non capiscono parole, elaborano numeri. Per questo ogni parola viene trasformata in un elenco di numeri chiamato vettore. Se due parole compaiono spesso nello stesso contesto (“gatto” e “cane”), i loro vettori saranno vicini; se non compaiono mai insieme (“gatto” e “trattore”), saranno lontani. È una mappa statistica, non un dizionario di significati. Nessun concetto, solo distanze in uno spazio di numeri. TOKENIZZAZIONE Il modello non legge il testo come facciamo noi. Spezza le frasi in piccoli pezzi chiamati token. A volte una parola è un token intero, altre volte viene spezzata: “incredibile” può diventare “in”, “credi”, “bile”. Il modello lavora solo con questi pezzi, non con concetti o frasi intere. Non c’è un “pensiero” sotto: solo pezzi da ricomporre. POSITIONAL ENCODING – Perché l’ordine delle parole non si perda, a ogni token viene aggiunta un’informazione sulla sua posizione nella frase. È così che il modello distingue tra “l’uomo morde il cane” e “il cane morde l’uomo”. Non è grammatica: è solo un trucco matematico per non confondere l’ordine. Coordinate, non regole sintattiche. FINE-TUNING E RLHF Dopo l’addestramento di base, il modello viene “educato” con dati più mirati o con istruzioni di esseri umani (RLHF = Reinforcement Learning with Human Feedback). Qui gli umani dicono: “questa risposta va bene, questa no”. È così che il modello impara a rispondere in modo più chiaro e cortese, ma resta statistica, non personalità. Premi e punizioni, non comprensione. Prosegue... CONTEXT WINDOW Un modello non ricorda all’infinito. Ha una “finestra di contesto” che stabilisce quante parole può considerare alla volta. Se è troppo piccola, dimentica l’inizio della conversazione. Oggi i modelli più avanzati hanno finestre molto ampie e possono “tenere a mente” testi enormi in un’unica volta. Ma sempre con memoria a breve termine: finita la finestra, sparisce tutto. PROMPT ENGINEERING Dare istruzioni chiare migliora le risposte. Non perché il modello “capisca”, ma perché guidi meglio la scelta delle parole. Domanda confusa = risposta confusa. Niente magia: solo input più mirati. DECODING Dopo aver calcolato la probabilità di ogni parola possibile, il modello deve sceglierne una. * Greedy decoding: Prende sempre quella più probabile → testo corretto ma noioso. * Sampling: pesca a caso seguendo le probabilità → più varietà, ma rischia di dire sciocchezze. * Beam search: valuta più frasi in parallelo e sceglie la migliore → più lento ma di qualità. Non c’è ispirazione: solo diverse strategie di scelta. TEMPERATURE E TOP-K Sono le “manopole dello stile”. * Temperature regola la creatività: bassa = frasi prevedibili, alta = frasi fantasiose (a volte troppo). * Top-k dice al modello: “considera solo le k parole più probabili”. Tutto qui: numeri, probabilità, un po’ di informatica. Tantissimi dati e tanta potenza di calcolo. Niente magia. Niente filosofia dei termosifoni.
Apple distrugge il mito dell'Intelligenza Artificiale: ecco perché la vera AI è solo un'illusione!
Apple pubblica uno studio che smaschera i limiti dell’intelligenza artificiale: i modelli di AI non “pensano”, ma collassano di fronte a problemi complessi. La corsa verso la vera AGI sembra più lontana che mai. Negli ultimi giorni, Apple ha scosso il mondo della tecnologia con la pubblicazione di un whitepaper che mette in discussione le fondamenta stesse dell’intelligenza artificiale moderna. Il documento, dal titolo provocatorio “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity” ossia ''L’illusione del pensiero: comprendere i punti di forza e i limiti dei modelli di ragionamento attraverso la lente della complessità dei problemi'', rappresenta una vera e propria bomba sganciata sul settore AI. Dietro la facciata: l’AI non ragiona, imita Il cuore della ricerca è semplice ma devastante: i Large Language Model (LLM), quei sistemi che oggi chiamiamo “AI” e che aziende come OpenAI, Google e Meta sbandierano come capaci di “pensare”, in realtà non ragionano affatto. Sono semplicemente eccezionali nel riconoscere pattern e riprodurre risposte plausibili, ma quando si tratta di affrontare problemi complessi, la loro presunta intelligenza si sbriciola. Leggi l'articolo