Tag - Ai&Innovazione

Come dovremmo parlare di intelligenza artificiale ai nostri figli?
(Fonte) 30 agosto 2025 – Kathryn Jezer-Morton I noiosi compositi che l’IA generativa cerca di spacciare per “idee” sono per definizione nella media, e da quando ho letto il libro di Karen Hao “Empire of AI” , le incombenti devastazioni nel mondo reale delle infrastrutture di IA non mi sembrano più astratte: sono inevitabili. A parte i miei pensieri sull’uso dell’IA generativa – no, non sono d’accordo che sia “divertente da usare”, cresci! – non commettiamo lo stesso errore che abbiamo commesso l’ultima volta che ci siamo trovati di fronte a una tecnologia rivoluzionaria che i suoi sviluppatori sostenevano fosse inevitabile e allo stesso tempo fantastica. Vent’anni fa, abbiamo adottato i social media con lo stesso livello di pensiero critico che un bambino applica quando si mette un LEGO in bocca. Abbiamo condiviso cose che non avremmo dovuto e abbiamo accettato con entusiasmo i nostri feed come un sostituto della realtà. In seguito, quando è arrivato il momento per i giovani di creare i propri account, gli adulti hanno abdicato a ogni responsabilità di modellare comportamenti intelligenti. Abbiamo lasciato che i bambini facessero quello che volevano sui social media, partendo dal presupposto corretto che non avessimo più abbastanza credibilità per stabilire alcun controllo. Emily Bender, linguista coautrice di The AI Con con il sociologo Alex Hanna, mi ha ricordato che quando parliamo di intelligenza artificiale, dobbiamo essere precisi. Molti strumenti che utilizzano l’intelligenza artificiale – ad esempio strumenti di trascrizione vocale-testo o strumenti che trasformano un insieme di testi in un podcast di supporto allo studio – non generano qualcosa di nuovo; combinano gli input di un singolo individuo e li rendono leggibili in un nuovo formato. Ciò che Bender critica maggiormente sono quelle che chiama “macchine multimediali sintetiche”: modelli che creano immagini e testi compositi, come ChatGPT, DALL-E3 e Midjourney, utilizzando enormi librerie di materiale esistente per soddisfare un prompt.”Questi strumenti sono progettati per apparire come sistemi oggettivi e onniscienti, e credo sia importante abituare i bambini a chiedersi: ‘Chi ha costruito tutto questo? Chi ha detto e scritto le cose originali che sono diventate i dati di training? Di chi sono state rubate le illustrazioni da queste aziende per produrre i set di training?'”, ha affermato Bender. Per i bambini troppo piccoli per rispondere a queste domande, Bender suggerisce ai genitori di concentrarsi sull’impatto ambientale. “Ogni volta che si utilizza un chatbot, si contribuisce a costruire le basi per lo sviluppo del modello successivo e la costruzione del prossimo data center da parte dell’azienda. I data center devono essere raffreddati con enormi quantità di acqua pulita, e acqua pulita di solito significa acqua potabile”. Di chi sarà l’acqua potabile che verrà deviata? orse riusciremo a raggiungere i ragazzi in età universitaria facendo leva sul loro istinto competitivo. “Il modo migliore per garantire la sicurezza del lavoro e la qualità della vita in generale in futuro è capire i propri punti di forza e in cosa si è unici”, ha detto Hao. “In definitiva, le aziende non cercano di capire se sai usare uno strumento o meno. Cercano qualcosa di insostituibile in te che non possono semplicemente scambiare con un altro candidato. Se fai troppo affidamento sull’intelligenza artificiale, che si basa letteralmente sulla ripetitività statistica, ti darai la zappa sui piedi. Non riuscirai a individuare i tuoi punti di forza, ed è a questo che serve l’università: cimentarsi, provare cose nuove. Alcuni ragazzi si affidano ai chatbot per prendere decisioni di vita, per capire come reagire in determinate situazioni, e ottengono sempre la media statistica. Ti fa sembrare come tutti gli altri. Il tuo utilizzo dell’intelligenza artificiale non sarà percepito come intelligente. Non ti distinguerai mai.” Sebbene Empire of AI si concentri su come le aziende tecnologiche stiano accumulando lo stesso tipo di potere un tempo esercitato solo dai governi imperialisti, Hao mi ha detto che la nostra più forte resistenza inizia in casa, dove dovremmo incoraggiare l’indipendenza dei bambini nel mondo esterno. “I bambini sentono che i loro telefoni e questi strumenti sono uno spazio davvero libero in cui non sono supervisionati. Mentre quando escono di persona, sono spesso sorvegliati e sorvegliati. Quindi, anche se potrebbero preferire socializzare di persona, preferirebbero avere la libertà che deriva dall’essere online”. Se i genitori riescono a dare ai loro figli questa sensazione di libertà nei loro ambienti sociali, ciò potrebbe fornire una valida alternativa al fascino dell’intelligenza artificiale sempre attiva. The post Come dovremmo parlare di intelligenza artificiale ai nostri figli? first appeared on Lavoratrici e Lavoratori Aci Informatica.
Le aziende di intelligenza artificiale stanno inseguendo gli utenti governativi con forti sconti
(Fonte) Lauren Feiner 12 agosto 2025 Fin dal lancio di ChatGPT, le aziende di intelligenza artificiale si sono battute per affermarsi nella pubblica amministrazione in più di un modo. Nell’ultima settimana, sia OpenAI che Anthropic hanno introdotto prezzi speciali per le versioni governative dei loro chatbot di intelligenza artificiale generativa (prezzo simbolico di 1 dollaro), ChatGPT e Claude, e xAI ha annunciato il suo Grok for Government a metà luglio. Offrire inizialmente i servizi a prezzi simbolici consente loro di assicurarsi un vantaggio competitivo nel lungo periodo. Ottenere clienti governativi può essere un ottimo modo per le aziende tecnologiche di assicurarsi ampie basi di utenti e profitti. Il governo degli Stati Uniti afferma di spendere oltre 100 miliardi di dollari all’anno in “investimenti IT e informatici, incluso l’acquisto di licenze software”. Anthropic, OpenAI, Google e xAI si sono già aggiudicate contratti che potrebbero valere fino a 200 milioni di dollari ciascuno per contribuire a modernizzare il Dipartimento della Difesa degli Stati Uniti. OpenAI, nel suo annuncio, ha affermato che la sua offerta “realizza un pilastro fondamentale del Piano d’azione per l’intelligenza artificiale dell’amministrazione Trump, rendendo disponibili potenti strumenti di intelligenza artificiale in tutto il governo federale, in modo che i lavoratori possano dedicare meno tempo a burocrazia e scartoffie e più tempo a fare ciò per cui sono venuti al servizio pubblico: servire il popolo americano”. The post Le aziende di intelligenza artificiale stanno inseguendo gli utenti governativi con forti sconti first appeared on Lavoratrici e Lavoratori Aci Informatica.
La cinese DeepSeek prepara un agente di intelligenza artificiale per la fine del 2025, in grado di competere con OpenAI
(Fonte) Saritha Rai – 4 settembre 2025 Secondo fonti vicine alla questione, DeepSeek sta sviluppando un modello di intelligenza artificiale con funzionalità di agenti AI più avanzate, in grado di eseguire azioni multi-fase con istruzioni minime e di apprendere dalle esperienze precedenti, per competere con i rivali statunitensi come OpenAI in una nuova frontiera della tecnologia. Il lancio del nuovo software è previsto nell’ultimo trimestre di quest’anno. La piattaforma di intelligenza artificiale agentica in fase di sviluppo sottolinea la determinazione della startup di Hangzhou a rimanere all’avanguardia in un settore altamente competitivo. Dall’R1, l’azienda cinese ha introdotto solo aggiornamenti minori, nonostante i rivali negli Stati Uniti e in Cina abbiano lanciato una raffica di nuovi modelli. Il piano dell’azienda per un nuovo modello incentrato sugli agenti, di cui non si è parlato in precedenza, rispecchia un cambiamento più ampio nel settore tecnologico. Questa nuova generazione i servizi, lanciati negli ultimi mesi anche da aziende quali OpenAI , Anthropic , Microsoft Corp, e la cinese Manus AI, è pensata per svolgere compiti più complessi rispetto ai semplici chatbot, che vanno dalla ricerca di una vacanza alla scrittura e al debug di codice informatico. Ad oggi, tuttavia, gli agenti di intelligenza artificiale richiedono spesso una discreta supervisione da parte di un adulto . The post La cinese DeepSeek prepara un agente di intelligenza artificiale per la fine del 2025, in grado di competere con OpenAI first appeared on Lavoratrici e Lavoratori Aci Informatica.
La domanda di chip AI rimane forte nonostante l’ansia della bolla
(Fonte) Patrick Kulp – 28 agosto 2025 Con i timori che aleggiavano intorno a una bolla dell’intelligenza artificiale, molti hanno seguito con il fiato sospeso il resoconto delle performance trimestrali di Nvidia, anche più del solito. Le vendite dei chip dell’azienda non servono solo a misurare la febbre dell’intelligenza artificiale, ma anche a dare un’idea dello stato di salute del mercato nel suo complesso, dato che la spesa per l’intelligenza artificiale rappresenta ormai una quota crescente della crescita economica del Paese. Tuttavia, l’aumento della posta in gioco non ha prodotto nulla di particolarmente drammatico: seguendo un andamento piuttosto familiare, l’azienda più preziosa al mondo ha superato di poco le stime consensuali della maggior parte degli analisti per la sua performance del secondo trimestre, mentre il suo titolo è leggermente sceso, in parte a causa delle aspettative già troppo elevate. Grandi investitori: è un vantaggio il fatto che molti dei principali clienti di Nvidia abbiano già affermato di aver continuato a investire ingenti somme nella costruzione di data center nel trimestre precedente e che continueranno a farlo anche in quello attuale. Kress ha affermato durante la conference call che Nvidia prevede che le aziende spenderanno dai 3 ai 4 trilioni di dollari in infrastrutture di intelligenza artificiale entro la fine del decennio. Bolla in arrivo? Ma investitori e analisti hanno iniziato a temere una possibile esplosione della bolla dell’IA, come è successo periodicamente negli ultimi anni. Le reazioni timide al GPT-5 di OpenAI hanno sollevato la possibilità di un rallentamento dei progressi della ricerca. Un rapporto del MIT ha rilevato che il 95% dei progetti pilota di GenAI aziendali fallisce. Il CEO di OpenAI, Sam Altman, ha recentemente lanciato l’allarme. Le prestazioni di Nvidia non hanno necessariamente contribuito ad aumentare queste ansie, ma non è nemmeno chiaro se siano state abbastanza forti da metterle a tacere. The post La domanda di chip AI rimane forte nonostante l’ansia della bolla first appeared on Lavoratrici e Lavoratori Aci Informatica.
Gli sviluppatori temono cosa li aspetta dopo la notizia delle imminenti dimissioni del CEO di GitHub
(Fonte) Brianna Monsanto – 19 agosto 2025 L’11 agosto, il CEO di GitHub, Thomas Dohmke, ha condiviso un post interno inviato ai dipendenti della community di GitHub, annunciando le sue dimissioni dall’azienda a fine anno. Dohmke, che è diventato CEO della piattaforma cloud nel 2021, ha affermato che GitHub e il suo team dirigenziale “continueranno la loro missione” come parte dell’organizzazione CoreAI di Microsoft. Microsoft ha costituito la divisione CoreAI all’inizio di quest’anno . L’obiettivo di questa divisione ingegneristica è “costruire lo stack Copilot e AI end-to-end” per consentire ai clienti Microsoft, sia di prima che di terza parte, di sviluppare app e agenti di intelligenza artificiale. La divisione è anche responsabile dello sviluppo di GitHub Copilot. Cos’è tutto questo (Git)Hubbub? Sebbene GitHub faccia parte da tempo dell’organizzazione Core AI di Microsoft e non abbia comunicato alcuna modifica ai termini di servizio per i suoi utenti nell’ambito del cambiamento organizzativo, il passaggio di consegne ha lasciato alcuni un po’ a disagio. Amirul Islam Al Mamun, data engineer presso Truxco Energy, azienda di soluzioni energetiche sostenibili, ha dichiarato a IT Brew che l’annuncio segna il “passo finale” per la perdita di indipendenza di GitHub. Microsoft ha acquisito GitHub nel 2018. All’epoca, il gigante della tecnologia aveva dichiarato che la piattaforma avrebbe mantenuto il suo “approccio incentrato sugli sviluppatori” e avrebbe operato in modo indipendente. “La preoccupazione principale, ciò che ci preoccupa, è che il nostro codice venga utilizzato per addestrare un modello di intelligenza artificiale”, ha affermato. Microsoft non ha risposto alla richiesta di commento di IT Brew sulle preoccupazioni sollevate. Anche un portavoce di GitHub si è rifiutato di rilasciare commenti oltre al post di Dohmke. “Se ci sarà un [cambio di] direzione in quella grande qualità, o nell’essere [closed-source], o nella formazione sui miei dati, o non focalizzato sulla privacy, cambierò”, ha detto Martins. “E la mia ipotesi è che… il 30%, il 40% di GitHub si sposterà su GitLab nel giro di [un] arco di 10 anni”. The post Gli sviluppatori temono cosa li aspetta dopo la notizia delle imminenti dimissioni del CEO di GitHub first appeared on Lavoratrici e Lavoratori Aci Informatica.
Dissidenti di ChatGPT, gli studenti che rifiutano l’IA: “Non ricordavo l’ultima volta che avevo scritto qualcosa da solo”
(Fonte) Susana Pérez Soler – 03 AGO 2025 “Ho iniziato a usare ChatGPT al secondo anno di università, in un periodo molto stressante tra tirocini, incarichi, studi e attività extracurriculari. Per alleggerire questo carico, ho iniziato a usarlo per piccoli compiti. E, a poco a poco, mi sono resa conto che ricordava i dettagli del mio stile di scrittura e dei miei testi precedenti. Così, l’ho rapidamente integrato in tutto… il mio lavoro è diventato facile come cliccare un pulsante”, spiega Mónica de los Ángeles Rivera Sosa, ventenne studentessa di Comunicazione Politica all’Emerson College di Boston, Massachusetts. “Sono riuscita a superare l’esame… ma mi sono resa conto che non ricordavo l’ultima volta che avevo scritto un saggio da sola, che era la mia attività preferita. Questo è stato il fattore scatenante che mi ha spinto a smettere di usare l’app”, afferma. Il punto di vista di questo studente non è il più comune, ma non è nemmeno eccezionale. Sempre più studenti stanno smettendo di usare l’intelligenza artificiale (IA) nei loro compiti. Ritengono che, con questa tecnologia, stiano diventando più pigri e meno creativi, perdendo la capacità di pensare con la propria testa. Microsoft ha recentemente pubblicato uno studio in cui ha intervistato 319 lavoratori per indagare in che modo l’ uso di strumenti di intelligenza artificiale influenzi il pensiero critico e come questa tecnologia influenzi il loro lavoro. I risultati indicano che gli utenti di intelligenza artificiale producono un insieme di risultati meno diversificato per lo stesso compito. Ciò significa che i lavoratori che si fidano della macchina si impegnano meno a contribuire con le proprie idee. Nonostante le critiche, l’intelligenza artificiale generativa è ampiamente utilizzata nelle università. Secondo un recente studio della Fondazione CYD, l’89% degli studenti universitari spagnoli utilizza alcuni di questi strumenti per risolvere dubbi (66%), fare ricerche, analizzare dati o raccogliere informazioni (48%), o persino scrivere saggi (45%). Circa il 44% degli studenti utilizza strumenti di intelligenza artificiale più volte alla settimana, mentre il 35% li utilizza quotidianamente. Intelligenza artificiale per il pensiero critico In un’epoca di automazione e uniformità dei risultati , promuovere il pensiero critico è una sfida sia per le università che per le aziende tecnologiche. Queste istituzioni stanno cercando di sviluppare strumenti di intelligenza artificiale generativa che motivino gli utenti a pensare con la propria testa. OpenAI ha lanciato ChatGPT Edu, una versione del suo chatbot per studenti, nel maggio 2024. Anthropic, nel frattempo, ha lanciato Claude for Education, una versione del suo chatbot focalizzata sulle università. Claude pone domande socratiche (“Come affronteresti questo?” o “Quali prove supportano la tua conclusione?”) per guidare gli studenti nella risoluzione dei problemi e aiutarli a sviluppare il pensiero critico. Paz spiega che ora sta optando per altri tipi di motori di ricerca, da quando Google ha integrato l’intelligenza artificiale tramite le Panoramiche: risposte generate automaticamente che appaiono in cima alla pagina in alcuni risultati di ricerca. Invece, utilizza Ecosia, che si promuove come un’alternativa sostenibile a Google, poiché utilizza i ricavi pubblicitari generati dalle ricerche per finanziare progetti di riforestazione. Tutti gli studenti intervistati per questo rapporto hanno espresso preoccupazione per il consumo di acqua associato a ogni ricerca effettuata con uno strumento di intelligenza artificiale. Esistono studi scientifici che confermano l’impatto negativo dell’intelligenza artificiale generativa su memoria, creatività e pensiero critico. Se l’intelligenza artificiale generativa ci rende meno originali e più pigri, privandoci delle nostre capacità di pensiero critico, che impatto avrà sul nostro cervello? Avremo tutti le stesse risposte a domande diverse? Tutto sarà più uniforme, meno creativo? Solo il tempo lo dirà. Ma mentre aspettiamo che il futuro parli, ecco cosa afferma ChatGPT: “L’avanzata dell’intelligenza artificiale generativa pone un paradosso inquietante: più facilita il nostro pensiero, meno lo esercitiamo”. The post Dissidenti di ChatGPT, gli studenti che rifiutano l’IA: “Non ricordavo l’ultima volta che avevo scritto qualcosa da solo” first appeared on Lavoratrici e Lavoratori Aci Informatica.
Perché l’intelligenza artificiale cinese punta tutto sull’open source mentre gli Stati Uniti si ritirano
(Fonte) Zelin Wang – 13 agosto 2025 Nel panorama globale dell’intelligenza artificiale, si sta delineando una netta divergenza tra Cina e Stati Uniti. Mentre le grandi aziende statunitensi tendono a proteggere le proprie tecnologie con modelli closed-source, la Cina sta abbracciando con forza l’open source, posizionandosi come leader in questo settore. La svolta è apparsa chiara la scorsa settimana: poco prima del lancio di GPT-5, OpenAI ha pubblicato a sorpresa gpt-oss, il suo primo modello open-weight, presentato come complemento e non alternativa ai modelli proprietari. Intanto, Meta sembra pronta ad abbandonare l’open source, lasciando spazio a un vuoto strategico. Proprio qui si inseriscono i player cinesi, che hanno adottato in massa l’approccio aperto e stanno ridefinendo la narrativa globale dell’intelligenza artificiale open source. Nella prima metà del 2025 i giganti tech cinesi hanno impresso una forte accelerazione sull’open source. Alibaba lo utilizza come leva per attrarre sviluppatori e potenziare le vendite di Alibaba Cloud, mentre altri attori seguono strategie analoghe: Tencent ha presentato il suo primo modello Mixture of Experts (MoE), capace di ridurre i costi computazionali e velocizzare l’inferenza nei modelli di grandi dimensioni; ByteDance ha reso disponibili framework e tool per sviluppatori; Xiaomi ha lanciato il modello vocale open source MiDashengLM-7B, pensato per il settore automobilistico e la smart home. Startup come Moonshot AI e Zhipu AI  stanno guadagnando credibilità internazionale, rafforzando l’immagine globale dei LLM cinesi come alternativa concreta ai modelli occidentali. Le aziende cinesi hanno scelto l’open source come via alternativa a quella statunitense grazie all’effetto trainante di DeepSeek R1, che ha mostrato come un modello aperto potesse diventare al tempo stesso strumento di marketing globale e catalizzatore tecnologico. Il suo successo ha convinto il settore che l’“open source di alta qualità” poteva attrarre sviluppatori e investitori, aprendo la strada a modelli come Kimi K2 e Qwen3, oggi ai vertici delle classifiche internazionali. Di fatto, i migliori modelli open source mondiali sono ormai dominati da player cinesi. La stagnazione della crescita degli utenti ha spinto le aziende cinesi di IA a cercare nuovi ecosistemi. Lo sviluppo di Internet in Cina si è concentrato principalmente sui dispositivi mobili piuttosto che sui PC, con conseguente concentrazione dell’utilizzo dell’intelligenza artificiale sui dispositivi mobili piuttosto che sui desktop.Tuttavia, i prodotti di intelligenza artificiale cinesi stanno incontrando ostacoli nella crescita degli utenti, — come mostrano i dati QuestMobile e i casi Kimi e ChatGLM.  Inoltre, la Cina è molto indietro rispetto agli Stati Uniti negli investimenti privati in IA (9,3 miliardi contro 109,1 nel 2024). In questo contesto, l’open source diventa la strategia inevitabile: consente di attrarre sviluppatori, ridurre costi, accelerare l’innovazione e costruire comunità attive che garantiscono visibilità e nuove opportunità anche in assenza di forte crescita di utenti finali. Nell’attuale contesto geopolitico pieno di sospetti verso la Cina, l’open source consente alle aziende cinesi di mitigare il rischio politico e costruire fiducia: l’apertura di architettura, pesi e codice riduce i sospetti sulla sicurezza dei modelli. Inoltre, le licenze permissive adottate in Cina contrastano con le restrizioni della serie Llama di Meta, rendendo i modelli cinesi più attraenti per sviluppatori e imprese interessate a usi commerciali. Mentre OpenAI blocca i suoi modelli più avanzati dietro le API, le aziende cinesi hanno scelto la strada completamente opposta: aprire completamente le proprie capacità tecniche agli sviluppatori globali. Questa scelta ha già dato a Pechino visibilità e influenza senza precedenti, ma resta aperto l’interrogativo se l’open source potrà tradursi in un vantaggio commerciale e tecnologico duraturo. The post Perché l’intelligenza artificiale cinese punta tutto sull’open source mentre gli Stati Uniti si ritirano first appeared on Lavoratrici e Lavoratori Aci Informatica.
ChatGPT ripropone 4o come opzione perché la gente se l’è persa
(Fonte) Emma Roth – 8 agosto 2025 OpenAI ha rapidamente fatto marcia indietro dopo aver sostituito GPT-4o con GPT-5 in ChatGPT, ripristinando il modello precedente per gli utenti a pagamento appena un giorno dopo il lancio. Sam Altman, CEO di OpenAI, ha annunciato su X che gli abbonati Plus potranno nuovamente scegliere GPT-4o, precisando che l’azienda monitorerà l’uso per decidere per quanto tempo mantenere disponibili i modelli “legacy”. La decisione è arrivata in risposta a un’ondata di reazioni da parte della community: nonostante GPT-5 offra, secondo OpenAI, significativi miglioramenti nelle capacità di scrittura e programmazione, molti utenti hanno espresso il desiderio di tornare al modello precedente, apprezzato per il suo stile e la sua interazione più “personale”. Alcuni hanno descritto GPT-5 come più freddo e sintetico, percependo un cambio di tono e di “personalità”. Il cambio iniziale aveva anche eliminato il selettore di modelli, che consentiva di passare tra vari sistemi per esigenze diverse: GPT-4o per compiti complessi, o4 mini per carichi più leggeri, o altre versioni precedenti. Con il ripristino di GPT-4o, almeno per ora, gli utenti possono tornare a modulare la loro esperienza scegliendo il modello che meglio si adatta alle loro preferenze. Oltre a chi usava ChatGPT come supporto emotivo, anche molti utenti professionali hanno reagito negativamente al passaggio forzato a GPT-5. Alcuni, come un abbonato Plus che ha poi cancellato l’iscrizione, hanno criticato la rimozione improvvisa dei modelli legacy senza alcun preavviso, lamentando la perdita di flussi di lavoro costruiti su più sistemi. Per molti, GPT-4o, o3, o3-Pro e 4.5 non erano solo alternative, ma strumenti specializzati: dal brainstorming creativo alla logica pura, dalla ricerca approfondita alla scrittura strutturata. La promessa di OpenAI era che GPT-5 avrebbe prodotto risposte più coinvolgenti e pertinenti, ma nel subreddit r/ChatGPT diversi utenti hanno segnalato output più lenti, più brevi e meno accurati. Altman ha assicurato che il modello “sembrerà più intelligente” già a partire dal giorno successivo, e ha annunciato maggiore trasparenza nell’indicare quale modello sta rispondendo, oltre a limiti di utilizzo più generosi per gli utenti Plus. Il caso non è isolato: ogni nuovo rilascio di chatbot tende a creare una frattura con una parte della sua base d’utenza, legata a preferenze stilistiche o funzionali. Al punto che, come accaduto di recente con il ritiro del modello Claude 3 Sonnet di Anthropic, alcuni gruppi di utenti arrivano persino a organizzare veri e propri “funerali” per celebrare la scomparsa dei vecchi modelli. The post ChatGPT ripropone 4o come opzione perché la gente se l’è persa first appeared on Lavoratrici e Lavoratori Aci Informatica.
Com’è questo Gpt 5: ecco i primi giudizi degli esperti internazionali
(Fonte) Alessandro Longo – 8 agosto 2025 Chat GPT-5 è stato presentato da Sam Altman come un passo avanti verso l’intelligenza artificiale generale. Più probabilmente agli esperti appare come una transizione verso una “intelligenza operativa”. La nuova versione di Chat GPT è disponibile anche in Italia, con interfaccia più pulita e gestione automatica delle modalità di ragionamento.  Ragionamento e allucinazioni Secondo i tester e i commentatori tecnici (Tom’s Hardware, Techtarget), GPT 5 mostra una migliore “consistenza” nell’affrontare problemi multi-passo  maggiore coerenza nel completamento di sequenze complesse, capacità di orchestrare flussi di lavoro integrati (ricerca, dati, output). Sul fronte dell’affidabilità, OpenAI dichiara una riduzione del 26% delle allucinazioni e del 44% della probabilità di errori fattuali gravi rispetto al modello precedente, sebbene resti il rischio che una risposta su dieci contenga ancora informazioni inesatte. Programmazione I dati condivisi da OpenAI e rilanciati dalle testate tecniche mostrano che il modello ottiene punteggi più alti in benchmark software-oriented (SWE-Bench e analoghi); impiega meno token e meno chiamate a strumenti esterni per risolvere lo stesso problema. Finestra contestuale e multimodale Un altro punto di forza è la capacità di gestire contesti molto più ampi, consentendo di lavorare con documenti lunghi, progetti complessi o conversazioni estese senza continue ricapitolazioni. La multimodalità, intesa come integrazione di testo, immagini e dati strutturati, è già solida, mentre audio e video restano prospettive future. L’evoluzione non è solo nel modello, ma anche nell’infrastruttura: nuove API e strumenti SDK permettono di costruire agenti personalizzati che combinano ricerca, accesso a database e generazione di contenuti, con meccanismi di sicurezza e tracciabilità integrati. Gli aspetti critici: test, prezzi, sicurezza Accanto ai toni positivi, però, la stampa tecnica mantiene un registro critico e misurato: autorevoli blog e analisti chiedono verifiche indipendenti e benchmark riproducibili prima di trattare il rilascio come “svolta” definitiva. La comunità open e i forum tecnici — dove emergono test estemporanei e confronti dal basso — notano inoltre che la percezione di utilità può variare radicalmente a seconda del dominio: ciò che funziona bene per la scrittura di codice non è automaticamente trasferibile a compiti di valutazione clinica o a processi regolamentati. Un altro aspetto centrale riguarda costi e accesso. Diverse testate, tra cui Platformer e The Verge, sottolineano come OpenAI abbia adottato una strategia a più livelli: modelli “mini” e “nano” pensati per compiti rapidi e a basso costo, una versione “standard” per attività più complesse e un’integrazione diretta in ChatGPT. Questa scelta, secondo gli osservatori, dovrebbe ampliare la platea di utenti. Sul piano tecnico, però, il vero indicatore economico resta il prezzo per token nelle pipeline di produzione: la maggiore efficienza di GPT-5, capace di generare output con meno token e minori chiamate a strumenti esterni, può offrire un vantaggio competitivo, ma l’impatto reale dipende strettamente dal tipo di carico di lavoro e dai modelli di utilizzo. Ma soprattutto c’è da porre attenzione alla sicurezza e alla governance: la capacità estesa del modello di generare artefatti complessi e di orchestrare azioni su risorse esterne richiede nuovi strumenti di audit, limiti d’accesso e policy operative. Gli esperti tecnici ricordano che il problema non è solo la riduzione delle allucinazioni, ma la gestione delle dipendenze tra modello e sistemi aziendali — come si verifica una risposta, chi è responsabile dell’output e come si traccia la catena delle decisioni in presenza di agenti autonomi. Le discussioni tecniche mettono al centro questioni pratiche: logging, test in ambienti isolati, approvazioni umane obbligatorie su output sensibili e criteri chiari per bloccare funzionalità rischiose. The post Com’è questo Gpt 5: ecco i primi giudizi degli esperti internazionali first appeared on Lavoratrici e Lavoratori Aci Informatica.
OpenAi lancia due modelli open-weight e invade il campo di DeepSeek e Llama
(Fonte) Luca Tremolada – 5 agosto 2025 OpenAI ha annunciato il rilascio di due nuovi modelli di intelligenza artificiale open-weight: gpt-oss-120B e gpt-oss-20B, definiti i modelli di ragionamento open che Open AI definisce i più avanzati finora. Si distinguono per l’accesso pubblico ai pesi del modello (cioè i parametri appresi durante l’addestramento), a differenza di ChatGPT, Gemini e Copilot. Ottimizzati per funzionare su hardware consumer, possono essere eseguiti anche offline e con risorse limitate, riducendo le barriere per sviluppatori e mercati emergenti. * gpt-oss-120B rivaleggia con OpenAI o4-mini in termini di capacità di ragionamento e funziona con una singola GPU da 80 GB. * gpt-oss-20B raggiunge prestazioni simili a o3-mini e può girare su dispositivi con soli 16 GB di RAM. I modelli, rilasciati con licenza Apache 2.0, sono addestrati con tecniche di rinforzo e ispirati ai sistemi più avanzati di OpenAI. Sono progettati per essere facilmente integrabili con strumenti e piattaforme esistenti come Hugging Face, llama.cpp e Ollama. Questo rilascio rappresenta una risposta alla concorrenza di Meta (LLaMA), Google (Gemma) e dei modelli cinesi (DeepSeek, Qwen), e riflette un parziale cambio di rotta rispetto alla chiusura iniziale di ChatGPT, suggerita dallo stesso Sam Altman. OpenAI afferma che l’obiettivo è quello di offrire AI aperta, in linea con la missione originaria dell’organizzazione. The post OpenAi lancia due modelli open-weight e invade il campo di DeepSeek e Llama first appeared on Lavoratrici e Lavoratori Aci Informatica.