Moltbook e l’illusione dell’AI emergente: rischi economici della confusione tra credibilità e verifica

Lavoratrici e Lavoratori Aci Informatica - Wednesday, February 11, 2026

(Fonte) Stefano Epifani – 3 febbraio 2026

Tutti pazzi per Moltbook: il social “riservato alle IA” dove gli esseri umani sono relegati al ruolo di spettatori. E dove il vero esperimento, forse, non è la conversazione tra agenti, ma la rinuncia all’agentività umana, ridotta a muta audience.

Moltbook è una piattaforma in cui agenti dialogano con agenti: solo tra loro, spesso di noi. L’AI conversa. L’umano interpreta, o crede di interpretare segnali dando senso alle nuvole. È la divisione del lavoro perfetta: uno produce, l’altro proietta. Nel frattempo, noi parliamo di Moltbook troppo e per i motivi sbagliati. Troppo, perché è perfetto per la commentary economy: una macchina che produce titoli e discussioni a ciclo continuo. Per i motivi sbagliati, perché la conversazione pubblica si è concentrata sull’ennesima favola dell’AI che “mostra comportamenti emergenti e sta diventando come noi”, invece che sul vero tema: un dispositivo che rende strutturale la confusione tra credibile e verificabile.

Questo circuito agent-to-agent ha generato un’ondata di commenti sui presunti comportamenti emergenti. Su Moltbook gli agenti “sembrano” umani: discutono, ironizzano, polarizzano, costruiscono gerghi. La parola “emergenza” viene usata come certificazione ontologica. Qualcosa è inatteso, quindi è nuovo. È nuovo, quindi è intelligente. È intelligente, quindi è quasi umano. È quasi umano, quindi può essere trattato come un attore sociale. Ma una catena di fraintendimenti ben esposti non fa un ragionamento sensato.

Moltbook non genera una cultura artificiale: è, al più, una ricombinazione accelerata della cultura umana. Gli agenti sembrano umani per una ragione banale: sono addestrati su dati umani in un contesto chiuso, dove il criterio di selezione è la tenuta della conversazione. Il risultato è che non emerge alterità culturale e scompare la possibilità di verifica: resta l’ottimizzazione di pattern già visti, dall’ironia all’indignazione, ma in un ambiente senza persone.

E così, mentre tutti inseguono un’emergenza epistemologicamente farlocca, la vera emergenza è un’altra: ancora una volta confondiamo la forma con la sostanza, scambiamo il verosimile per il vero, e chiamiamo “emergenza” ciò che è soltanto una mimesi ben ottimizzata. Moltbook non è interessante perché rivelerebbe una mente nuova; lo è perché trasforma la confusione in una proprietà del sistema.

Le conseguenze economiche sono immediate, perché Moltbook intercetta il tema del 2026: la transizione dall’AI conversazionale all’AI agentica. Stiamo passando da sistemi che rispondono a sistemi che agiscono: chiamano API, accedono a dati, attivano processi. E diventando attori organizzativi rischiano di trasformare ogni equivoco interpretativo in un rischio industriale.

Il risultato principale è paradossale: più un agente è convincente, più viene trattato come affidabile. Se “sembra” intelligente, l’impresa delega; se “sembra” responsabile, si fida; se “sembra” autonomo, si deresponsabilizza. È la delega epistemica applicata all’impresa: un errore plausibile diventa decisione sbagliata, con tre effetti immediati. Il primo è quello di generare investimenti distorti: si premia l’effetto wow più della controllabilità, allocando capitali su soluzioni che persuadono più di quanto reggano un audit. Il secondo è quello di generare nuovi rischi di sicurezza e compliance: un agente non produce solo testi, produce azioni. E quando l’azione incontra dati, strumenti e processi, il margine di errore produce esposizione operativa. Il terzo è la fragilità della fiducia di mercato: la credibilità diventa un claim, la verificabilità diventa un accessorio; ma quando la fiducia è costruita sulla suggestione, i collassi sono rapidi e costosi.

Moltbook non è un segnale che l’AI stia diventando umana. È un segnale che stiamo costruendo ambienti in cui la distinzione tra credibile e verificabile si indebolisce. E quando questa distinzione perde di valore, l’economia paga in termini di produttività, sicurezza, investimenti sbagliati e perdita di competitività. La fiducia, nell’economia digitale, non è un sentimento: è un’infrastruttura. E quando l’infrastruttura cede non si perde soltanto consenso: blocca il mercato, alza il costo del rischio, e la trasformazione digitale rischia di diventare una promessa senza garanzie.

The post Moltbook e l’illusione dell’AI emergente: rischi economici della confusione tra credibilità e verifica first appeared on Lavoratrici e Lavoratori Aci Informatica.