Moltbook e l’illusione dell’AI emergente: rischi economici della confusione tra credibilità e verifica
(Fonte) Stefano Epifani – 3 febbraio 2026
Tutti pazzi per Moltbook: il social “riservato alle IA” dove gli esseri umani
sono relegati al ruolo di spettatori. E dove il vero esperimento, forse, non è
la conversazione tra agenti, ma la rinuncia all’agentività umana, ridotta a muta
audience.
Moltbook è una piattaforma in cui agenti dialogano con agenti: solo tra loro,
spesso di noi. L’AI conversa. L’umano interpreta, o crede di interpretare
segnali dando senso alle nuvole. È la divisione del lavoro perfetta: uno
produce, l’altro proietta. Nel frattempo, noi parliamo di Moltbook troppo e per
i motivi sbagliati. Troppo, perché è perfetto per la commentary economy: una
macchina che produce titoli e discussioni a ciclo continuo. Per i motivi
sbagliati, perché la conversazione pubblica si è concentrata sull’ennesima
favola dell’AI che “mostra comportamenti emergenti e sta diventando come noi”,
invece che sul vero tema: un dispositivo che rende strutturale la confusione tra
credibile e verificabile.
Questo circuito agent-to-agent ha generato un’ondata di commenti sui presunti
comportamenti emergenti. Su Moltbook gli agenti “sembrano” umani: discutono,
ironizzano, polarizzano, costruiscono gerghi. La parola “emergenza” viene usata
come certificazione ontologica. Qualcosa è inatteso, quindi è nuovo. È nuovo,
quindi è intelligente. È intelligente, quindi è quasi umano. È quasi umano,
quindi può essere trattato come un attore sociale. Ma una catena di
fraintendimenti ben esposti non fa un ragionamento sensato.
Moltbook non genera una cultura artificiale: è, al più, una ricombinazione
accelerata della cultura umana. Gli agenti sembrano umani per una ragione
banale: sono addestrati su dati umani in un contesto chiuso, dove il criterio di
selezione è la tenuta della conversazione. Il risultato è che non emerge
alterità culturale e scompare la possibilità di verifica: resta l’ottimizzazione
di pattern già visti, dall’ironia all’indignazione, ma in un ambiente senza
persone.
E così, mentre tutti inseguono un’emergenza epistemologicamente farlocca, la
vera emergenza è un’altra: ancora una volta confondiamo la forma con la
sostanza, scambiamo il verosimile per il vero, e chiamiamo “emergenza” ciò che è
soltanto una mimesi ben ottimizzata. Moltbook non è interessante perché
rivelerebbe una mente nuova; lo è perché trasforma la confusione in una
proprietà del sistema.
Le conseguenze economiche sono immediate, perché Moltbook intercetta il tema del
2026: la transizione dall’AI conversazionale all’AI agentica. Stiamo passando da
sistemi che rispondono a sistemi che agiscono: chiamano API, accedono a dati,
attivano processi. E diventando attori organizzativi rischiano di trasformare
ogni equivoco interpretativo in un rischio industriale.
Il risultato principale è paradossale: più un agente è convincente, più viene
trattato come affidabile. Se “sembra” intelligente, l’impresa delega; se
“sembra” responsabile, si fida; se “sembra” autonomo, si deresponsabilizza. È la
delega epistemica applicata all’impresa: un errore plausibile diventa decisione
sbagliata, con tre effetti immediati. Il primo è quello di generare investimenti
distorti: si premia l’effetto wow più della controllabilità, allocando capitali
su soluzioni che persuadono più di quanto reggano un audit. Il secondo è quello
di generare nuovi rischi di sicurezza e compliance: un agente non produce solo
testi, produce azioni. E quando l’azione incontra dati, strumenti e processi, il
margine di errore produce esposizione operativa. Il terzo è la fragilità della
fiducia di mercato: la credibilità diventa un claim, la verificabilità diventa
un accessorio; ma quando la fiducia è costruita sulla suggestione, i collassi
sono rapidi e costosi.
Moltbook non è un segnale che l’AI stia diventando umana. È un segnale che
stiamo costruendo ambienti in cui la distinzione tra credibile e verificabile si
indebolisce. E quando questa distinzione perde di valore, l’economia paga in
termini di produttività, sicurezza, investimenti sbagliati e perdita di
competitività. La fiducia, nell’economia digitale, non è un sentimento: è
un’infrastruttura. E quando l’infrastruttura cede non si perde soltanto
consenso: blocca il mercato, alza il costo del rischio, e la trasformazione
digitale rischia di diventare una promessa senza garanzie.
The post Moltbook e l’illusione dell’AI emergente: rischi economici della
confusione tra credibilità e verifica first appeared on Lavoratrici e Lavoratori
Aci Informatica.