Il ceo di Anthropic suona l’allarme sui rischi dell’AI

Lavoratrici e Lavoratori Aci Informatica - Wednesday, January 28, 2026

(Fonte) Alessandro Longo – 28 gennaio 2026

Una lunga lettera di Dario Amodei (CEO di Anthropic) lancia l’allarme sui rischi dell’IA: dalla possibilità di attacchi batteriologici accessibili a chiunque, alla disoccupazione di massa e alla concentrazione del potere.  Amodei ribadisce la necessità di forti “guardrail” per mettere in sicurezza l’IA, richiamando la missione di Anthropic e la sua “Costituzione” per l’IA. Questo allarme potrebbe essere letto anche come azione di marketing per passare, agli occhi di potenziali clienti e investitori di Claude, come l’azienda più attenta alla sicurezza dell’AI. Il Financial Times ha scritto che Anthropic sarebbe avviata a raccogliere 20 miliardi di dollari da venture capitalist e altri investitori, il doppio dell’obiettivo iniziale.

Il fulcro del messaggio contenuto nella lettera è la metafora di un “paese di geni in un data center”: sistemi super-umani, continui e a bassissimo costo, che potrebbero trasformare radicalmente (e pericolosamente) la società.

Per Amodei una concentrazione di capacità del genere equivale a una nuova forma di potere strategico, paragonabile a quello di uno Stato. Da qui discendono tre rischi principali. Il primo è economico-sociale: l’impatto sul lavoro impiegatizio qualificato, soprattutto nelle posizioni junior, che potrebbero essere automatizzate. Il secondo riguarda la sicurezza, in particolare nel campo della biologia, dove l’AI abbassa drasticamente la barriera tecnica per progettare molecole, simulare processi e individuare vulnerabilità. Il terzo è politico: l’uso di questi strumenti da parte di regimi autoritari apre a super sistemi di sorveglianza e controllo, mai visti nella storia. Da notare come Amodei indichi le stesse aziende di AI come potenziale fonte di rischio.

Amodei denuncia l’enorme potere strutturale concentrato nei grandi laboratori di IA, che controllano data center, modelli avanzati, competenze e accesso a milioni di utenti, e che per questo dovrebbero essere sottoposti a maggiore scrutinio pubblico. I rischi crescono a causa degli incentivi economici: profitti potenziali enormi e competizione globale spingono a sviluppare modelli sempre più potenti prima che siano davvero controllabili. Anthropic afferma di affrontare il problema con la propria “Costituzione”, un insieme di principi che guida l’addestramento e la valutazione dei modelli, fissando limiti su violenza, abusi, manipolazione e autonomia decisionale tramite l’addestramento costituzionale.

Per Amodei la “Costituzione” di Anthropic è necessaria ma insufficiente: senza trasparenza, test rigorosi e regole condivise tra aziende concorrenti, non basta a garantire la sicurezza. Altman, invece, vede l’IA soprattutto come un potente motore di crescita, da regolare con nuove istituzioni senza rallentarne eccessivamente lo sviluppo. Yann LeCun respinge l’idea di un rischio esistenziale imminente, sostenendo che i sistemi attuali siano lontani da una vera autonomia e che l’allarmismo distragga dai problemi concreti. Amodei riconosce questi ultimi — frodi con deepfake, disinformazione automatizzata, comportamenti opportunistici dei modelli — ma li considera solo un’anticipazione di rischi ben più gravi, se non si agirà rapidamente con una strategia condivisa tra aziende e governi.

The post Il ceo di Anthropic suona l’allarme sui rischi dell’AI first appeared on Lavoratrici e Lavoratori Aci Informatica.