L’opzione nucleare di Meta potrebbe essere quella di ottenere un regolamento

Lavoratrici e Lavoratori Aci Informatica - Sunday, January 25, 2026

(Fonte) Whizy Kim – 20 gennaio 2026

Per la prima volta, Meta chiede al suo Consiglio di Vigilanza di elaborare regole più chiare su quando l’azienda debba imporre ban permanenti – la sanzione più grave che Meta può imporre agli utenti che infrangono le regole – dopo aver disattivato un account Instagram di alto profilo l’anno scorso.

Meta ha chiesto al suo Consiglio di vigilanza di pronunciarsi su quando i divieti permanenti debbano essere applicati agli utenti sulle sue piattaforme, e lo sta facendo attraverso un caso specifico. L’azienda ha chiesto al consiglio di amministrazione di prendere in considerazione un account Instagram “di alto profilo” che era stato disattivato definitivamente l’anno scorso per ripetute gravi violazioni, tra cui minacce e molestie contro una giornalista e “insulti anti-gay contro importanti politici”. L’account non aveva accumulato abbastanza segnalazioni per un ban automatico, ma Meta ha comunque preso la decisione. Oggi, il consiglio di amministrazione ha annunciato che esaminerà il caso e formulerà le sue raccomandazioni entro le prossime settimane.

Non esiste una checklist pubblica che stabilisca cosa comporta un ban permanente, sebbene gli account legati a terrorismo, odio organizzato, sfruttamento minorile o ripetute minacce di violenza possano essere disabilitati direttamente senza accumulare ban. Il comitato di vigilanza semi-indipendente , spesso descritto come la corte suprema interna della piattaforma, può emettere raccomandazioni che Meta si impegna pubblicamente a prendere in considerazione, ma non è tenuta a implementare.

Cresce la pressione su Meta affinché spieghi come decide chi viene rimosso definitivamente dalle sue piattaforme. Creatori, attivisti e piccole imprese lamentano da tempo che gli account possono scomparire da un giorno all’altro con poche spiegazioni o possibilità di ricorso.

Un ban permanente sulle piattaforme Meta può essere l’equivalente digitale dell’esilio: isolati da amici, familiari e comunità di quartiere, con la perdita dell’accesso a foto e post potenzialmente decennali. L’Oversight Board è stato creato dopo anni di reazioni negative per decisioni di moderazione poco trasparenti, inclusi casi in cui gli utenti hanno perso l’accesso ai propri account o hanno visto la rimozione di contenuti senza spiegazioni, e accuse di lunga data secondo cui Instagram avrebbe applicato in modo incoerente le regole sul discorso politico.

Meta sta affidando un quadro normativo cruciale all’Oversight Board in un momento in cui è sotto costante controllo sulla moderazione. I deepfake generati dall’intelligenza artificiale e le truffe di impersonificazione stanno esplodendo più velocemente di quanto gli strumenti di controllo riescano a tenere il passo, mentre i governi stanno aumentando la pressione sulla sicurezza degli adolescenti, comprese le restrizioni di età sui social media. Allo stesso tempo, Meta utilizza l’intelligenza artificiale per moderare automaticamente i contenuti , il che può agire rapidamente ma anche commettere errori gravi.

le raccomandazioni dell’Oversight Board potrebbero rendere l’applicazione dei ban più coerente e trasparente. Oppure potrebbero codificare e legittimare Meta nell’emettere più ban permanenti, dandogli una copertura più solida per rimuovere gli account e offrendo agli utenti poche possibilità di ricorso.

The post L’opzione nucleare di Meta potrebbe essere quella di ottenere un regolamento first appeared on Lavoratrici e Lavoratori Aci Informatica.