Meta dimezza le rimozioni errate di contenuti senza aumentare i rischi per gli utenti
La rivoluzione delle note comunitarie di Facebook e Instagram
Meta ha annunciato una svolta significativa nel modo in cui gestisce i contenuti su Facebook,Instagram e Threads. Sostituendo i tradizionali verificatori di fatti con le note comunitarie ispirate dagli utenti di X, la società ha ridotto del 50% le rimozioni errate di contenuti negli Stati Uniti, riuscendo però a non esporre maggiormente i suoi utenti a materiale dannoso rispetto al passato.
Questa nuova strategia, introdotta da gennaio, abbandona il noto sistema di fact-checking per affidarsi a un modello più partecipativo, in cui la comunità contribuisce con feedback e segnalazioni. Il processo è stato descritto nel recente rapporto trimestrale sul rispetto delle norme comunitarie,pubblicato nel blog ufficiale di Meta.
Un incremento appena percettibile di contenuti problematici
Nonostante i cambiamenti, Meta ha rilevato un lieve aumento di contenuti legati a violenza, molestie e intimidazioni su Facebook, con incrementi contenuti fra lo 0,01% e lo 0,02%. Sebbene questi segnali destino attenzione,la crescita appare marginale e compresa in un contesto di più ampio controllo.
Un’analisi di Wired ha calcolato che,a livello globale,il numero di contenuti rimossi da Facebook e Instagram per violazione delle regole è diminuito di quasi un terzo nel primo trimestre dell’anno rispetto al periodo precedente,passando da circa 2,4 miliardi a 1,6 miliardi di rimozioni.
Quali tipi di contenuti sono stati rimossi di meno?
- Pubblicazioni contrarie alle regole anti-spam: -50%
- contenuti pericolosi per utenti minorenni: -36%
- Materiali contenenti hate speech: -29%
Tra controllo e libertà: il delicato equilibrio di Meta
Meta riconosce la complessità di bilanciare la sicurezza della piattaforma con la libertà di espressione. secondo l’azienda, limitare eccessivamente i contenuti rischia di far sfuggire violazioni importanti, mentre un controllo troppo restrittivo può generare errori e frustrazioni tra gli utenti.
Nel tentativo di proteggere i più giovani, Meta proseguirà nell’implementazione di strumenti proattivi per contrastare i contenuti dannosi, come quelli relativi a bullismo e molestie, nascondendo queste pubblicazioni agli utenti adolescenti.
Un sistema più preciso e meno invasivo
Meta afferma di aver migliorato i suoi sistemi automatizzati, calibrando soglie più alte per la rimozione dei contenuti. Prima di eliminare un post, ora sono richiesti più livelli di revisione, riducendo gli errori che in passato interessavano tra il 10% e il 20% delle azioni.
Per correggere le imprecisioni, la società ha temporaneamente disattivato alcuni algoritmi e ha intensificato le verifiche manuali, soprattutto negli USA, con l’obiettivo di affinare la qualità delle valutazioni.
Verso un modello sostenibile di moderazione
Nonostante la diminuzione delle rimozioni, Meta rivendica una politica più efficiente e sostenibile, evidenziando una riduzione anche nel numero di contenuti sanzionati prima che venissero segnalati dagli utenti.
Resta da vedere come evolveranno le prossime rilevazioni, ma questa svolta segna un passo avanti verso una piattaforma social più attenta alla qualità, capace di mettere al centro la genuinità dell’esperienza degli utenti senza sacrificare la sicurezza.
Siamo social! Clicca e seguici per essere sempre connesso con noi!