Ma tutto bene Facebook? L'algoritmo di auto-moderazione sta dando i numeri

7 months ago 124

Come probabilmente saprete se usate Facebook, il social di Meta integra una "tecnologia" (leggasi algoritmo) che riconosce i contenuti che potrebbero violare i vari standard decisi dai responsabili, ad esempio in materia di "Contenuti forti e violenti" e temi delicati simili a questo.

Si tratta di un sistema automatico, che reagisce all'uso di termini, tipologie di immagini, link e contenuti simili, solo che non è dato sapere quali siano questi parametri di reazione, visto e considerato che su Facebook si trova davvero di tutto, inclusi contenuti che dovrebbero essere bloccati e invece sono pubblici e pieni zeppi di interazioni.

Ultimamente non ne azzecca una

Sono oramai diverse settimane che il fantomatico algoritmo di auto-moderazione di Facebook se la sta rifacendo con la nostra pagina ufficiale di SmartWorld. Se ci seguite saprete che non facciamo altro che condividere post relativi agli articoli sulla tecnologia che pubblichiamo sul sito, più i nostri video in stile Reel e qualche meme o immagine di altra natura.

Inutile dirvi che stiamo molto attenti a ciò che pubblichiamo, ma a Facebook a quanto pare non basta. L'ultimo caso risale a poche ore fa: valutate voi per capire perché stiamo scrivendo questo articolo.

Il post preso di mira da Facebook fa riferimento all'ingresso di Fastweb nel mercato dell'energia. "La nostra tecnologia" fa sfoggio Facebook "ha mostrato che questo post è simile ad altri che violano i nostri Standard della community in materia di Contenuti forti e violenti". Meta prosegue facendo anche esempi concreti: post che celebrano sofferenza o umiliazione o che sono eccessivamente violenti.

Ma di preciso, l'algoritmo, cosa avrebbe visto di violento in un post sul mercato dell'energia? Direte voi: è un caso sporadico, un errore come un altro! In realtà non è la prima volta che ci succede. Nelle scorse settimane è accaduto con altri post simili a quello di Fastweb, che non avevano nulla a che vedere con contenuti violenti, di spam o simili.

La cosa bella è che Facebook prima prende provvedimenti, poi fa controllare il post a un moderatore minacciando ulteriori ritorsioni nel caso il controllo confermi che si tratti di un contenuto che viola gli standard di Facebook.

Comunque sia, negli altri casi abbiamo chiesto un controllo manuale e dopo qualche giorno di attesa Facebook ha rimosso il warning sui post facendoli tornare alla normalità. Potremmo discutere sul danno che una roba del genere arreca alla pagina, ma non è questo il punto. Il punto è che, come dicevamo poco fa, Facebook è pieno di contenuti complottisti, di spam, pubblicità scam (avete visto quella sulla Canalis che imperversa anche su YouTube? NdR) e simili che non solo non ricevono warning, ma sono in bella vista e persino spinti dagli algoritmi che si occupano di diffondere i post anche al di fuori della cerchia dei fan o dei follower.

Non solo sulle pagine

Sempre oggi, l'algoritmo di moderazione di Facebook ha cercato di bloccare un altro post, stavolta del mio profilo personale.

Tenetevi forte, perché questa è davvero bella:

Direi che si commenta da sola. Anche qui non si tratta di un caso isolato: ci sono altri utenti del nostro gruppo Facebook (iscrivetevi da qui!) che in privato in passato mi hanno segnalato comportamenti simili da parte dell'algoritmo automatico di moderazione.

Anche voi avete riscontrato comportamenti anomali da parte di Facebook nelle ultime settimane? Fatecelo sapere sul nostro gruppo!

Read Entire Article