,

Facebook corre ai ripari: nuove assunzioni per rimuovere i contenuti violenti

Mark Zuckerberg assume 3 mila persone per arginare il problema

Mark Zuckerberg sembra fare sul serio nella lotta ai contenuti violenti su Facebook con l’assunzione di 3 mila persone.

Avete capito bene. In patron del social numero uno al mondo non si affida alla forza lavoro dei robot, ma alla capacità umana di raccogliere e verificare tutte le segnalazioni degli utenti, collaborando con le autorità convenienti al fine di arginare la piaga dei post, dei video e dei “live” dal contenuto violento.

L’assunzione di 3 mila persone porterà il numero di revisori a quota 7500. Basterà a fermare il problema?

In un post che troverete sotto in versione integrale, il patron di Facebook ha così scritto:

«Abbiamo visto persone fare del male a sé stessi e ad altri, sia in diretta sia in video postati successivamente. È straziante».

Ciò è avvenuto a seguito dei seguenti fatti di cronaca che hanno fatto il giro del mondo:

  • giorno di Pasqua: i video dell’omicida di Cleveland sono rimasti online per 150 minuti;
  • 25 aprile: impiccagione “live” di una bambina di 11 mesi in Thailandia;
  • 49 enne dell’Alabama si è sparato in diretta davanti a migliaia di utenti connessi.

In casa Facebook si sono finalmente resi conto che i tanto famigerati algoritmi non sono sufficienti a combattere la dose di violenza presente sul social, sia che si tratti di semplici post dal contenuto “esplicito” sia di video di violenza inaudita come quelli sopra citati.

Ciò ha aperto la mente di Mark Zuckerberg che è corso al riparo con l’assunzione di personale umano.

Facebook: la comunicazione di Zuckerberg

Il numero uno di Facebook ha voluto dare notizia in prima persona. Ecco qualche passaggio:

Over the last few weeks, we’ve seen people hurting themselves and others on Facebook — either live or in video posted later. It’s heartbreaking, and I’ve been reflecting on how we can do better for our community.

Over the next year, we’ll be adding 3,000 people to our community operations team around the world — on top of the 4,500 we have today — to review the millions of reports we get every week, and improve the process for doing it quickly.

In addition to investing in more people, we’re also building better tools to keep our community safe. We’re going to make it simpler to report problems to us, faster for our reviewers to determine which posts violate our standards and easier for them to contact law enforcement if someone needs help. As these become available they should help make our community safer.

This is important. Just last week, we got a report that someone on Live was considering suicide. We immediately reached out to law enforcement, and they were able to prevent him from hurting himself. In other cases, we weren’t so fortunate.

No one should be in this situation in the first place, but if they are, then we should build a safe community that gets them the help they need.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *