(hooly-tech.com) – Facebook Inc pour la première fois jeudi a révélé des chiffres sur la prévalence du discours de haine sur sa plate-forme, affirmant que sur 10000 vues de contenu au troisième trimestre, 10 à 11 incluaient des discours de haine.

PHOTO DE FICHIER: Mark Zuckerberg, PDG de Facebook, s’exprime par vidéoconférence lors d’une audition du sous-comité judiciaire de la Chambre sur le droit antitrust, commercial et administratif sur les “plateformes en ligne et le pouvoir de marché”, sur Capitol Hill, à Washington, États-Unis, le 29 juillet 2020. Graeme Jennings / Piscine via REUTERS / File Photo

La plus grande société de médias sociaux au monde, sous examen minutieux de sa police des abus, en particulier autour de l’élection présidentielle américaine de novembre, a publié cette estimation dans son rapport trimestriel sur la modération du contenu.

Facebook a déclaré avoir pris des mesures contre 22,1 millions de contenus de discours de haine au troisième trimestre, dont environ 95% avaient été identifiés de manière proactive, contre 22,5 millions au trimestre précédent.

L’entreprise définit «prendre des mesures» comme la suppression du contenu, le masquage d’un avertissement, la désactivation de comptes ou la transmission à des agences externes.

Cet été, des groupes de défense des droits civiques ont organisé un boycott publicitaire généralisé pour tenter de faire pression sur Facebook pour qu’il agisse contre les discours de haine.

La société a accepté de divulguer la mesure du discours de haine, calculée en examinant un échantillon représentatif de contenu vu sur Facebook, et de se soumettre à un audit indépendant de son dossier d’application.

Lors d’un appel avec des journalistes, le responsable de la sécurité et de l’intégrité de Facebook, Guy Rosen, a déclaré que l’audit serait terminé «au cours de 2021».

L’Anti-Defamation League, l’un des groupes à l’origine du boycott, a déclaré que la nouvelle métrique de Facebook manquait toujours de contexte suffisant pour une évaluation complète de ses performances.

“D’après ce rapport, nous ne savons toujours pas exactement combien de contenus les utilisateurs signalent à Facebook – si des mesures ont été prises ou non”, a déclaré le porte-parole de l’ADL, Todd Gutnick. Ces données sont importantes, a-t-il déclaré, car “il existe de nombreuses formes de discours de haine qui ne sont pas supprimées, même après avoir été signalées.”

Rivals Twitter et YouTube, propriété de Google d’Alphabet Inc., ne divulguent pas de statistiques de prévalence comparables.

Rosen de Facebook a également déclaré que du 1er mars aux élections du 3 novembre, la société avait supprimé plus de 265 000 éléments de contenu de Facebook et Instagram aux États-Unis pour avoir enfreint ses politiques d’interférence électorale.

En octobre, Facebook a déclaré qu’il mettait à jour sa politique en matière de discours de haine pour interdire les contenus qui nient ou déforment l’Holocauste, un revirement par rapport aux commentaires publics du directeur général de Facebook, Mark Zuckerberg, sur ce qui devrait être autorisé.

Facebook a déclaré avoir pris des mesures contre 19,2 millions de contenus violents et graphiques au troisième trimestre, contre 15 millions au deuxième. Sur Instagram, il a agi sur 4,1 millions de contenus violents et graphiques.

Plus tôt cette semaine, le PDG de Zuckerberg et de Twitter Inc, Jack Dorsey, a été interrogé par le Congrès sur les pratiques de modération du contenu de leurs entreprises, des allégations républicaines de parti pris politique aux décisions sur les discours violents.

La semaine dernière, hooly-tech.com a rapporté que Zuckerberg avait déclaré lors d’une réunion de tout le personnel que l’ancien conseiller de Trump à la Maison Blanche, Steve Bannon, n’avait pas suffisamment violé les politiques de l’entreprise pour justifier la suspension lorsqu’il a exhorté la décapitation de deux responsables américains.

La société a également été critiquée ces derniers mois pour avoir permis à de grands groupes Facebook partageant de fausses déclarations électorales et une rhétorique violente de gagner du terrain.

Facebook a déclaré que ses taux de recherche de contenu enfreignant les règles avant que les utilisateurs ne signalent qu’il était en hausse dans la plupart des domaines en raison des améliorations des outils d’intelligence artificielle et de l’extension de ses technologies de détection à plus de langues.

Dans un article de blog, Facebook a déclaré que la pandémie de COVID-19 continuait de perturber sa main-d’œuvre chargée de l’examen du contenu, bien que certaines mesures d’application reviennent aux niveaux d’avant la pandémie.

Une lettre ouverte ici de plus de 200 modérateurs de contenu Facebook publiés mercredi ont accusé la société de contraindre ces travailleurs à retourner au bureau et de “ risquer inutilement ” leur vie pendant la pandémie.

«Les installations respectent ou dépassent les directives sur un espace de travail sûr», a déclaré Rosen de Facebook.

Reportage d’Elizabeth Culliford et Katie Paul; Montage par Nick Zieminski et Tom Brown