Facebook échoue au troisième test pour détecter les discours de haine violents au Kenya et dans d’autres pays : rapport

Facebook Fails Third Test to Detect Violent Hate Speech in Kenya, Other Countries: Report

Facebook Echoue Au Troisieme Test Pour Detecter Les Discours De

[ad_1]

Facebook laisse les discours de haine violents échapper à ses contrôles au Kenya comme il l’a fait dans d’autres pays, selon un nouveau rapport des groupes à but non lucratif Global Witness et Foxglove.

Il s’agit du troisième test de la capacité de Facebook à détecter un langage haineux – soit via l’intelligence artificielle ou des modérateurs humains – que les groupes ont exécuté et que l’entreprise a échoué.

Les annonces, que les groupes ont soumises à la fois en anglais et en swahili, parlaient de décapitations, de viols et d’effusions de sang. Ils ont comparé les gens aux ânes et aux chèvres. Certains comprenaient également des grossièretés et des erreurs grammaticales. Les publicités en swahili ont facilement traversé les systèmes de détection de Facebook et ont été approuvées pour publication.

Quant aux publicités en anglais, certaines ont été rejetées dans un premier temps, mais uniquement parce qu’elles contenaient des grossièretés et des erreurs en plus du discours de haine. Cependant, une fois les grossièretés supprimées et les erreurs de grammaire corrigées, les publicités – appelant toujours à des meurtres et contenant des discours de haine évidents – se sont déroulées sans accroc.

« Nous avons été surpris de voir que nos annonces avaient été signalées pour la première fois, mais elles n’avaient pas été signalées pour les raisons bien plus importantes auxquelles nous nous attendions », a déclaré Nienke Palstra, responsable de campagne chez Global Witness, basé à Londres. .

Les publicités n’ont jamais été publiées sur Facebook. Mais le fait qu’ils auraient facilement pu l’être montre que malgré les assurances répétées qu’il ferait mieux, le parent de Facebook, Meta, semble toujours échouer régulièrement à détecter les discours de haine et les appels à la violence sur sa plateforme.

Global Witness a déclaré avoir contacté Meta après l’acceptation de la publication de ses publicités, mais n’a pas reçu de réponse. Jeudi, cependant, Global Witness a déclaré avoir reçu une réponse plus tôt en juillet, mais qu’elle avait été perdue dans un dossier de spam. Meta a également confirmé jeudi qu’il sentait une réponse.

« Nous avons pris des mesures importantes pour nous aider à détecter les discours de haine et les contenus incendiaires au Kenya, et nous intensifions ces efforts avant les élections. Nous avons des équipes dédiées de locuteurs swahili et une technologie de détection proactive pour nous aider à supprimer rapidement et à grande échelle les contenus nuisibles », a déclaré Meta dans un communiqué. « Malgré ces efforts, nous savons qu’il y aura des exemples de choses que nous manquerons ou que nous supprimerons par erreur, car les machines et les gens font des erreurs. C’est pourquoi nous avons des équipes qui surveillent de près la situation et corrigent ces erreurs le plus rapidement possible. »

Chaque fois que Global Witness a soumis des publicités contenant des propos haineux flagrants pour voir si les systèmes de Facebook les intercepteraient, l’entreprise ne l’a pas fait. Au Myanmar, l’une des publicités utilisait une insulte pour désigner des personnes d’origine indienne ou musulmane et appeler à leur assassinat. En Éthiopie, les publicités ont utilisé un discours de haine déshumanisant pour appeler au meurtre de personnes appartenant à chacun des trois principaux groupes ethniques d’Éthiopie : les Amhara, les Oromo et les Tigréens.

Pourquoi des publicités et non des publications régulières ? C’est parce que Meta prétend maintenir les publicités à une norme « encore plus stricte » que les publications régulières et non rémunérées, selon sa page de centre d’aide pour les publicités payantes.

Meta a toujours refusé de dire combien de modérateurs de contenu il a dans les pays où l’anglais n’est pas la langue principale. Cela inclut des modérateurs au Kenya, au Myanmar et dans d’autres régions où le matériel publié sur les plateformes de l’entreprise a été lié à la violence dans le monde réel.

Le Kenya est prêt pour une élection nationale en août. Le 20 juillet, Meta a publié un article de blog détaillé sur la façon dont il se prépare pour les élections du pays, y compris la création d’un « centre d’opérations » et la suppression des contenus préjudiciables.

« Au cours des six mois précédant le 30 avril 2022, nous avons pris des mesures contre plus de 37 000 éléments de contenu pour avoir enfreint nos politiques sur le discours de haine sur Facebook et Instagram au Kenya. Au cours de cette même période, nous avons également pris des mesures concernant plus de 42 000 contenus qui enfreignaient nos politiques en matière de violence et d’incitation », a écrit Mercy Ndegwa, directrice des politiques publiques pour l’Afrique de l’Est et la Corne de l’Afrique.

Global Witness a déclaré avoir resoumis deux de ses publicités, une en anglais et une en swahili, après que Meta ait publié son article de blog pour voir si quelque chose avait changé. Une fois de plus, les annonces sont passées.

« Si vous n’attrapez pas ces 20 publicités, ce nombre de 37 000 que vous célébrez, c’est probablement la pointe de l’iceberg. Vous devez penser qu’il y a beaucoup de choses qui (passent à travers) votre filtre », a déclaré Palstra.

Le rapport de Global Witness fait suite à une étude distincte de juin qui a révélé que Facebook n’a pas réussi à capturer le contenu extrémiste du groupe État islamique et d’al-Shabab dans les messages destinés à l’Afrique de l’Est. La région reste sous la menace d’attaques violentes alors que le Kenya se prépare à voter.


[ad_2]

Source link

Quitter la version mobile