Facebook : l’IA ne peut appliquer les règles comme l’avait affirmé Mark Zuckerberg

Photo of author

Andy

Publié :

Guy Rosen, le responsable de l’intégrité de Facebook, a reconnu aujourd’hui dans Wall Street Journal que cette année, une vue sur 2 000 contenus comprenait encore des propos haineux sur la plateforme. D’après lui, ce chiffre s’est beaucoup amélioré comparé à la mi-2020 où une vue de contenu sur 1 000 sur Facebook représentait un discours de haine.

Mark Zuckerberg, de son côté, avait affirmé que « En termes de lutte contre la haine, nous avons construit des systèmes vraiment sophistiqués ! » Cela ne correspond pas aux documents internes de la firme. WSJ rapporte que l’IA de Facebook ne peut pas appliquer ses règles systématiquement.

Des documents internes à l’appui

D’après le rapport de Wall Street Journal : « Les dirigeants de Facebook Inc. disent depuis longtemps que l’intelligence artificielle résoudrait les problèmes chroniques de l’entreprise en gardant ce qu’elle considère comme des discours haineux et une violence excessive ainsi que des utilisateurs mineurs hors de ses plateformes. »

Pourtant, les documents internes examinés par l’équipe dévoilent que « Cet avenir est plus éloigné que ne le suggèrent ces dirigeants. L’IA de Facebook ne peut pas systématiquement identifier les vidéos de tournage à la première personne, les diatribes racistes et même, dans un épisode notable qui a intrigué les chercheurs internes pendant des semaines, la différence entre les combats de coqs et les accidents de voiture. »

Des contenus traités partiellement

Dans les documents, les salariés de Facebook ont affirmé que la firme n’efface qu’une partie des publications qui vont outre ses règles. En effet, les algorithmes de Facebook suppriment le contenu uniquement lorsqu’ils sont certains que celui-ci enfreint vraiment les règles. Dans le cas contraire, les utilisateurs verront moins souvent ce contenu sur la plateforme. Les comptes qui ont fait la publication du contenu restent alors impunis.

Les employés confient que Facebook s’est habitué au fait que le contenu soit soumis à ses propres règles. Ils exposent celles-ci comme étant ses normes communautaires aussi bien en interne que dans des documents publics.

Des vérifications humaines négligées

Le journal a pu analyser, dans les documents internes de Facebook, que l’entreprise a décidé de réduire il y a deux ans le temps qu’il faut aux examinateurs humains pour traiter les plaintes pour propos haineux des utilisateurs. Le nombre total des plaintes ont également fait l’objet d’un ajustement pour s’en trouver plus réduites.

Laissez un avis post

Laisser un commentaire