La problématique de l’algorithme Facebook

Posté le 23 novembre 2016 par Christian dans Social Media
fakebook

Pendant des mois avant l’élection présidentielle aux États-Unis, un lent filet d’angoisse a entouré le problème des fausses informations diffusées sur Facebook. Après l’élection de Donald Trump le mois dernier, ce filet s’est transformé en un déluge de colère. « Facebook dans les batailles croisées après l’élection sur la gestion de son influence (ENG)» a écrit le New York Times. « Donald Trump a gagné les élections à cause de Facebook (ENG)» prêchait Max Lire dans le magazine New York. Et mercredi, BuzzFeed News signalait : « la fausse élection virale a surpassé la réalité sur Facebook (ENG) dans les derniers mois de l’élection américaine ».

Facebook est une société de technologie, pas une société de médias

Facebook avait déjà lutté contre les critiques qui l’accusaient d’ignorer son rôle en tant qu’entreprise de média. (Les deux fondateurs Mark Zuckerberg et COO Sheryl Sandberg ont à plusieurs reprises affirmé dans la presse : « Facebook est une société de technologie, pas une société de médias ». Facebook avait été également sous le feu des projecteurs cette année pour censurer la soi-disant « la fille du Napalm », une photographie qui a remporté le prix de Pulitizer. Titré de son algorithme Trending News (ENG), Facebook avait essuyé une vague de colère des annonceurs après avoir admis effectuer des chiffres biaisés et résisté à une pléthore d’histoires accusant la plateforme de « créations dommageables » et de donner la voie aux pages hyper-partisanes qui exploitent les craintes des gens.

Mais le radar du rapport de BuzzFeed News (ENG) a pu révéler que ce genre d’incident peut être dommageable pour la réputation de l’entreprise. L’équipe de BuzzFeed News a soigneusement enregistré les messages d’une variété de pages Facebook hyper-partisan (ainsi que quelques contrôles sur Politico et ABC News) sur une période de sept jours. Les résultats ont été étonnants : alors qu’aucun des médias grands publics n’a publié d’allégation considérée comme la plupart du temps fausse, 1 à 3 % des pages de droite et 4,4 % des pages de gauche ont publié de fausses nouvelles. Malheureusement, il y avait une forte corrélation entre les fausses nouvelles et l’engagement. 46 % des messages de Freedom Daily ont été classés trompeurs ou faux et leur page Facebook a enregistré de loin l’engagement le plus élevé parmi les éditeurs de droite dans le rapport.

En général, BuzzFeed a constaté que : « les posts typiquement les plus véridiques ne fonctionnaient pas aussi bien que ceux qui étaient pour la plupart faux. Il y avait un mélange de vrai et de faux, sans contenus factuels. Le plus ouvertement partisan, trompeur conduisait à un post qui avait plus d’engagements selon nos données ».

Un rapport séparé sur BuzzFeed News sur les adolescents macédoniens qui utilisent les pages de droite de Facebook (ENG) a révélé un résultat plus inquiétant : « un post intitulé Hilary Clinton en 2013 : j’aimerai voir des gens comme Donald Trump gagné le Bureau Ovale ; ils sont honnêtes et ne peuvent pas être achetés. Le post en une semaine a accumulé 480 000 actions, réactions et commentaires sur Facebook. On peut mettre cela en perspective avec une parution dans le New York Times (ENG) qui affirmait que Donald a déclaré une perte de 916 millions $ sur ses 1995 d’impôt sur le revenu. Cette déclaration a généré plus de 175 000 interactions sur Facebook en un mois.

Les domamges des fausses nouvelles

Il est important de noter que d’un point de vue des recettes, Facebook s’en sort très bien. L’entreprise a déclaré des bénéfices énormes en Q3  (ENG) et n’a montré aucun signe de ralentissement. Mais il vaut la peine de se demander si avec les annonceurs premium, Facebook qui essaye de traiter avec des fonctionnalités telles que le lecteur vidéo natif et Facebook Live pourront être désactivés afin de sauvegarder la réputation de la société pour les faux contenus. On l’a déjà remarqué avec deux sociétés similaires : Outbrain et Taboola. Les contenus de recommandation de ces plateformes une fois omniprésents sur le web sont de plus en plus évités par les grandes entreprises de médias  (ENG) qui suppriment la fonctionnalité ou construisent la leur. Pourquoi ? Parce que les éditeurs se méfient de l’exécution des plateformes avec des liens cliquables (eng) qui renvoient à des faux contenus et des escroqueries.

Les plateformes programmatiques font face à des critiques similaires des annonceurs pour le manque de contrôle. Une société de premier plan comme CocaCola par exemple ne veut probablement pas que ses annonces apparaissent à côté d’un site web connu qui nie l’holocauste.
Pourtant, sur Facebook, ce scénario de transforme en norme. Le contenu de l’annonceur et de l’éditeur est placé dans le même espace que les fausses nouvelles et les fils d’actualité.

Un problème résolu ?

Facebook a fait des efforts pour éliminer ces fausses nouvelles sur sa plateforme. En 2014, le média social a annoncé qu’il allait sévir  (ENG), il l’a annoncé à nouveau en Août. Mais il y a peu de preuve parce que les changements algorithmiques qui reposent sur une métrique similaire aux « taux de rebond » pour les identifier ont affecté les usines de contenus des hyper-partisans. Comme BuzzFeed News le souligne, les gens ne considèrent pas ces histoires comme de faux posts. En fait, ils sont plus engageants que tout autre genre de nouvelles.

Ce phénomène se situe au cœur du modèle de gestion de Facebook. Les objectifs ultimes sont de construire une base d’utilisateurs et de maximiser le temps passé sur la plateforme. Par conséquent, le flux de nouvelles est conçu pour donner la priorité à l’engagement quelle que soit le contenu. En d’autres termes, les fausses nouvelles et les hyper-partisans sont bons pour les affaires de Facebook. Comme l’analyste technique Ben Thompson l’a écrit : « qu’ils soient beaucoup plus dommageable et plus engageant, ces posts sont lucratifs pour Facebook. Ils peuvent nous pousser à aimer les opinions qui nous disent que nous sommes à droite au lieu de nous engager sur des points de vue qui font remettre en question nos hypothèses ».

Il semble que Facebook, tout au moins une partie de l’entreprise a finalement décidé que les fausses nouvelles doivent être abordées. Bien que Zuckerberg a brossé l’idée que Facebook aurait pu influencer les élections, BuzzFeed News rapporte qu’un groupe de renégats des employés est à la construction d’une solution et que des centaines d’employés ont exprimé des doutes sur le leadership de la société.

Les fausses nouvelles ont été traitées par Google (ENG) en dépit de quelques failles dans le système, il y a longtemps dans son algorithme de recherche. Google a également annoncé (ENG) qu’il retire de son réseau publicitaire les sites de fausses d’information. Naturellement, Facebook a également annoncé un plan visant à retirer son réseau publicitaire de Audience Network à partir de faux sites d’information. Mais pour vraiment travailler vers une solution, Facebook devrait suivre l’avance de Google et purger les sites de fausses nouvelles de son flux d’informations. Sinon, Facebook risque d’être tiré à boulet rouge et de perdre les annonceurs dans ce processus.

(source)

Enregistrer

Enregistrer

Mon Habitat Web

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *