Le problème des fausses nouvelles est pire qu’on pensait?
Par Jeff Yates (Métro) L’inspecteur viral
Il y a de ces moments fortuits dans la vie qui viennent prouver qu’on avait raison depuis le tout début. L’inspecteur viral n’y prend pas plaisir (ok, un peu), mais avec la nouvelle comme quoi les algorithmes qui gèrent les «trending topics» (sujets populaires) de Facebook se sont mis à publier des fausses nouvelles quelques jours à peine après leur mise en marche, il se permet de dire «je vous l’avais dit!»
Pour ceux qui ne connaissent pas l’histoire: Facebook donne accès à une boîte «trending topics» à la majorité de ses usagers anglophones. Dans cette boîte apparaissent les 5 ou 6 sujets qui cartonnent le plus sur le réseau. Anciennement, des employés de Facebook s’affairaient à donner un contexte à ces sujets de l’heure. En s’appuyant sur des sources d’information crédibles, ils écrivaient un court paragraphe qui expliquait pourquoi le sujet était soudainement populaire.
Par exemple, si Prince se retrouvait dans le palmarès peu après qu’on ait appris sa mort, ils écrivaient «Le chanteur Prince a été retrouvé mort ce matin dans sa demeure». Rien de trop controversé, quoi.
Or, voilà que le site Gizmodo révélait en mai que les personnes qui s’occupaient de la boîte trending topics faisaient preuve d’un biais en faveur des nouvelles un peu plus de gauche.
À l’heure où Facebook contrôle une vaste partie du marché de l’information, la révélation a eu l’effet d’une bombe. Est-ce que Facebook a la responsabilité d’être impartial? Et si non, quel effet cela pourrait-il avoir sur notre accès à l’information?
Il faut croire que Facebook a pris la controverse au sérieux, puisque le réseau social a annoncé vendredi dernier que ce seraient des algorithmes, et non des humains, qui gèreraient dorénavant la boîte trending topics.
Trois jours plus tard, la boîte trending topics mettait déjà de l’avant une fausse nouvelle.
En gros: la journaliste Megyn Kelly du réseau Fox News se retrouvait en tête du palmarès lundi, après qu’un article du magazine Vanity Fair ait évoqué la possibilité que son contrat avec Fox News ne soit pas renouvelé à l’automne. Rappelez-vous que c’est elle qui avait été humiliée publiquement sur Twitter par Donald Trump après un débat télévisé où elle avait tenté de le confronter à sa misogynie.
Mais, lundi, quand on regardait ce que la boîte trending topics nous racontait sur Megyn Kelly, on voyait ça:
«DERNIÈRE HEURE: Fox News répudie la traîtresse Megyn Kelly et la démet de ses fonctions après qu’elle ait endossé Hillary Clinton», nous expliquait les trending topics.
En fait, cette phrase provenait d’un site de fausses nouvelles ultra-partisan de droite qui s’était inspiré de l’article de Vanity Fair pour inventer une histoire qui correspondait à son point de vue (c’est une tactique courante).
Plusieurs médias ont profité de cette bévue du trending topics pour se moquer de Facebook, avançant qu’il y avait là la preuve que les robots ne remplaceront jamais les humains, etc.
Mais l’inspecteur y a vu quelque chose d’autre. Quelque chose de beaucoup plus inquiétant.
Les algorithmes de Facebook ne sont pas intelligents. Ils ne font que repérer l’article qui est le plus populaire et recracher ce qu’il raconte.
Donc, au moment où TOUT LE MONDE (aux États-Unis, du moins) parlait de Megyn Kelly, c’est un article d’un site de fausses nouvelles qui circulait le plus. Pas celui d’un média d’information légitime, mais une invention. Une lubie.
En d’autres mots, l’article le plus populaire traitant du sujet le plus populaire de la journée était une fausse nouvelle.
Et ça, les amis, c’est la preuve que quelque chose ne tourne pas rond avec la propagation des informations dans l’ère de Facebook. Encore une fois, le mensonge gagne.
C’est ce qui arrive quand la présentation des nouvelles est contrôlée par un robot qui n’assigne de la valeur à une information que sur les bases de sa popularité. Ce ne sont pas des informations importantes qui circulent, mais celles qui sont populaires. L’information est-elle vraie? Who cares?
Et comme nous l’apprenait dimanche le New York Times Magazine dans un article assez troublant, des acteurs politiques extrémistes ont très bien compris cela. Plutôt que de prendre le temps d’écrire des articles qui valent la peine d’être lus, des gens d’affaires futés ont compris qu’il est mieux de tout simplement analyser ce qui est populaire chez un certain lectorat et de lui donner ce qu’il veut.
Donc, par exemple, on crée une page anti-Clinton et on la peuple de memes, de photos, d’articles et de publications Facebook qui mettent de l’avant des «faits» (qu’ils soient vrais ou non, peu importe) qui «prouvent» que Clinton est le diable incarné. Vu que notre auditoire est conquis d’avance, ces publications circulent énormément (on ne partage généralement pas quelque chose qui nous contredit, quand même!)
Et ça marche. Très bien, même.
Voilà pourquoi, à une époque où tous les médias d’information peinent à frotter deux cennes noires ensemble, un des hommes interviewés par le magazine, propriétaire de quelque 120 pages anti-Clinton, se targue de générer un revenu comparable à un médecin, soit 20 000$ PAR MOIS. Ils sous-traite l’écriture de ses articles à un couple de Philippins et ne se soucie pas trop de ce qu’ils écrivent, tant que ça circule. Qu’on mente ou non, l’important, c’est que les gens partagent.
C’est un concours darwiniste numérique que les médias d’information sérieux ne peuvent pas gagner.
Si un réseau social attribue de la valeur à une information en fonction de sa popularité et non en fonction de son importance, les sources d’information populaires primeront, peu importe si elles sont fiables ou non. Les sites de pièges à clics, de fausses nouvelles et d’actualités ultra-partisanes ont une «génétique» beaucoup mieux adaptée à la «jungle» de Facebook que les médias d’information sérieux.
C’est la loi de la jungle, et nous, les médias d’information, sommes des souris.
L’inspecteur ne sait pas si un précédent existe dans le monde développé pour ce genre de situation et ignore quel effet cela pourrait avoir sur l’avenir de nos sociétés.
On verra bien.