«Les fake news, c’est notre vache folle»

Benoît Raphaël est éleveur de robots. C’est son titre officiel et c’est ce qu’il fait. Son nom ne vous dit peut-être rien, mais il compte dans le paysage médiatique français. Ces dix dernières années, le journaliste français a lancé une kyrielle de médias loués, jalousés ou décriés comme Le Post, Le Plus de l’Obs ou Le Lab d’Europe1. Tous expérimentent la relation entre l’humain et le robot dans la production de l’information. C’est donc naturellement que Benoît se reconvertit dans l’agriculture numérique en 2017.  

Sa ferme s’appelle Flint. Un clin d’oeil au pirate de L’Île au trésor pour baptiser la premier média collaboratif entre des humains et des robots. Flint, c’est donc d’abord un projet. Celui d’une newsletter envoyée par des robots qui utilisent l’intelligence artificielle pour déterminer des articles de qualité adaptés et personnalisés à chaque utilisateur. Les robots de Flint fonctionnent comme des êtres humains, c’est-à-dire qu’ils utilisent leurs propres critères de décision dans le choix des contenus.

Dans la masse des publications quotidiennes, les robots de Flint jouent les curateurs. Ils vont essayer en permanence de surprendre l’utilisateur en lui faisant des propositions pour le faire sortir de sa bulle de filtres. Benoît Raphaël élève aujourd’hui plus de 1300 robots. Il explique comment l’éducation des algorithmes est une réponse à la crise des médias et un rempart à la prolifération des fausses nouvelles.

Flint, c’est l’aveu de notre impuissance face à la dictature algorithmique liée à l’information?

Benoît Raphaël: C’est d’abord un héritage. Celui d’une start-up montée en 2013 avec l’éleveur de robots Thomas Mahier et le linguiste Jean Véronis. L’idée était de fournir un service aux médias en nous appuyant sur les algorithmes afin de faire remonter en temps réel les sujets les plus partagés sur internet. Nous nous sommes vite rendu compte qu’un sujet qui «buzze» n’était pas nécessairement d’utilité publique, de qualité et représentatif de la réalité. Après la mort accidentelle de Jean Véronis en 2016, Thomas et moi avons décidé de revoir notre copie en prenant le temps de développer un service utile. Flint, c’est donc le constat d’un problème: c’est le chaos. Les algorithmes nous empêchent d’accéder à la diversité de l’information.

«Ma veille m’enfermait dans des lectures de plus en plus pauvres. Thomas Mahier m’a donc créé un robot personnalisé»

Benoît Raphaël

Mais la qualité de l’information ne se programme pas…

C’est vrai. Pourtant, j’avais un vrai besoin. Ma veille m’enfermait dans des lectures de plus en plus pauvres. Thomas Mahier m’a donc créé un robot personnalisé. Jeff est né en août 2016. Je l’élève depuis en le nourrissant avec les articles qui m’intéressent. Il utilise l’intelligence artificielle afin de me suggérer des articles qui répondent à mes propres critères de qualité. Jeff fonctionne comme mon assistant personnel. Il connaît tout de moi, de mes envies, de mes intérêts, et va essayer en permanence de me surprendre avec des contenus de qualité qui vont me sortir de ma bulle de filtres.

Comment les robots sont-ils devenus les premiers producteurs de fausses informations?

Le propre du machine learning (apprentissage automatique) consiste à nourrir les robots avec des données. C’est sur cette matière qu’ils créent leurs propres règles. C’est parce que nous ne pouvons plus leur en donner qu’il faut leur apprendre à bien apprendre. C’est ce qu’on a mal fait jusqu’ici. Le fait qu’ils soient autonomes et qu’ils traitent des données à toute vitesse crée des biais difficiles à corriger. L’algorithme n’est donc pas neutre. Il est influençable. En 2016, Microsoft a lancé Tay sur Twitter. Il s’agissait d’une intelligence artificielle dont la mission était d’analyser comment les 18-24 ans s’exprimaient sur la Toile. Le problème est que les membres du forum anonyme 4Chan s’en sont emparés et l’ont nourri avec des contenus racistes et homophobes entre autres. Tay s’est donc mis à tweeter que les Noirs étaient des singes et qu’Hitler n’était pas si méchant que cela. Tay n’est pas raciste. Ce sont ses entraîneurs qui le sont.

Facebook est dans la tourmente depuis de longs mois. Et la crise promet de durer. Si le réseau social est accusé d’influencer l’opinion publique, c’est parce qu’il a mal éduqué ses algorithmes?

Un robot reste très «con». Je veux dire par là qu’il simplifie la réalité. Donc s’en éloigne. On ne comprend pas toujours pourquoi les robots nous renvoient tel type de contenus. Ils créent donc des biais qui engendrent des fake news. Les données qui ont permis de nourrir les algorithmes de Facebook ne sont pas mauvaises, mais elles reflètent les biais de leurs programmeurs, soient des hommes blancs, Américains et hétérosexuels. A l’origine, les cadres de Facebook étaient des geeks avec un idéal libertaire. Beaucoup me disent aujourd’hui qu’ils ont pris conscience d’avoir créé des monstres incontrôlables. Afin de les contenir, plusieurs dizaines de milliers d’employés de Facebook sont désormais dédiés à la modération des contenus.

Vous élevez plus de 1300 robots. Votre ferme numérique est donc une école de redressement pour algorithmes? Un rempart aux «fake news»?

Un peu des deux. Avec l’arrivée de Google, puis des réseaux sociaux, je me suis rendu compte que l’information était devenue très horizontale parce que les algorithmes sont devenus complètement fous. Les journalistes, comme les citoyens se sont retrouvés face à une richesse de contenus sur internet, mais difficilement accessibles du fait des bulles de filtres. La crise des médias est venue accélérer ce processus. La publicité qui les finançait jusque-là a migré sur internet. Pour récupérer une audience massive, les journalistes se sont mis à écrire pour les algorithmes de Google et Facebook. Google est un média qui a réussi. C’est une page de résultats sur laquelle je vends de la publicité.

Selon vous, les médias sont aujourd’hui piégés, car dépendants des algorithmes pour compenser l’érosion de leurs recettes publicitaires.

Ce piège est le résultat d’une dispersion de l’audience et d’une perte concomitante du modèle d’affaires basé exclusivement sur la vente d’un contenu à une audience de masse. Si vous voulez que vos contenus de qualité soient vus, il faut écrire pour des robots. Du coup, les médias s’affolent en essayant de recréer cette audience de masse. Ils produisent donc beaucoup de contenus, et très vite. C’est beaucoup de gaspillage. Beaucoup de journalistes mal payés dans un secteur – le net – qui n’est pas rentable. Cette situation vient aussi d’un manque de courage de certains patrons de presse.

Ces dernières années, plusieurs médias ont pourtant réagi en signant un retour à l’offre payante. Ils misent sur la qualité et se montrent beaucoup plus transparents sur les modes de production de l’information.

Le retour à l’offre payante ne règle pas la question de la qualité. Il la rééquilibre. De plus, l’offre payante ne concerne que 1% de la population. Le problème se niche dans la crise de confiance que traversent les médias. En France, elle se situe en dessous des 30%. C’est moins que l’Eglise catholique. Pour regagner la confiance de la population, les médias doivent d’abord réfléchir à la manière dont ils produisent l’information. Pas seulement en termes de qualité, mais aussi en termes de façon de faire. C’est un long processus de résilience.

«On peut trouver malin qu’un média tente le tout internet. Mais dès que Facebook ou Google changeront leurs algorithmes, ce média sera mort. Il ne faut donc pas mettre tous ses œufs dans le même panier»

Benoît Raphaël

Vous plaidez pour un circuit court de l’information. De quoi s’agit-il?

Il faut faire en sorte qu’il y ait le moins de filtres possible entre le fait observé et l’information délivrée. Il a fallu attendre vingt ans après le scandale de la vache folle pour que les consommateurs s’intéressent au contenu de leur assiette. Les fake news, c’est notre vache folle. Est-ce que l’on va devoir attendre vingt ans pour réagir? Je ne suis pas contre l’idée d’un label qualité de l’information.

Vous êtes donc un journaliste décroissant?

Il est urgent de ralentir. Chez Flint, nous sommes plus proches des artisans que des ingénieurs de la Silicon Valley. Nous travaillons l’intelligence artificielle avec la même lenteur qu’un artisan. L’AI est plus proche de l’intelligence des plantes. C’est très organique.

En créant leur propre modèle de production de l’information, les médias peuvent-ils s’affranchir de Google et de Facebook pour la diffusion et la captation de l’audience?

L’important est de pouvoir rester indépendant par rapport à tous les supports. Le modèle économique des médias n’est plus unique. C’est une combinaison de différents modèles. On peut trouver malin qu’un média tente le tout internet. Mais dès que Facebook ou Google changeront leurs algorithmes, ce média sera mort. Il ne faut donc pas mettre tous ses œufs dans le même panier. La clé réside dans la diversification des supports de diffusion et dans la qualité du lien qu’un média crée avec ses audiences. Si vous jouez sur différents canaux, vous fidéliserez différentes audiences.

Vous citez d’ailleurs en exemple le traitement médiatique des «gilets jaunes» par le «pure player» Brut. Il s’agit pourtant d’un média exclusivement diffusé sur les réseaux sociaux, et uniquement en format vidéo.

Brut n’est pas une référence journalistique. Mais Rémy Buisine, le producteur des directs, s’est promené des heures au sein des «gilets jaunes». Il filme en continu et explique ce qu’il voit. Nous sommes dans le degré le plus simple du traitement de l’information. Ce qui m’intrigue, c’est que Rémy Buisine est le seul journaliste en qui les «gilets jaunes» ont confiance. La raison? La façon dont il a fabriqué son direct était claire et transparente.


Cet article est paru dans LE TEMPS