Au Stockholm Internet Forum : épisode 1, Youtube et les Fakenews

En mai dernier, Nothing2Hide était invité au Stockholm Internet Forum (SIF). Là-bas, nous avons eu l’occasion d’assister à plusieurs tables rondes et d’interpeller quelques grands acteurs d’Internet sur des sujets préoccupants avec souvent pour seules réponses des discours langue de bois ou des copié collé de notes de service juridique. Épisode 1 : Youtube et les Fake news.

Le SIF est un événement organisé par SIDA, l’agence suédoise de coopération internationale. Au cours de cet événement SIDA invite entreprises, ONG et représentants d’institutions internationales à venir échanger autour de l’évolution d’Internet. Parmi les tables rondes très caractéristiques de ce type d’événement, il en est une qui m’a passablement énervé : Défendre l’espace démocratique à l’ère numérique

Défendre l’espace démocratique à l’ère numérique, avec l’ONU, Access Now et Google

Le panel de cette table ronde était composé de – excusez du peu – deux représentants de l’ONU, le ministre suédois de la coopération internationale, une représentante de l’ONG Access Now et – je garde le meilleur pour la fin – d’une représentante de Google, Alex Walden. Au cours de cette discussion, Mme Walden a expliqué avec la naïveté qui caractérise les Googlers (comme ils aiment à s’appeler) que la firme fait tout son possible pour modérer le débat sur ses plateformes et notamment sur Youtube . Dans une phrase digne des meilleurs bullshit Bingo, elle a expliqué que Google a mis le paquet sur ses algorithmes, sur l’intelligence artificielle et sur le machine learning pour mettre fin à la propagation des discours de haine et des fausses informations sur sa plateforme.

Pure Bullshit

Youtube a fait exactement le contraire. Un récent article de Bloomberg explique que la plateforme a sciemment laissé se propager des vidéos conspirationnistes pour attendre des objectifs d’audience. En effet, c’est rarement la vidéo d’un type expliquant les principes de la physique quantique qui obtient le plus de vues sur Youtube mais plutôt celle d’un type expliquant que les attentats du 11 septembre sont un complot de la judéo-maçonnerie internationale, que Notre Dame a été brûlée sciemment par Macron et son équipe pour éviter d’avoir à faire des annonces impopulaires ou je ne sais quel autre délire impliquant lézardiens ou extra-terrestres.

Pire, alors des employés de chez Google conscients du problème avaient proposé des solutions concrètes pour mettre fin à la diffusion virale de ces vidéos, le top management de Youtube a jugé bon de ne rien faire et de demander à ces employés un peu moins embrigadé que le Googler moyen de « ne pas faire de vagues ».

À la fin de la table ronde, j’ai eu l’occasion de pouvoir poser la première question et ai interpellé l’avocate de Youtube à peu près en ces termes :

You said Youtube is using algorithm and machine learning to suppress content about terrorism and so on. But behind machines there are ingeeners, developpers, humans, and people making decisions; So I’d like to have a comment from Google on Bloomberg recent report explaining that the company has willingly let fakenews and toxic videos spread on its platform in order to increase its audience

Vous avez dit que Youtube utilise des algorithme et le « machine learning » pour supprimer les contenu terroristes et autres. Mais derrière les machines, il y a des ingénieurs, des développeurs, des humains et surtout des gens prenant des décisions. J’aimerais donc avoir un commentaire de votre part sur le récent rapport de Bloomberg expliquant que Google a laisse volontairement se propager des vidéos de fakenews et de contenus toxiques sur sa plateforme pour en augmenter l’audience.

Alex Walden a répondu qu’elle ne pouvait pas lire tous les rapports qui sont publiés sur Youtube – il y en a tellement vous comprenez – et que Youtube fait tout son possible pour éviter que des vidéos toxiques ne deviennent virale sur sa plateforme. Une belle réponse langue de bois.

N’ayant, et c’est rien de le dire, pas été très convaincu par cette réponse, je suis allé voir Mme Walden pendant la traditionnelle séance « you were amazing » post panel . Je lui ai alors à nouveau demandé si elle n’avait vraiment pas vu passer le rapport. Devant son étonnement renouvelé je lui ai expliqué que j’aimerais sincèrement la croire, sincèrement croire que Youtube fait de son mieux pour modérer les contenu en ligne. Malheureusement, je pense comme de plus en plus de monde que Google fait aujourd’hui partie du problème et non de la solution. Je lui ai au passage rappelé que Google avait été condamné en France à une amende de 50 millions d’euros pour non respect du RGPD, ce à quoi en bonne avocate elle m’a répondu que l’affaire n’avait pas été jugée puisque Google avait fait appel parce que c’est comme ça « on fait systématiquement appel ». . J’ai été tenté de lui dire que je pourrais utiliser cette technique lors du prochain prélèvement à la source mais que bizarrement l’idée ne m’avait jamais traversé l’esprit mais devant la complexité de la tâche consistant à expliquer le principe de l’impôt à quelqu’un travaillant chez Google, j’ai renoncé.

Pour mettre fin à cette conversation qui ressemblait plutôt à un dialogue de sourd, Alex Walden m’a proposé de me mettre en contact avec les avocats de Youtube en France. Après plus d’un mois d’attente et une relance Twitter, j’ai obtenu une réponse très cordiale incluant un copié collé du communiqué de Presse diffusé suite à l’article de Bloomberg. Je le colle ici car le contradictoire c’est important :

Nous avons eu pour objectif principal au cours des deux dernières années de nous attaquer à des défis extrêmement complexes relatifs aux contenus sur notre plateforme, en tenant compte des commentaires et des préoccupations des utilisateurs, des créateurs, des annonceurs, des experts et des employés. Nous avons pris un certain nombre de mesures importantes, comme notamment la mise à jour de notre système de recommandations pour empêcher la propagation de fausses informations nuisibles; l’amélioration de la diffusion d’informations en provenance de médias sur YouTube; le fait d’atteindre le nombre de 10 000 personnes travaillant sur les problématiques de retrait de contenu chez Google ; l’investissement dans l’apprentissage automatique afin de pouvoir trouver et supprimer encore plus rapidement les contenus non autorisés ainsi que la révision et la mise à jour de nos Règles de la communauté – nous avons réalisé plus de de 30 mises à jour en 2018. Et ce n’est pas fini, être responsable reste notre priorité numéro un.

Réponse officielle copié collée à l’envie par le service juridique de Google

Alors si être responsable est la priorité numéro 1 de Google, me voilà rassuré.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.