12 décembre 2021

Temps de lecture : 4 min

« Avec plus de 400 heures de contenus vidéo mis en ligne par minute, le risque 0 n’existe pas », Justine Ryst, YouTube

Qu’il s’agisse d’informations bidon sur des sujets politiques, la covid, ou le réchauffement climatique, les GAFAM durcissent les règles. YouTube notamment fait un travail de fond sur ces questions. Interview de Justine Ryst managing director de Youtube France, pour INfluencia.

INfluencia : vous évoquez la règle des 4R pour parler des mesures mises en place contre la désinformation, un sujet lourd de conséquences pour la démocratie. Quelles sont-elles ? Et comment vous y prenez-vous pour nettoyer les contenus présents sur la plateforme ?

Justine Ryst : cette règle des 4R est au cœur de notre stratégie depuis les débuts de YouTube il y a seize ans, mais en 2018 nous sommes montés d’un cran. Il y a le R pour « retirer » tout d’abord des plateformes, toute haine, tout appel à la violence, ou à la désinformation. Une première règle strictement appliquée aux vidéos, et aux commentaires. Soit au total 6 millions de vidéos et plus d’un milliard de commentaires retirés majoritairement grâce à l’IA qui supprime des contenus en s’appuyant sur des phrases, des images et des mots-clé, et neutralise ainsi la majeure partie des contenus impropres…

IN. : peut-on grâce à l’IA seulement, nettoyer intégralement les contenus ?

J.R. : non, bien entendu, une fois cette première étape franchie, il s’agit de faire intervenir l’humain afin d’examiner ce que l’IA ne peut pas déceler… 20 000 personnes travaillent sur ces derniers. Des ingénieurs, des modérateurs, des juristes, des partenaires qui nous signalent aussi des contenus problématiques, tels que des associations qui sont membres du programme Trusted flaggers*, un dispositif très utile. Ce sont des sentinelles dont la vigilance est très importante pour notre modération.

IN. : vous évoquez aussi le R qui concerne les vidéos qui sont « à la ligne de crête » de votre philosophie…

J.R. : il s’agit de vidéos qui sont à la limite de ce qui est accepté par le règlement de la communauté. Des propos, par exemple, qui, sous couvert de la liberté d’expression, appellent aussi à la haine de façon plus ou moins explicite, sont hautement surveillés. Pour ce type de contenu qui joue sur les règles, l’enjeu est de « réduire» leur viralité, ce que nous faisons. En complément, nous nous appliquons à donner aux utilisateurs de la plateforme le plus de contexte possible, également sur les théories controversées et sans fondement scientifique qui sont parfois relayées…

IN. : l’IA, vos salariés modérateurs, les associations, sont-ils suffisants pour aiguiller correctement les internautes ?

J.R. : voici un exemple concret, si vous tapez sur votre barre de recherche « grand remplacement» vous tombez directement sur Wikipedia, une source de référence, puisque cette plateforme est sans cesse réactualisée et modérée.

IN. : qu’en est-il du R comme relayer ?

J.R. : Par exemple, sur les vaccins, nous mettons en valeur dans nos pages les sources fiables émanant d’autorités de scientifiques, d’institutions sanitaires ou de grands médias. Il s’agit notamment de nous appuyer sur des medias de référence, tels que France 24, Brut, Le Monde, Le Figaro, Kombini… afin d’assurer là encore le bon relai, la bonne information contextualisée. Mais notre rôle est aussi de lutter contre l’enfermement algorithimique. Le plus difficile, et là où notre rôle est sans doute le plus ambitieux, est d’éclairer les citoyens, et de leur apporter des connaissances, et l’accès à des arguments de réflexion pour donner accès à des argumentations. Préserver, -ou relever-, encore cette hauteur de réfléxion qui menace tant la liberté de penser.

IN. : enfin, vous évoquez aussi le R comme « récompenser » ou plutôt rémunérer… Votre modèle économique.

J.R. : le modèle de YouTube est publicitaire. Selon les calculs du cabinet Oxford Economics, YouTube est directement ou indirectement responsable d’une contribution de 515 millions d’euros au PIB français. Soit 15 000 emplois à plein temps. Pour prendre quelques exemples, parmi tous les créateurs -qu’ils soient indépendants ou appuyés par des MCN comme Webedia, on pourrait citer Hugo décrypte, une société de quinze CDI, mais aussi Norman, Michou, Natoo, Inoxtag, Just Riadh, La French House, Greg Guillotin… etc.

IN. : la Covid a dû être un exercice challengeant pour Youtube ?

J.R. : la moindre actualité ou nouveauté est un exercice challengeant. Lorsque les antivax se mettent à agir sur les réseaux, nous sommes immédiatement sur le pont pour appliquer les mesures de contenus et les règles d’usage. Idem sur les discours de haine.

IN. : toutes les plateformes gardent leur part d’ombre : vous dites avoir conscience que, sur YouTube aussi, il reste des contenus qui ne sont pas conformes à vos règlements.  Comment travaillez-vous pour supprimer ces contenus problématiques qui demeurent encore ? »

J.R. : l’application de notre règlement, que nous faisons régulièrement évoluer, -en 2020, nous avons fait plus de 10 mises à jour de notre règlement liées à la seule lutte contre la désinformation médicale-, est une priorité pour nous. Avec plus de 400 heures de contenus mis en ligne chaque minute sur YouTube, le Zéro risque n’existe pas mais nous mettons tout en oeuvre, avec des investissements technologiques et humains, pour intervenir le plus rapidement possible.

Le Transparency Report, détaillant les nombreuses actions mises en œuvre pour garantir l’application de notre règlement de la communauté est consultable.  Ainsi, entre janvier et mars 2021, YouTube a retiré 9,5 millions de vidéos. En avril, nous avons créé un nouvel indicateur : le Taux de Vues Incorrectes, qui nous permet de déterminer le pourcentage des vues sur YouTube qui sont générées par des contenus enfreignant nos règles. En Q4 2020, il était de 0.16 -0.18% (ce qui signifie que 16 à 18 vues sur 10 000 sont générées par des contenus non conformes).

IN.: être son propre régulateur, est-ce suffisant pour assurer la sécurité du web puisque les contenus supprimés peuvent migrer vers d’autres plateformes ? »

J.R. : sur le volet régulateur, il est important de rappeler que, au-delà de nos règlements, nous respectons également les lois locales des pays dans lesquels nous opérons. Sur la migration vers d’autres plateformes, il existe de nombreux espaces de collaboration pour éviter justement la propagation de certains contenus problématiques. Ainsi, sur les contenus liés au terrorisme par exemple, il existe une base de données communes (fichiers / empreintes numériques) de contenus illictes via le GIFCT (global internet forum to counter terrorism). Cela permet ainsi pour les autres plateformes (notamment les plus petites) de les repérer plus rapidement, et de prendre les actions qui s’imposent.

*(Les utilisateurs individuels, les agences gouvernementales et les ONG peuvent participer au programme YouTube Trusted Flagger. Les candidats idéaux disposent d’une expertise reconnue dans au moins un des domaines répertoriés dans le Règlement de la communauté, signalent souvent des contenus avec un taux de fiabilité élevé et sont prêts à échanger régulièrement avec YouTube à propos de divers domaines de contenus de la plate-forme)

 

 

 

En résumé

Retirer les contenus inconvenants, réduire le nombre de vidéos aux théories obscurantistes, relayer les médias de référence, rémunérer ses influenceurs. Telle est la règle des 4 R énoncée par Justine Ryst managing director France de TouTube, qui convient qu’il n’y a pas de risque zéro, lorsque l’on diffuse plus de 400 vidéos par minute, mais qui dit faire tout ce qui est en son pouvoir, afin que Youtube soit une plateforme digne de ce nom.

Cristina Alonso

À lire aussi sur le même thème

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia