Dakarmidi – Grâce au machine learning, YouTube parvient à épurer son service des vidéos jugées inacceptables. Renforcé par des modérateurs humains, ce système débouche sur l’exclusion de 8 millions de vidéos chaque trimestre.
Dans un rapport publié par YouTube, ce service fait le constat de 8 millions de vidéos supprimées par lui même pour des raisons liées à la modération. En effet, le contenu diffusé et rendu disponible par les internautes sur YouTube est parfois difficile à filtrer pour la firme de la Silicon Valley.
Le machine learning, l’outil principal de tri de YouTube
Ce compte rendu, qui porte sur le premier trimestre 2018, dévoile notamment partiellement la méthode et le fonctionnement employés pour effectuer ce nettoyage indispensable. En particulier, le machine learning demeure l’outil principal à l’origine de ce tri à grande échelle, au moyen d’une intelligence artificielle dotée de nombreux paramètres visant à identifier et exclure le contenu ne respectant pas les règles.
En termes de chiffres, ce sont ainsi 76% des vidéos supprimées qui l’on été automatiquement par les ordinateurs, soit un total d’environ 6,6 millions. Ce système aura donc permis qu’aucune des vidéos concernées n’aient pu être regardées par qui que ce soit.
Divers acteurs pour épurer YouTube
Bien que la preuve de l’efficacité de ce système automatique soit faite, YouTube emploie malgré tout une équipe de modérateurs humains, pour tous les cas litigieux où l’intelligence artificielle rencontre ses limites.
Cette sécurité est renforcée par des partenariats avec divers associations œuvrant pour la défense des internautes, débouchant sur le programme Trusted Flagger, à l’origine de la suppression de 1,1 million vidéos lors du premier trimestre 2018. De la même manière, environ 400.000 clips l’ont été suite à des réactions d’internautes.
Fidèles aux résultats obtenus lors du précédent trimestre, le rapport pour début 2018 fait état de proportions équivalentes pour ce qui est des types de vidéos supprimées: 30,1% de caractère sexuel, 26,1% de spams, 15,6% de contenu haineux ou diffamatoire, 21,1% de contenu violent ou dangereux, moins de 7% englobant terrorisme et pédopornographie.