YouTube a récemment annoncé que la plate-forme allait arrêter de proposer des vidéos conspirationnistes dans ses recommandations.

Dans les prochaines semaines, YouTube va « réduire le nombre de recommandations concernant le contenu limite et le contenu susceptible de mal informer les utilisateurs de manière préjudiciable», indique la marque sur son blog. Il s’agira notamment « des vidéos promouvant un remède miracle factice pour une maladie grave, affirmant que la Terre est plate ou faisant de fausses déclarations flagrantes d’événements historiques comme le 11 septembre ».

Moins de 1 % des contenus sont concernés

« Ce changement s’appliquera à moins de 1 % du contenu de YouTube, mais nous pensons que limiter les recommandations de ce type de vidéos entraînera une meilleure expérience pour la communauté YouTube. Pour être clair, cela n’affectera que les recommandations relatives aux vidéos à regarder, et non pas à savoir si une vidéo est disponible sur YouTube. »

Bref, tous les contenus resteront donc disponibles. A chacun de se faire son opinion.

En prenant cette initiative, YouTube emboîte le pas des autres géants qui annoncent régulièrement prendre des mesures contre la désinformation, tels que Google, Twitter et Facebook.

L’IA pour seul juge ?

Ce que l’on aimerait néanmoins savoir, dans les cas « limites » ou certaines thèses sont défendues par des lanceurs d’alerte qui dénoncent les agissements cachés d’organisations puissantes, c’est comment YouTube, qui n’a aucune compétence d’investigation, va faire le tri entre information et fake news.

On se doute que, à l’instar des autres compagnies évoquées, YouTube va faire appel à de l’intelligence artificielle et à des algorithmes pour faire cette sélection, et que les modérateurs humains ne seront pas nombreux.

Plus que jamais, mais moins que demain, c’est l’IA qui décide de ce qui mérite – ou pas – notre attention.

F.C.


A LIRE AUSSI SUR WEFUZZ

Science étonnante : la chaîne Youtube qui fait aimer la science