header-logo

Communication marketing basée sur l'intelligence artificielle

Avis de non-responsabilité : le texte affiché ci-dessous a été traduit automatiquement à partir d'une autre langue à l'aide d'un outil de traduction tiers.


Les réglages de YouTube pour recommander moins de vidéos de conspiration semblent fonctionner

Mar 5, 2020 1:16 AM ET
Les chercheurs ont suivi le comportement de recommandation de la plate-forme pendant un an.

Un des aspects les plus importants de YouTube est son moteur de recommandation, comme la grande majorité des vues et le temps de regarder proviennent de contenu suggéré, plutôt que le trafic direct. La plate-forme fait un bon travail de déterminer quelles vidéos seraient pertinentes pour un utilisateur donné, mais quand il s’agit de nouvelles et de vidéos basées sur des faits, le contenu de la théorie du complot peut trouver son chemin dans. En janvier 2019 -- et après avoir fait face à la réaction du public -- YouTube a promis de limiter la quantité de vidéos conspirationnistes qu’il pousse aux utilisateurs. Une étude publiée par l’Université de Californie à Berkeley affirme que ces efforts semblent fonctionner, et que leurs analyses montrent une réduction de 40% de la probabilité de YouTube suggérant un contenu basé sur la conspiration.

L’équipe a formé ses ordinateurs en leur faisant analyser des centaines de vidéos conspirationnistes et non conspirationnistes, les aidant à « apprendre » comment faire la différence entre les deux. Une fois formés, les ordinateurs ont analysé huit millions de vidéos recommandées au cours d’une année. Malheureusement, ils n’ont pas été en mesure de classer les vidéos en les regardant réellement - au lieu de cela, ils ont utilisé des transcriptions, des métadonnées (titres, descriptions et balises), les 200 premiers commentaires de chaque vidéo et l’intention perçue de ces commentaires. Selon le contenu de chacune de ces sources, les vidéos seraient classées comme conspirationnistes ou non.

Les chercheurs considéraient les vidéos de la théorie du complot comme celles qui couvrent les complots secrets de ceux qui sont au pouvoir, des idées qui sont contraires au consensus scientifique et des points de vue qui ne sont pas étayés par des preuves ou qui ne sont pas falsifiables. Il s’agit à la fois de conspirations nuisibles comme celles qui affirment que le deuil des membres de la famille Sandy Hook sont en fait des « acteurs de crise », ainsi que des complots relativement inoffensifs, comme l’affirmation selon laquelle le Mothman a causé l’effondrement du pont Silver à Point. Agréable, Virginie-Occidentale.

Les résultats montrent qu’il ya eu une réduction spectaculaire de la quantité de vidéos théorie du complot que YouTube sert à ses utilisateurs. Toutefois, l’étude n’a pas utilisé de compte utilisateur réel au cours de l’analyse. Au contraire, tout le contenu a été consulté dans un état de « débouché ». Cela peut avoir eu un impact majeur sur les résultats, car l’historique des montres est un facteur important dans la façon dont YouTube détermine les vidéos à suggérer à un utilisateur connecté.

Plonger dans le contenu des vidéos montre que YouTube peut être sélectif dans lequel les sujets conspirationnistes qu’il supprime. La vitesse à laquelle les vidéos de déni du changement climatique sont suggérées n’a pas beaucoup changé, tandis que les vidéos Sandy Hook susmentionnées ont été sensiblement réduites. Tout en laissant le jugement sur ce qui constitue une conspiration nuisible pour les employés de YouTube pourrait être un problème, on pourrait soutenir que la suppression des vidéos théorie du complot à travers le conseil pourrait également être un problème. Les conspirations non nuisibles peuvent être amusantes -- les pitreries étranges d’Andrew W.K. viennent à l’esprit -- et, après tout, plusieurs théories du complot, telles que MKUltra et Project Sunshine, se sont avérées vraies.

À un niveau plus large, ces vidéos théorie du complot sont un problème parce que YouTube devient une source de plus en plus populaire pour les nouvelles et les faits - la plate-forme a deux milliards d’utilisateurs actifs chaque mois - ainsi que son monopole sur le marché de la vidéo sociale longue durée. En tant que plate-forme active, les mauvais acteurs tirent plus fréquemment parti de YouTube comme un forum pour l’ingénierie sociale, la désinformation et la désinformation.

Contact Information:

Marc DeAngelis
Tags:   French, United States, Wire