Aller au menu Aller au contenu

Online shop Support us

Publication

Sorry, this content on website is only available in French. Contact us for further information

Publié le dimanche 21 mars 2021

La censure sur les réseaux sociaux

Joel-Peter Witkin Man with dog, Mexico City, 1990 © JP Witkin, baudoin lebon

Si la censure peut être politique, économique, exercée par des groupes de pressions, revendiquée par ceux qui font prévaloir leur droit à ne pas être offensés, les opinions, images ou contenus dérangeants se voient le plus souvent réduits au silence. C’est lorsque nous observons ou signalons la disparition d’un post ou d’un contenu que nous voyons s’exercer cette censure.


La raison invoquée est souvent que le contenu contrevient aux règles de la plateforme. En effet, lors de toute inscription à ces dits réseaux, nous sommes en accord avec les règles d’utilisation (que nous ne lisons par ailleurs jamais). Voici donc une première raison de censure; allons plus loin…
Un autre type de censure est celle réalisée par les modérateurs de contenus, qu’ils soient humains ou non. Dans ce cadre, pour les modérateurs, toute image est un support numérique où va s’appliquer une lecture informatisée, qu’il soit la reproduction d’une œuvre peinte, sculptée, photographique…  sans que le contexte de l’œuvre originale n’entre en compte et dont l’usage est soumis aux filtres des règles d’utilisation de chaque plateforme. Continuons notre réflexion…


Les outils de signalement que nous avons à notre disposition sur ces plateformes (Like, partager, les smileys, les pouces en l’air, les favoris…) ajoutés au dispositif de signalement d’un contenu inapproprié mis également à notre disposition sont des outils de censure. Ceux-ci font appel à notre propre contribution afin de réguler de manière « citoyenne » les différents contenus qui nous semblent admissibles ou pas. Dès lors, ces outils cumulés à nos traces (toutes nos activités sur les réseaux) aux règles d’utilisation, aux modérateurs de contenu, à notre situation géographique et politique… créent des données transmises aux algorithmes qui permettent ensuite de faire disparaître tout élément dérangeant soit de notre fil d’actualité soit de manière plus radicale du réseau social.  Néanmoins, tout au long du processus de décisions, comme le souligne Nikos Smyrnaios et Charis Papaevangelou, l’opacité est de mise; seul le résultat est visible, ce qui aggrave ce sentiment de censure pour l’utilisateur.


Cependant, à l’heure où sur Internet de manière large et sur les réseaux sociaux en particulier, une image vaut plus que des mots, nous posons-nous la question de leurs usages ?  De ce que nous leur faisons dire ? Des droits d’auteur de ces celles-ci ? De leur contexte de diffusion ? De leur recadrage et de l’abstraction des titres, dates… de création ? Ce que nous nommons « censure » à juste titre dans beaucoup de cas, se nomme peut-être respect du droit d’auteur, de diffusion, de droit à l’image, de protection des mineurs… pour d’autres. Plus que jamais, une éducation aux médias est nécessaire et indispensable tant l’usage des mots accompagnés d’images sont utilisés dans la diffusion d’idées aussi diverses que variées.


Pour aller plus loin sur le sujet, je vous conseille l’excellent article de Nikos Smyrnaios et Charis Papaevangelou, lien ci-après : Nikos Smyrnaios et Charis Papaevangelou. Le signalement sur les réseaux sociaux, un moyen de modération mais aussi de censure dans INA, La Revue des médias. https://larevuedesmedias.ina.fr/signalement-reseaux-sociaux-moderation-censure.
Et le livre de Sarah T. Roberts sur les modérateurs humains et le documentaire sur les nettoyeurs du web. Sarah T. Roberts. Derrière les écrans.Ed. La Découverte, 2020. Sarah T. Roberts. Les nettoyeurs du web.Documentaire de 1h35, 2018
 
America Parra Smart, Responsable Service des Publics au Musée de la Photographie  

">

Les réseaux sociaux sont pleins de paradoxes. D’une part, ils favorisent la communication de masse et citoyenne et, d’autre part, nous observons de plus en plus l’impossibilité d’exprimer librement nos opinions. C’est en plongeant dans les méandres du fonctionnement de ces dits réseaux que nous constatons la complexité et l’opacité de ceux-ci. Difficile alors de donner une réponse binaire car c’est dans la pluralité des points de vue que nous trouverons peut-être une réponse.

Witkin-UnAutreRegard

Joel-Peter Witkin Man with dog, Mexico City, 1990 © JP Witkin, baudoin lebon

Si la censure peut être politique, économique, exercée par des groupes de pressions, revendiquée par ceux qui font prévaloir leur droit à ne pas être offensés, les opinions, images ou contenus dérangeants se voient le plus souvent réduits au silence. C’est lorsque nous observons ou signalons la disparition d’un post ou d’un contenu que nous voyons s’exercer cette censure.


La raison invoquée est souvent que le contenu contrevient aux règles de la plateforme. En effet, lors de toute inscription à ces dits réseaux, nous sommes en accord avec les règles d’utilisation (que nous ne lisons par ailleurs jamais). Voici donc une première raison de censure; allons plus loin…
Un autre type de censure est celle réalisée par les modérateurs de contenus, qu’ils soient humains ou non. Dans ce cadre, pour les modérateurs, toute image est un support numérique où va s’appliquer une lecture informatisée, qu’il soit la reproduction d’une œuvre peinte, sculptée, photographique…  sans que le contexte de l’œuvre originale n’entre en compte et dont l’usage est soumis aux filtres des règles d’utilisation de chaque plateforme. Continuons notre réflexion…


Les outils de signalement que nous avons à notre disposition sur ces plateformes (Like, partager, les smileys, les pouces en l’air, les favoris…) ajoutés au dispositif de signalement d’un contenu inapproprié mis également à notre disposition sont des outils de censure. Ceux-ci font appel à notre propre contribution afin de réguler de manière « citoyenne » les différents contenus qui nous semblent admissibles ou pas. Dès lors, ces outils cumulés à nos traces (toutes nos activités sur les réseaux) aux règles d’utilisation, aux modérateurs de contenu, à notre situation géographique et politique… créent des données transmises aux algorithmes qui permettent ensuite de faire disparaître tout élément dérangeant soit de notre fil d’actualité soit de manière plus radicale du réseau social.  Néanmoins, tout au long du processus de décisions, comme le souligne Nikos Smyrnaios et Charis Papaevangelou, l’opacité est de mise; seul le résultat est visible, ce qui aggrave ce sentiment de censure pour l’utilisateur.


Cependant, à l’heure où sur Internet de manière large et sur les réseaux sociaux en particulier, une image vaut plus que des mots, nous posons-nous la question de leurs usages ?  De ce que nous leur faisons dire ? Des droits d’auteur de ces celles-ci ? De leur contexte de diffusion ? De leur recadrage et de l’abstraction des titres, dates… de création ? Ce que nous nommons « censure » à juste titre dans beaucoup de cas, se nomme peut-être respect du droit d’auteur, de diffusion, de droit à l’image, de protection des mineurs… pour d’autres. Plus que jamais, une éducation aux médias est nécessaire et indispensable tant l’usage des mots accompagnés d’images sont utilisés dans la diffusion d’idées aussi diverses que variées.


Pour aller plus loin sur le sujet, je vous conseille l’excellent article de Nikos Smyrnaios et Charis Papaevangelou, lien ci-après : Nikos Smyrnaios et Charis Papaevangelou. Le signalement sur les réseaux sociaux, un moyen de modération mais aussi de censure dans INA, La Revue des médias. https://larevuedesmedias.ina.fr/signalement-reseaux-sociaux-moderation-censure.
Et le livre de Sarah T. Roberts sur les modérateurs humains et le documentaire sur les nettoyeurs du web. Sarah T. Roberts. Derrière les écrans.Ed. La Découverte, 2020. Sarah T. Roberts. Les nettoyeurs du web.Documentaire de 1h35, 2018
 
America Parra Smart, Responsable Service des Publics au Musée de la Photographie