Alors que la CNIL s’inquiète de la possible collecte massive d’informations sur Facebook par le gouvernement, les réseaux sociaux agissent afin de protéger leurs utilisateurs, en particulier les plus jeunes, des contenus inappropriés. Un contrôle ne laissant d’autre choix que de surveiller, dans une certaine mesure, ce que leurs utilisateurs publient. Préserver la liberté d’expression tout en protégeant les internautes de certaines dérives, une affaire de « juste milieu ».
Dans une délibération datée du 12 septembre, la Commission nationale de l’informatique et des libertés (CNIL) invite le gouvernement à « faire preuve d’une grande prudence » quant à la surveillance des « contenus librement accessibles et publiés sur internet ». Afin de lutter contre la fraude fiscale, le projet de loi de finances 2020 (actuellement débattu à l’Assemblée nationale), prévoit en effet d’« autoriser l’administration à collecter en masse » des informations publiées par les particuliers sur les réseaux sociaux et certaines plateformes de commerce en ligne.
Mais la CNIL, qui doute de « l’efficience [et de] la faisabilité technique d’un tel dispositif », met en garde contre le possible développement de l’autocensure. L’autorité craint en effet qu’une telle collecte massive d’information ne soit « susceptible de modifier de manière significative le comportement des internautes qui pourraient alors ne plus être en mesure de s’exprimer librement sur les réseaux et plates-formes visés ».
Reste que la modération des contenus Web et en particulier la lutte contre les messages illicites demeurent nécessaires aux yeux de la loi, qui punit l’injure, la diffamation, l’incitation à la haine raciale, le harcèlement ou encore l’apologie du terrorisme via internet. Une croisade qui nécessite, précisément, de s’intéresser de près aux contenus publiés par les internautes.
Facebook en première ligne
Pour faire d’internet un espace toujours plus sûr, les principaux acteurs du secteur n’hésitent pas à prendre des mesures ambitieuses. C’est notamment le cas de Facebook qui, après de nombreux scandales (en particulier la diffusion en direct de l’assassinat de cinquante personnes dans deux mosquées de Christchurch, en Nouvelle-Zélande), a dû améliorer la façon dont il gère les contenus qui circulent sur sa plateforme.
L’entreprise a recours à une armada de modérateurs pour les contenus écrits. Des milliers de personnes travaillent de façon anonyme à travers le monde afin de supprimer (ou non) les posts signalés par les utilisateurs. Un travail délicat qui contraint les modérateurs à visionner toute sorte de contenus choquants, des propos haineux aux images de torture en direct.
Le premier réseau social au monde (2,5 milliards d’utilisateurs actifs) a par ailleurs annoncé le développement d’un nouvel algorithme qui lui permet de détecter automatiquement les contenus problématiques. Selon les chiffres de la société, 8,7 millions de contenus contraires à ses règles sur la nudité et l’exploitation sexuelle d’enfants ont ainsi pu être repérés au quatrième trimestre 2018. La quasi-totalité (99 %) des contenus supprimés l’ont été « avant que quiconque ne les signale ».
D’autres acteurs se battent également pour protéger les internautes, en particulier les plus jeunes. C’est le cas de Yubo, réseau social destiné aux adolescents, qui a développé un algorithme capable de déterminer si quelqu’un est nu ou en sous-vêtements, ce que proscrivent ses règles d’usage.
Yubo : éduquer la jeunesse, pas la punir
« Parmi nos utilisateurs se trouvent beaucoup d’adolescents qui diffusent des flux depuis leur chambre. Ils sont en pleine explosion hormonale, ce qui les pousse à expérimenter et repousser les limites », explique Annie Mullins, fondatrice du cabinet de conseil Trust + Safety Group et conseillère pour Yubo.
Le réseau social souhaite promouvoir les comportements responsables des millions d’adolescents qui l’utilisent, et a donc décidé qu’il ne permettrait pas à ses utilisateurs d’être en sous-vêtements ou de montrer leur corps. Son algorithme analyse ainsi les diffusions en direct et peut même les interrompre « en fonction de la gravité du comportement » identifié. Les jeunes concernés peuvent ensuite recevoir une sommation de s’habiller décemment. « Notre but est d’éduquer la jeunesse, pas de la punir. Nous les aidons à comprendre ce qu’il s’est passé, pourquoi cela allait à l’encontre des règles et pourquoi cela présentait un risque potentiel pour eux », explique Annie Mullins.
La sécurité des enfants sur internet constitue un sujet majeur. Selon une étude Harris Interactive pour la Fédération française des télécoms, 92 % des parents perçoivent des risques sur internet pour leurs enfants, notamment l’exposition aux images choquantes (46 %) et les risques de cyberharcèlement (46 %). Si 74 % des parents privilégient le dialogue face aux risques sur le Web, 62 % optent pour la vérification des paramètres de confidentialité, notamment la mise en place d’un logiciel de contrôle parental (53 %). Il s’agit d’une solution intermédiaire qui « ne remplace pas la prévention et l’éducation », mais permet de « limiter les fonctionnalités d’un smartphone et de surveiller l’activité en ligne de l’enfant ».
S’il ne s’agit pas d’encourager la censure répressive du Web, il importe de rappeler que les personnes confrontées à un contenu illégal sont considérées comme des victimes, ce qui les autorise à déposer plainte contre l’auteur. L’hébergeur, lui, peut être tenu responsable « s’il a délibérément mis en ligne ou laissé en ligne ce contenu illicite ».