Le gouvernement envisage de modifier la loi afin que les entreprises de médias sociaux comme Facebook et Twitter n’aient d’autre choix que d’assumer la responsabilité de la sécurité de leurs utilisateurs.

Les plans visant à imposer une obligation de diligence aux services en ligne signifient que les entreprises devront déterminer si le contenu présente «un risque raisonnablement prévisible d’un impact physique ou psychologique négatif important» pour tous leurs utilisateurs.

Le non-respect de la nouvelle norme sur le devoir de diligence pourrait entraîner des pénalités allant jusqu’à 18 millions de livres ou 10% du chiffre d’affaires annuel mondial et l’accès à leurs services serait bloqué au Royaume-Uni.

Le gouvernement britannique a publié sa réponse finale à la contribution du public au livre blanc sur les préjudices en ligne qu’il a publié en avril 2019 en prévision d’un «projet de loi sur la sécurité en ligne» qui devrait être présenté en 2021.

Bien que bien intentionnées, les propositions du gouvernement manquent d’instructions claires pour guider les régulateurs et les entreprises de médias sociaux. En omettant de le faire, le gouvernement a créé une menace à la liberté d’expression dans le processus.

Un bilan incohérent
En vertu des propositions, les entreprises seront tenues de prendre des mesures pour limiter la diffusion de contenus préjudiciables, proportionnellement à leur gravité et à leur ampleur.

Actuellement, les entreprises de médias sociaux ne sont tenues de supprimer le contenu généré par les utilisateurs hébergé sur leurs services que dans des circonstances très spécifiques (si le contenu est illégal, par exemple). Habituellement, ils sont libres de décider quel contenu doit être limité ou interdit. Ils doivent simplement adhérer à leurs propres normes communautaires, avec des [résultats] parfois mitigés.

Comme Facebook l’a rapporté dans son rapport sur l’application des normes communautaires, pour le premier trimestre de 2020, il n’a trouvé et signalé que 15,6% de contenu «d’intimidation et de harcèlement» avant que les utilisateurs ne le signalent. À l’inverse, l’entreprise a détecté de manière préventive 99% de tous les contenus «violents et graphiques» avant qu’ils ne soient signalés par les utilisateurs. Cette disparité des taux de détection indique que les processus utilisés pour identifier les contenus «nuisibles» fonctionnent lorsque les critères sont clairs et bien définis mais – comme le montre le chiffre de 15,6% – échouent lorsque l’interprétation et le contexte entrent en jeu.

Les entreprises de médias sociaux ont été critiquées pour avoir appliqué de manière incohérente les interdictions relatives aux discours de haine et aux contenus sexistes. Parce qu’ils n’ont qu’à justifier les décisions de quitter ou de supprimer des contenus légaux mais potentiellement préjudiciables en fonction de leurs propres normes communautaires, ils ne risquent pas de subir des répercussions juridiques. Si l’on ne sait pas si un élément de contenu enfreint les règles, c’est au choix de l’entreprise de le supprimer ou de l’abandonner. Toutefois, l’évaluation des risques dans le cadre du cadre réglementaire défini dans les propositions du gouvernement pourrait être très différente.

Manque de preuves
Tant dans le livre blanc que dans la réponse complète, le gouvernement ne fournit pas suffisamment d’informations sur l’impact des torts qu’il cherche à limiter. Par exemple, le livre blanc indique qu’un enfant sur cinq âgé de 11 à 19 ans a déclaré avoir été victime de cyberintimidation en 2017, mais ne montre pas comment (et dans quelle mesure) ces enfants ont été affectés. L’hypothèse est simplement faite que les types de contenu dans le champ d’application sont préjudiciables avec peu de justification quant à la raison pour laquelle, ou dans quelle mesure, leur réglementation justifie de limiter la liberté d’expression.

Comme le montre le dossier de Facebook, il peut être difficile d’interpréter la signification et l’impact potentiel du contenu dans les cas où la subjectivité est impliquée. Lorsqu’il s’agit d’évaluer les effets néfastes du contenu en ligne, l’ambiguïté est la règle et non l’exception.

Malgré la base croissante de la recherche universitaire sur les préjudices en ligne, peu d’affirmations simples peuvent être faites sur les associations entre différents types de contenu et l’expérience du préjudice.

Par exemple, il est prouvé que le contenu pro-trouble de l’alimentation peut être nocif pour certaines personnes vulnérables mais n’affecte pas la plupart de la population générale. D’autre part, un tel contenu peut également servir de moyen de soutien aux personnes aux prises avec des troubles de l’alimentation. Comprenant qu’un tel contenu est à la fois risqué pour certains et utile pour d’autres, doit-il être limité? Si oui, combien et pour qui?

Le manque de preuves disponibles et rigoureuses laisse les entreprises de médias sociaux et les régulateurs sans points de référence pour évaluer les dangers potentiels du contenu généré par les utilisateurs. Laissées à elles-mêmes, les entreprises de médias sociaux peuvent définir les normes qui serviront au mieux leurs propres intérêts.

Conséquences pour la liberté d’expression
Les entreprises de médias sociaux ne parviennent déjà pas à appliquer systématiquement leurs propres normes communautaires. Selon les propositions du gouvernement britannique, ils devraient respecter une obligation de diligence vaguement définie sans explication adéquate sur la manière de le faire. En l’absence de directives pratiques pour faire respecter ce devoir, ils peuvent simplement continuer à choisir la voie de moindre résistance en bloquant avec zèle les contenus douteux.

Les propositions du gouvernement ne démontrent pas de manière adéquate que les préjudices présentés justifient de graves limitations potentielles de la liberté d’expression. Afin de garantir que le projet de loi sur la sécurité en ligne n’entraîne pas ces restrictions injustifiées, des orientations plus claires sur l’évaluation des préjudices en ligne doivent être fournies aux régulateurs et aux services de médias sociaux concernés.

Source: click et collect