Délégués des Ministres
Documents CM

CM(2008)37 add 26 février 20081
——————————————

1022 Réunion, 26 mars 2008
5 Media


5.1 Comité directeur sur les médias et les nouveaux services de communication (CDMC)

a. Projet de Recommandation CM/Rec(2008)… du Comité des Ministres aux Etats membres sur les mesures visant à promouvoir le respect de la liberté d’expression et d’information au regard des filtres internet – Rapport du Groupe de spécialistes sur les droits de l’homme dans la société de l’information (MC S IS) sur l’utilisation et l’impact des mesures de filtrage technique pour divers types de contenus dans l’environnement numérique2

Pour examen par le GR-H lors de sa réunion du 18 mars 2008

——————————————

I. Introduction

Contexte

1. En 2005, les ministres participant à la 7e Conférence ministérielle européenne sur la politique des communications de masse ont adopté, entre autres, une Résolution sur les droits de l’homme dans la société de l’information dans laquelle ils « réaffirment leur engagement… à supprimer, lorsque cela est techniquement réalisable, tout obstacle à la libre circulation de l’information à travers les nouveaux services de communication » et dans le même temps « s’engagent, conscients de l’importance de la protection des mineurs, à renforcer leurs efforts et leur coopération en vue de minimiser les risques que la diffusion de contenus préjudiciables sur les nouveaux services de communication pose pour eux »3.

2. Lors de la 985e réunion des Délégués des Ministres le 31 janvier 2007, le Comité des Ministres a pris note du mandat du Groupe de spécialistes sur les droits de l’homme dans la société de l’information (MC-S-IS) consistant à rédiger un « rapport sur l’utilisation et les effets des mesures de filtrage technique pour divers types de contenus dans l’environnement numérique, notamment au regard de l’article 10 de la Convention européenne des Droits de l’Homme et, si besoin est, [de faire] des propositions concrètes (par exemple sous la forme d’un projet d’instrument normatif) pour de nouvelles actions en ce domaine ».

3. Le présent rapport a été élaboré afin d’examiner et de mieux comprendre l’utilisation et les effets des mesures de filtrage technique , au regard en particulier du droit à la liberté d’expression et droit de recevoir et de communiquer des informations ou des idées tel qu’ils sont garantis par l’article 10 de la Convention de Sauvegarde des Droits de l’Homme et des Libertés fondamentales (également désignée par Convention européenne des Droits de l’Homme ou CEDH).

4. Ce rapport offre une base sur laquelle le MC-S-IS peut, s’il l’estime pertinent, proposer et développer des actions concrètes telles que l’élaboration de lignes directrices de bonnes pratiques relativement à la protection de la liberté d’expression et d’information en matière d’application de mesures de filtrage technique.

5. Il devrait être noté que le but de ce rapport n’est pas de proposer des définitions des types de contenu devant être classés comme étant illégaux et/ou préjudiciables dans les lois nationales des Etats membres du Conseil de l’Europe. L’objectif poursuivi est d’élaborer une base pour la formulation de principes et de ligne directrices pour assurer que les mesures de filtrage soient conçues et appliquées d’une manière qui respecte la liberté d’expression et d’information.

Comprendre les mesures de filtrage technique

6. Une mesure de filtrage technique peut être définie largement comme l’application d’une limite technique à l’accès aux contenus Internet. Comme expliqué plus loin en détails, les mesures de filtrage technique sont des applications logicielles permettant le blocage de l’accès et le filtrage de contenus illicites, préjudiciables ou inappropriés, que l’on peut afficher ou télécharger à l’aide d’un navigateur Web ou d’une application Internet.

7. En prenant cette définition comme point de départ, il est possible de distinguer deux catégories de filtrage technique : les mesures de filtrage résultant de l’intervention de l’Etat et produits de filtrage fournis par des acteurs du secteur privé.

Mesures de filtrage résultant d’une intervention de l’Etat

La première catégorie comprend les mesures de filtrage mises en place suite à une intervention de l’Etat, par exemple lorsqu’un prestataire de services Internet (un fournisseur d’accès à Internet ou « FAI ») se voit contraint par décision de justice de restreindre l’accès à un domaine spécifique ou à un serveur véhiculant des contenus illicites. Les interventions de l’Etat font généralement suite à la qualification de contenus comme illicites (par exemple dans le cas de la pornographie enfantine4) ou illégalement distribués (par exemple dans le cas de contenus protégés par droit d’auteur5).

Produits de filtrage fournis par des acteurs du secteur privé

La seconde catégorie comprend les divers produits de filtrage pouvant s’installer sur l’ordinateur personnel d’un utilisateur ou, par exemple, sur un réseau d’entreprise. Ces produits sont mis à la disposition des acteurs du secteur public et privé (parents, écoles, universités, bibliothèques, entreprises, etc.) par des fournisseurs du secteur privé pour leur permettre de présélectionner certains types de contenus ou d’en bloquer l’accès. La restriction d’accès ne résulte donc pas ici d’une procédure administrative ni d’une décision de justice du fait de l’illégalité de contenus mais de la décision d’un acteur public ou privé reposant sur la nécessité de protéger des utilisateurs finaux contre certains contenus et de leur en bloquer l’accès. A la différence des interventions de l’Etat mentionnées ci-dessus, le recours aux produits de filtrage n’a pas pour unique fin de bloquer ou de filtrer des contenus illicites mais est susceptible de restreindre l’accès à des contenus légaux bien que potentiellement préjudiciables pour des utilisateurs concernés.

8. Toute intervention de l’Etat en vue de bloquer ou de filtrer l’accès à des sites Internet spécifiques est susceptible de constituer une restriction à la liberté d’expression et d’accès à l’information dans l’environnement numérique et doit remplir les conditions énoncées à l’article 10, paragraphe 2, de la Convention européenne des Droits de l’Homme6. Il découle de ceci que l’application de la première catégorie de filtrage (voir ci-dessus) doit être prévue par la loi, correspondre à l’un des critères de légitimité définis à l’article 10.2 et être nécessaire dans une société démocratique.

9. L’utilisation des produits de filtrage disponibles auprès d’acteurs privés est susceptible de restreindre la capacité des auteurs de contenu ainsi que des utilisateurs de communiquer et de recevoir des informations et des idées par le biais de sites Internet, de blogs, de forums, etc. Ces restrictions, dans la mesure où elles résultent de la décision d’acteurs non étatiques, ne sont pas directement soumises aux exigences de l’article 10.2 de la Convention européenne des Droits de l’Homme. Il convient de faire remarquer néanmoins que, selon la jurisprudence de la Cour européenne des droits de l’homme, l’Etat, en tant qu’« ultime garant du pluralisme », a l’obligation positive de garantir l’exercice des droits énoncés à l’article 10 de la Convention européenne des Droits de l’Homme.7

10. Etant donné les différences entre les deux catégories de filtrage et le fait que la protection des droits de l’homme est solidement encadrée en ce qui concerne tout filtrage imposé par l’Etat, le présent rapport se concentrera davantage sur l’utilisation et les effets de tels produits de filtrage disponibles auprès d’acteurs privés.

Moteurs de recherche

11. Parallèlement aux produits de filtrage, il existe de bonnes raisons pour demander l’inclusion des moteurs de recherche parmi les filtres du secteur privé. Aujourd’hui, la plupart des internautes utilisent un moteur de recherche lorsqu’ils ont besoin de rechercher rapidement les informations qui satisferont leurs besoins. Le moteur de recherche joue donc un rôle de contrôleur d’accès du fait qu’il sélectionne les informations parvenant à l’utilisateur et détermine la forme sous laquelle elles lui parviennent ; un rôle d’autant plus important que, comme c’est le cas actuellement, le marché des moteurs de recherche est dominé par un seul fournisseur. La façon dont ce moteur de recherche affiche les résultats et l’ordre de priorité dans lequel ils apparaissent influence le type et la nature des informations reçues par l’utilisateur.

12. Cependant, il se peut qu’un site Web non identifié par le moteur de recherche ou qui n’apparaisse que dans les dernières pages de résultats soit plus aisément accessible via d’autres moteurs de recherche, voire directement sans moteur de recherche. Les effets filtrants des moteurs de recherche sont donc plus indirects que ceux des produits de filtrage.

13. De plus, du moins à première vue, le but visé par les moteurs de recherche diffère de celui des produits de filtrage. Alors que les produits de filtrage visent à protéger l’utilisateur contre des contenus illicites, préjudiciables ou inappropriés, les moteurs de recherche visent à fournir à l’utilisateur un accès rapide aux informations les plus susceptibles de correspondre à ses souhaits tels qu’exprimés par les termes de recherche.

14. En tout état de cause, les fonctions des moteurs de recherche diffèrent de celles des produits de filtrage de plusieurs manières ; il s’agit là de phénomènes complexes qui demanderaient une étude à part.

15. Etant donné les caractéristiques particulières des moteurs de recherche, ceux-ci ne seront pas étudiés plus avant dans ce rapport. Cependant, les conclusions établies ici valent pour les fournisseurs de moteurs de recherche dans la mesure où ils sont également des utilisateurs de mesures de filtrage8. Dans le même temps, il convient de noter qu’au moins certaines lignes directrices identifiées dans ce rapport pourraient probablement servir pour des lignes directrices similaires concernant les moteurs de recherche.

II. Utilisation des mesures de filtrage technique

16. La section suivante contient une description de l’utilisation et du fonctionnement pratique des mesures de filtrage technique en fonction du contenu filtré, de la méthode de filtrage utilisée, des applications Internet filtrées et des contextes et institutions où ces filtres s’appliquent.

Types de contenus filtrés

17. Les produits de filtrage limitent l’accès aux contenus Internet jugés inappropriés dans une situation donnée. Ils visent principalement à restreindre l’usage d’Internet par un utilisateur pour lui éviter se trouver exposé par inadvertance à des contenus préjudiciables (un enfant par exemple) ou de l’empêcher d’accéder délibérément à des contenus illicites, préjudiciables ou répréhensibles. Les types de contenu illégaux ou préjudiciables qui pourraient faire l’objet d’un filtrage ne sont pas identiques dans tous les Etat membres du Conseil de l’Europe et varient en fonction des lois nationales et des traditions sociales et culturels des ces différents Etats membres.

18. Ceci inclut les contenus à caractère pornographique, les contenus violents et ceux incitant à la haine ou encourageant les activités illégales (consommation de drogue, fabrication de bombes, consommation d’alcool pour les mineurs, jeux d’argent, violence, piratage de logiciels, atteinte à l’intégrité physique de sa propre personne, etc.)9.

19. Les produits de filtrage sont également utilisés pour bloquer l’accès à des contenus protégés par droit d’auteur et illégalement distribués. Par exemple, la firme Audible Magic a développé une technologie de filtrage de contenu vidéo qu’utilise le site Web social populaire MySpace pour bloquer les contenus sous droits d’auteur que des internautes tenteraient de publier sur ce site.

20. Parallèlement, les produits de filtrage servent également à restreindre l’accès aux sites susceptibles de détourner l’utilisateur (par exemple un étudiant ou un employé) de son travail ou à l’empêcher d’utiliser l’ordinateur à d’autres fins que celles prévues.

Méthodes de filtrage employées

21. Les produits de filtrage combinent plusieurs méthodes de blocage et de filtrage que nous classerons en six catégories principales :

    - filtrage au niveau de l’URL ;
    - filtrage par adresse IP ;
    - filtrage par protocole ;
    - filtrage par mot-clé ;
    - filtrage sur la base de la certification et de l’évaluation du contenu ;
    - Analyse intelligente de contenu (phrases, images).

22. Le filtrage des URL fonctionne par comparaison de l’URL recherchée par l’utilisateur avec celles d’une liste prédéfinie intégrée au produit de filtrage. Il existe deux variantes à ce modèle. L’une consiste à prédéfinir une liste noire ou d’exclusion comportant toutes les URL de contenu non autorisé. Si une page Web correspond à une entrée de la liste, l’utilisateur s’en voit refuser l’accès. L’autre variante fonctionne selon le principe inverse, c’est-à-dire au moyen d’une liste blanche ou d’inclusion comportant toutes les URL autorisées. Ces listes sont établies par le fournisseur du produit de filtrage ou par une société tierce. Bien que dans certains cas, l’utilisateur ait la possibilité de modifier la liste et de la compléter, la transparence du processus de filtrage utilisant listes des URL n’est pas toujours complète, en particulier si l’actualisation des listes est une activité commerciale. Le filtrage URL nécessité de mettre constamment les listes à jour.

23. Le filtrage par adresses IP fonctionne de façon similaire et est confronté des inconvénients similaires, l’adresse IP remplaçant l’URL. Ce type de filtrage est surtout utilisé pour bloquer l’accès à des listes noires d’adresses IP. Le filtrage IP est susceptible de donner lieu au blocage excessif dû au partage d’adresses IP, étant donné qu’une adresse IP peut correspondre aux URL de très nombreux sites Web hébergés sur le même serveur.

24. Le filtrage par protocole vise à empêcher l’utilisation d’applications et de logiciels au moyen de protocoles techniques, indépendamment des contenus. Il est par exemple utilisé pour prévenir l’utilisation de logiciels pair à pair (« peer-to-peer ») ou de messageries instantanées.

25. Le blocage par mot-clé est une méthode de filtrage fonctionnant par comparaison du texte de sites Web avec une liste de mots interdits. Lorsqu’un de ces mots est détecté, le filtre en empêche l’affichage ou bloque l’accès au site entier. Le problème que pose cette méthode est le risque de « surprotection », souvent pointé du doigt par les critiques. Des enquêtes sur les produits de filtrage ont révélé que de nombreux sites tout à fait inoffensifs se voyaient bloqués parce qu’ils comportaient un mot suspect10.

26. Une autre approche consiste à bloquer les pages Web individuelles en fonction d’une classification de leur contenu (comme celles attribuées hors ligne aux vidéos). Des programmes de recherche commencent par identifier les pages suspectes. Chacune est ensuite visionnée par un employé et reçoit le classement qui lui correspond. Selon un système similaire, basé sur la certification des pages, l’auteur (en général) de la page appose un signe ou un label de qualité sur son contenu, et toute page non certifiée est bloquée par le filtre. L’Union européenne, via le programme Safer Internet Plus, soutient un système d’autoréglementation international organisé par l’ICRA (Association de classification du contenu de l’Internet, qui relève du Family Online Safety Institute11). Le système s’appuie sur la technologie de certification développée par le Comité de conseil sur les progiciels de loisir sur l’Internet (« Recreational Software Advisory Council » ou RSACi) et sur les résultats des consultations préparatoires entreprises antérieurement avec le soutien de l’UE, par le biais du projet INCORE12. Les principales critiques formulées contre ces méthodes concernent, dans le premier cas, le caractère subjectif de la certification, dépendant de la culture, des valeurs morales, etc. et, dans le cas du système d’autorégulation, le fait qu’un site non soumis à certification par son auteur risque d’être bloqué par le filtre.

27. Certains produits de filtrage reposent sur un fonctionnement moins mécanique et effectuent une analyse intelligente du contenu, images et/ou texte. En ce qui concerne le texte, le filtre en l’occurrence ne se contente pas de bloquer un site sur détection d’un mot dans son contenu. Il procède à une analyse sémantique du mot-clé détecté et tient compte du contexte avant de bloquer le site Internet. Pour ce qui est des images, le produit de filtrage analyse les images contenues sur un site Internet et bloque par exemple les sites dont les images comportent un pourcentage important de pixels couleur de chair. Il semble que très peu de produits disponibles sur le marché actuellement emploient la méthode de l’analyse intelligente13.

Environnements d’application et niveaux de mise en œuvre

28. La plupart des produits de filtrage sont compatibles avec les programmes conçus pour recevoir des contenus sur Internet. Ils sont en général à même de filtrer les sites accessibles via des navigateurs tels qu’Internet Explorer et Firefox. De plus, les produits de filtrage les plus avancés prennent également en charge les contenus accessibles via messageries électroniques, messageries instantanées, espaces de dialogue en direct (« chatrooms »), forums, etc.

29. Le filtrage peut être mis en œuvre à différents niveaux14 :

- Le premier d’entre eux correspond à un filtrage par l’Etat au niveau du réseau dorsal ou backbone, affectant le pays tout entier. Ce type de filtrage s’inscrit dans la première catégorie décrite plus haut (mesures de filtrage résultant d’une intervention de l’Etat). Constituant indiscutablement une restriction à la liberté d’expression et à l’accès à l’information en environnement numérique, une telle mesure devrait remplir les conditions de l’article 10, paragraphe 2, de la Convention européenne des Droits de l’Homme15 ;

- Le second niveau correspond à une application de filtres par les FAI. Dans ce cas, tout le trafic Internet délivré au client via les services du fournisseur sera filtré au niveau de ce dernier, avant que l’utilisateur n’accède au contenu en question. Cette solution peut être mise en place sur exigence de l’Etat, comme c’est le cas dans certains pays membres du Conseil de l’Europe, qui imposent aux FAI d’installer des filtres bloquant l’accès aux sites de pornographie enfantine16. Dans ce cas, le filtrage constitue une restriction de l’Etat à la liberté d’expression et d’accès à l’information dans l’environnement en ligne, soumise aux conditions requises par l’article 10.2 de la Convention européenne des Droits de l’Homme. Le filtrage au niveau du fournisseur d’accès à Internet peut également être mis en place sur décision du client, le FAI lui donnant la possibilité de s’équiper d’une solution de filtrage s’il le désire.

- En troisième lieu, le filtrage peut intervenir au niveau institutionnel, sur le réseau d’une société privée ou d’une institution publique telle qu’une école, une bibliothèque ou un cybercafé.

- Quatrièmement, l’utilisateur peut installer lui-même un logiciel de filtrage. De nombreux FAI offrent à leurs clients la possibilité de télécharger des filtres en tant que logiciels autonomes ou intégrés à une solution plus complète d’outils de sécurité. Dans certains Etats membres du Conseil de l’Europe, les FAI sont obligés de fournir des produits de filtrage à leurs clients17.

30. Enfin, certains sites Web offrent des options de filtrage que l’utilisateur peut souvent activer ou désactiver, telle que l’option SafeSearch, intégrée par le moteur de recherche Google, et le filtre contre les contenus sous droits d’auteur utilisé par MySpace. Ces solutions d’autofiltrage combinées à la certification des sites Internet sont susceptibles, à l’ère du « Web 2.0 » où les contenus sont de plus en plus publiés par les utilisateurs eux-mêmes, de prendre le pas sur les méthodes de filtrage traditionnelles basées sur listes noires et mots-clés, car plus efficaces18.

Utilisateurs des produits de filtrage

31. Les outils de filtrage sont utilisés dans divers contextes publics ou privés. Bien que considérés souvent comme des instruments de contrôle parental, ils servent également dans d’autres situations.

32. Des enquêtes ont révélé que l’utilisation de filtres par les parents afin de contrôler les activités de leurs enfants sur le Web est très répandue. Une enquête Eurobaromètre couvrant la période de décembre 2005 à janvier 2006 a révélé que près de la moitié des parents interrogés (48%) cherchent ainsi à empêcher que leurs enfants puissent accéder à certains contenus lorsqu’ils utilisent Internet. L’enquête a également montré que la majorité des parents ont recours à un filtre si leurs enfants ont entre 6 et 9 ans (59%), alors que cette pratique est moins courante parmi les parents d’adolescents dont l’âge est compris entre 14 et 17 ans (37%).19

33. Les écoles se servent également des produits de filtrage afin d’éviter que les élèves n’accèdent par exemple à des contenus sexuellement explicites inappropriés pour leur âge.

34. Les universités et les librairies ont elles aussi souvent recours à des filtres, non seulement pour protéger l’utilisateur contre les contenus nuisibles, mais également afin de s’assurer que l’ordinateur n’est utilisé que dans le but prévu, tel que pour des recherches et l’affichage d’informations.

35. Les entreprises publiques et privées appliquent des filtres afin de restreindre l’accès de certains sites à leurs employés (sites de jeux et de loisirs par ex.) ou pour éviter tout problème d’image de l’employeur consécutif à une identification de l’adresse IP, au cas où l’employé cherche à se connecter – par exemple – à un site pornographique.

36. Les cybercafés filtrent également l’accès à certains sites, tels que les sites pornographiques, afin de préserver les autres clients et d’éviter qu’ils ne soient dérangés.

37. Les filtres peuvent également servir à exécuter une décision légale ou contractuelle. Dans certains Etats du Conseil de l’Europe, les FAI sont, par obligation contractuelle, tenus par la loi20 ou par la police21 de filtrer un site Web précis ou de bloquer un certain type de trafic Internet sur leur réseau22.

III. Impact des mesures de filtrage technique

38. Potentiellement, l’utilisation de produits de filtrage est susceptible d’avoir un impact sur la exercice et jouissance des droits de l’homme. Si le droit concerné est en premier lieu le droit à la liberté d’expression et d’information, d’autres droits le sont aussi et notamment le droit à la vie privée.

Impact au regard de l’article 10 de la Convention européenne des Droits de l’Homme

39. L’article 10, paragraphe 1 de la Convention européenne des Droits de l’Homme énonce le droit fondamental à la liberté d’expression de la manière suivante :

« Toute personne a droit à la liberté d'expression. Ce droit comprend la liberté d'opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu'il puisse y avoir ingérence d'autorités publiques et sans considération de frontière. Le présent article n'empêche pas les Etats de soumettre les entreprises de radiodiffusion, de cinéma ou de télévision à un régime d'autorisations. »

40. Il découle de l’article 10, paragraphe 2 de la Convention européenne des Droits de l’Homme que toute restriction à la liberté d’expression doit remplir trois conditions ; elle doit être :

    - conforme aux buts légitimes établis par l’article 1023 ;
    - prévue par la loi ;
    - nécessaire dans une société démocratique24.

41. Le filtrage du contenu peut être un instrument pour protéger les enfants contre les dangers potentiels de l’environnement en ligne. Par conséquent, les produits de filtrage peuvent constituer un moyen approprié d’encourager l’accès et l’utilisation en toute confiance de l’Internet25.

42. Néanmoins, il convient de ne pas limiter la discussion à savoir si les filtres sont de bons ou mauvais moyens de protéger les jeunes. L’on peut pourtant se demander dans quelles circonstances l’utilisation de produits de filtrage est légitime et si ces produits peuvent être conçus et utilisés de façon proportionnée et en conformité avec les droits de l’homme.

43. A cet égard, il est pertinent d’établir une distinction entre les agents publics26 (bibliothèques, fonctionnaires, etc.) et les acteurs privés (employeurs du secteur privé, FAI ou cybercafés).

44. Les organes publics de tous les niveaux dont l’Etat sont directement responsable au titre de la Convention européenne des Droits de l’Homme sont tenus d’en respecter l’article 10.2. Ceci s’applique également aux institutions du secteur privé agissant sur instruction de l’Etat27. Cependant, certains contextes tels que les milieux scolaires publiques se caractérisent par une relation d’autorité pédagogique légitime qui peut justifier l’installation de filtres sur les ordinateurs mis à la disposition des élèves. Cette légitimité existe également en ce qui concerne l’installation de filtres sur les ordinateurs des bibliothèques publiques ou sur les postes de travail des fonctionnaires, dans le but de protéger les mineurs contre les contenus préjudiciables ou pour protéger l’image de l’employeur. Il convient toutefois de nuancer le filtrage dans ces contextes, la liberté d’expression exigeant que le filtrage soit strictement proportionné au but légitime poursuivi.

45. Bien que les acteurs privés ne soient pas directement28 liés par l’article 10, la décision d’interdire à une personne l’usage d’un ordinateur pour accéder à certains contenus Internet soulève un problème de liberté d’expression et est susceptible de devrait aussi faire l’objet d’une justification.

46. En ce qui concerne la conception et usage des produits de filtrage, trois problèmes principaux se posent au regard de la liberté d’expression : filtrage excessif, manque de transparence du produit et impossibilité pour l’utilisateur final de contrôler le produit.

Filtrage excessif

47. Bien que la qualité des produits de filtrage ait progressé ces dernières années, aucun de ces produits n’est efficace à 100% dans le sens où il filtrerait le contenu non désirable tout en assurant que les informations non préjudiciables ne soient jamais filtrées.

48. Une enquête récente sur les produits de filtrage révèle un taux d’erreur de 10 à 30%29. Le problème se pose surtout concernant les sites traitant sérieusement d’un sujet qui apparaît aussi dans d’autres contextes, jugés inappropriés par le filtre (par exemple sites sur la sexualité, la contraception, etc.). La recherche sur les produits de filtrage fournit de nombreux exemples de sites bloqués ou filtrés non intentionnellement30. L’un des problèmes inhérents à cette technologie31 est son incapacité dans la plupart des cas à tenir compte du contexte où apparaissent les mots ou images détectés, provoquant des erreurs d’interprétation du caractère du contenu.

49. Ce « surblocage » soulève des soucis reflète et pourrait poser des problèmes concernant la liberté d’information et d’expression. Si une partie importante du contenu bloqué est en fait inoffensive, la restriction imposée à la liberté d’expression peut être considérée comme disproportionnée au regard du but légitime poursuivi.

Manque de transparence du produit de filtrage et incapacité pour l’utilisateur final de le contrôler.

50. Le droit à la liberté d’expression et d’information est fondé sur les principes de liberté individuelle et d’autonomie. Selon ces principes, l’utilisateur final « aurait » le droit d’utiliser Internet comme il l’entend et de décider lui-même du type de contenu à bloquer et à recevoir.

51. La condition préalable est que le utilisateur peut contrôler le produit de filtrage. L’installation et le fonctionnement du produit de filtrage devraient être suffisamment transparents. L’utilisateur devrait avoir connaissance de l’installation d’un produit de filtrage, avoir, s’il y a lieu, la possibilité de demander sa désactivation, en comprendre le principe et pouvoir en régler les paramètres, et être averti lorsqu’un contenu est bloqué. Si ces conditions sont remplies, il conserve un certain degré de contrôle sur les contenus reçus. L’utilisateur ou peut ensuite décider si les avantages de l’utilisation d’un produit de filtrage l’emportent sur les risques de blocage excessif.

52. Inversement, si l’utilisateur n’a pas connaissance du filtrage, n’est pas averti en cas de contenu bloqué et ne peut influer en rien sur le type de contenus bloqués, le filtrage s’assimile à une sorte de censure secrète exerçant un impact nuisible sur la liberté de recevoir des informations. Moins le produit est transparent et adaptable, plus s’accroît le risque que son utilisation s’oppose aux souhaits de l’utilisateur en matière de restriction d’accès à l’information.

53. Le degré de transparence et l’adaptabilité du produit de filtrage sont donc pour les utilisateurs des facteurs-clés de leur autonomie de choix et de leur liberté d’expression et de recevoir des informations.

54. Une partie des produits de filtrage présentent un degré de transparence et d’adaptabilité médiocre. Certains n’avertissent pas l’utilisateur qu’un mécanisme de filtrage, de blocage ou d’accès par identification est activé sur leur système. Tous les produits de filtrage n’indiquent pas la liste des sites bloqués et certains ne fournissent aucune explication sur les critères de sélection qu’ils appliquent32.

55. De façon similaire, certains produits sont insuffisamment souples en ce qu’ils n’offrent aucune option de personnalisation des paramètres. Ils ne permettent pas nécessairement d’ajouter ou de retirer des sites de la liste de blocage, de modifier les mots-clés ni de décider du type de contenu à bloquer. Avec ces filtres, les utilisateurs ont une possibilité très limitée d’adapter l’outil à leurs besoins, les décisions sur la sélection du contenu étant réservées aux fournisseurs de produits.

56. En revanche, un produit de filtrage de fonctionnement transparent et de personnalisation aisée est susceptible de garantir que les décisions relatives à la sélection de l’information reviennent à l’utilisateur.

57. Vu depuis la perspective de l’auteur de contenu Internet, le manque de transparence concernant l’utilisation d’un filtre est également problématique. Les fournisseurs de produits de filtrage ne signalent pas aux auteurs que leur site a été bloqué. Cela signifie qu’ils sont dans l’ignorance de cette situation, donc peu à même de la modifier. De plus, les fournisseurs n’aménagent généralement pas la possibilité, pour les auteurs et producteurs de contenu estimant que leurs sites ont été injustement bloqués, de demander la révision de la « décision » de blocage. En résumé, les auteurs ont des possibilités très réduites de voir leur droit à la liberté d’expression préservé de toute atteinte arbitraire du fait de l’application de filtres trop zélés.

Impact au regard d’autres dispositions pertinentes de la Convention européenne des Droits de l’Homme

58. Bien que l’incidence de l’utilisation de produits de filtrage s’exerce principalement sur la liberté d’expression et d’information, la jouissance d’autres droits de l’homme est également concernée.

59. Une menace pèse ainsi sur le droit à la vie privée, protégé par l’article 8 de la Convention européenne des Droits de l’Homme, si le produit de filtrage conserve une trace des sites visités et des tentatives d’accès effectuées, permettant de dévoiler l’identité de l’internaute. Dans la mesure où ces informations sont enregistrées et accessibles par des tiers, tels que l’employeur33 ou la direction de la bibliothèque, il devient possible de connaître l’usage d’Internet fait par l’intéressé, ce qui peut poser des problèmes au regard du droit à la vie privée. En revanche, les fichiers-journaux du produit de filtrage sont utiles pour vérifier si ce dernier est correctement paramétré, pour modifier les réglages le cas échéant et pour s’assurer que les « décisions de blocage » correspondent bien aux souhaits de l’utilisateur. Un équilibre qui permet le suivi et l’adaptation du fonctionnement du produit par l’utilisateur doit être trouvé, sans pour autant remettre en question le droit à la vie privée.

60. De plus, une autre question a son importance : le respect de la légalité au regard l’article 6 de la Convention européenne des Droits de l’Homme en l’absence de procédure de révision lorsque des informations ont été bloquées arbitrairement. Le fait qu’un produit de filtrage bloque l’accès à un site est susceptible pour l’utilisateur ou pour l’auteur de contenu Internet de constituer de facto une restriction de son droit à la liberté d’expression. Cela justifierait la mise en place d’un système qui permette à l’utilisateur et, dans les circonstances appropriées, à l’auteur du contenu, de déposer et d’obtenir une requête en révision et d’obtenir le déblocage du site concerné si justifié.

IV. Propositions d’actions à l’intention du Conseil de l’Europe

61 . Les produits de filtrages disponibles sur le marché sont conçus et utilisés d’une manière susceptible d’exercer un impact nuisible sur le droit à la liberté d’expression et d’information et sur d’autres droits des utilisateurs finaux et des auteurs de contenu.

62. Prenant en compte la jurisprudence de la Cour Européenne des Droits de l’Homme relative aux obligations positives de l’Etat en tant qu’« ultime garant du pluralisme », il incombe à ce dernier dans une certaine mesure d’encourager le comportement responsable et respectueux des droits de l’homme des divers acteurs concernés (développeurs et utilisateurs). Donc, des lignes directrices de bonnes pratiques pourraient être formulées dans le cadre d’un instrument normatif du Conseil de l’Europe afin d’aider les Etats membres à remplir cette obligation.

Prise en compte des normes existantes du Conseil de l’Europe

63. Les normes existantes du Conseil de l’Europe devraient servir de point de départ pour l’élaboration de ces lignes directrices34.

64. Ces normes soulignent que les produits de filtrage peuvent jouer un rôle positif en tant qu’instruments d’autonomisation et de responsabilisation des utilisateurs pour qu’ils effectuent des choix informés sur le type des contenus à filtrer. Cet objectif d’autonomisation et de responsabilisation par rapport aux produits de filtrage avait déjà été reconnu en 2001 lorsque les gouvernements des Etats membres étaient convenus de renforcer l’autorégulation et la protection des utilisateurs contre les contenus illicites et préjudiciables entres autres en « encourag[eant] la mise au point d'une large gamme d'outils de recherche et de profils de filtrage, donnant aux utilisateurs, sur la base de descripteurs de contenus, la possibilité de sélectionner des contenus ».

65. De façon similaire, les ministres des Etats membres ont déclaré en 2005 que « les Etats membres, en vue de protéger les droits de l’homme, devaient encourager l’autorégulation et la corégulation de la part des acteurs du secteur privé afin de réduire la diffusion de contenus illicites et de contenus préjudiciables et de permettre aux usagers de se protéger des uns et des autres »35.

66. Les prémisses sous-jacents à ces normes reposent sur une conception des produits de filtrage comme des instruments devant aider les utilisateurs à prendre eux-mêmes les décisions (de sélection de contenus) et les protéger contre les contenus illicites et préjudiciables.

67. Dans une nouvelle Recommandation36 adoptée par le Comité des Ministres le 26 septembre 2007, les Etats membres ont de plus reconnu la nécessité de garantir la transparence concernant l’utilisation de filtres. Cette Recommandation encourage les Etats membres, le secteur privé et la société civile à développer des normes et stratégies communes visant à renforcer la transparence, l’information, le conseil et l’assistance aux utilisateurs des technologies et services dans le domaine du « blocage de l’accès et [du] filtrage des contenus et services par rapport à la liberté de recevoir ou de communiquer des informations »37. De plus, il découle de la Recommandation que le secteur privé et les Etats membres sont encouragés à développer des normes communes sur, entre autres, « l’évaluation et l’étiquetage des contenus et services présentant un risque de préjudice et ceux qui n’en présentent pas, en particulier par rapport aux enfants » et « l’évaluation, l’étiquetage et la transparence des mécanismes de filtrage spécialement conçus pour les enfants »38.

68. Les deux objectifs principaux devraient être d’autonomiser l’utilisateur et d’augmenter la transparence du filtrage. Comme mentionné ci-dessus, tous les produits de filtrage n’informent pas l’utilisateur de façon satisfaisante sur le filtrage ni n’offrent suffisamment de possibilités de personnalisation des paramètres.

69. La valeur ajoutée d’un nouvel instrument du Conseil de l’Europe pourrait donc consister à combler ces lacunes par l’élaboration de lignes directrices plus spécifiques visant à garantir la transparence du filtrage et son adaptabilité aux besoins de l’utilisateur. Les lignes directrices pourraient traiter à la fois de la conception des produits et de leur utilisation par différents acteurs-clés.

Le développement de lignes directrices pour les acteurs-clés en vue d’accroître la transparence du filtrage et l’autonomisation et la responsabilisation des utilisateurs

70. Il existe deux groupes principaux d’acteur-clés dont les décisions en matière de produits de filtrage influent sur le droit à la liberté d’expression et autres droits protégés par la Convention européenne des Droits de l’Homme.

71. Tout d’abord, les développeurs et fournisseurs de produits de filtrage, par leurs décisions relatives à la conception du produit, exercent un impact significatif sur l’étendue des informations dont disposent les utilisateurs et sur leur aptitude à choisir de façon autonome quels types de contenus à filtrer.

72. D’autre part, les utilisateurs de produits de filtrage, c’est-à-dire les personnes décidant au nom d’utilisateurs finaux quand et comment appliquer le filtre, ont ainsi le pouvoir de restreindre l’exercice et jouissance de certains droits de ces personnes et notamment de leur droit à la liberté d’expression. Ce second groupe rassemble des acteurs très divers tels que des agents de l’Etat (organes d’application de la loi, organes administratifs, etc.), des fournisseurs d’accès Internet, des écoles, des bibliothèques, des universités, des employeurs et éventuellement des parents.

73. Afin d’assurer et promouvoir la transparence du filtrage et l’autonomisation de l’utilisateur, les lignes directrices de bonnes pratiques à l’intention des fournisseurs de produits de filtrage devraient comporter des recommandations telles que les suivantes :

    - le produit devrait être conçu de manière à permettre que l’utilisateur soit informé lorsque l’accès à un contenu est bloqué ou filtré ;

    - le produit devrait être conçu et intégré (par exemple dans des navigateurs Web) de façon à ce que le filtrage soit désactivé par défaut (et à ce que l’activation du filtrage dépende de l’utilisateur) ou du moins de telle façon qu’en cas de blocage de contenu, l’utilisateur soit informé des options modifiables pour en autoriser l’affichage s’il le souhaite ;
    - sa conception devrait également permettre que l’utilisateur dispose d’informations suffisantes sur les critères de filtrage et les raisons du blocage de contenus spécifiques ;
    - le produit de filtrage devrait comporter suffisamment d’options qui permettent un réglage précis comme par exemple donner la possibilité à l’utilisateur de retirer ou d’ajouter des sites (dans la liste de blocage), ou bien la modification des mots-clés filtrage, ou encore le choix des catégories de contenus à bloquer, etc. ;
    - le produit de filtrage devrait être conçu de manière à informer l’utilisateur en cas de parution d’une mise à jour complète ou partielle (par exemple la liste des sites bloqués) du logiciel ;
    - le produit de filtrage devrait être doté d’un fichier-journal dans lequel tous les sites bloqués seraient consignés à chaque session. L’utilisateur serait ainsi à même de vérifier si le produit est correctement paramétré ;
    - le produit de filtrage devrait offrir suffisamment d’informations et de conseils relatifs à son fonctionnement, notamment à ses paramètres et à ses critères de filtrage, afin de permettre à l’utilisateur de décider lui-même quels contenus filtrer. Ces informations devraient s’afficher automatiquement en même temps que le produit est installé et être accessibles ensuite à tout moment à partir d’une option ou d’un fichier d’aide ;
    - le fournisseur du produit de filtrage devrait avoir une politique qui permet aux auteurs de sites bloqués et autres distributeurs de contenus à demander le déblocage de leur site s’il a été classé par erreur parmi les sites indésirables ;
    - le produit de filtrage ne devrait pas consigner les tentatives de l’utilisateur d’accéder à des sites bloqués, sauf si un mécanisme préserve l’anonymat de ces tentatives d’accès.

74. En vue d’assurer la transparence du filtrage et son autonomie d’emploi, les lignes directrices de bonnes pratique à l’intention des utilisateurs du produits de filtrage devraient comporter des recommandations telles que les suivantes :

    - les utilisateurs devraient être clairement informés (le cas échéant) de l’application d’un filtre actif durant leurs sessions en ligne ;
    - le filtrage ne devrait être activé que pour une raison légitime telle que la protection de mineurs contre le risque d’exposition à des contenus préjudiciables ; il devrait être proportionné au but poursuivi, légitime et nécessaire dans une société démocratique ;
    - les utilisateurs devraient être informés du filtrage et à même de le désactiver, ou une procédure minimum devrait être mise en place pour leur permettre d’en demander la désactivation. Il importe que les utilisateurs reçoivent des informations claires quant à la personne à contacter pour demander cette désactivation ;
    - le produit de filtrage ne devrait pas servir à contrôler l’usage qui est fait d’Internet (contenus accédés et/ou téléchargés), sauf si cette surveillance est justifiée par des motifs clairement énoncés et légitimes, proportionnés et nécessaires dans une société démocratique, et si l’utilisateur a été averti de cette surveillance au préalable ;
    - le filtrage devrait s’inscrire dans les stratégies de lutte contre les contenus illicites ou préjudiciables, telles que la conception et le développement de l’infocompétence des internautes et notamment des enfants39.

Annexe I

Normes du Conseil de l’Europe en matière de mesures de filtrage techniques

Aucun instrument du Conseil de l’Europe sur la société de l’information n’est consacré uniquement aux mesures de filtrage technique des contenus Internet, bien que certains abordent la question.

La Recommandation Rec(2001)8 sur l'autorégulation des cyber-contenus (l'autorégulation et la protection des utilisateurs contre les contenus illicites ou préjudiciables diffusés sur les nouveaux services de communication et d'information) contient des principes sur l’étiquetage (Chapitre II – Descripteurs de contenu), les produits de filtrage (Chapitre III – Produits de sélection des contenus) et la responsabilisation et l’autonomisation des utilisateurs (Chapitre VI – Information des utilisateurs et sensibilisation).

En ce qui concerne l’étiquetage de contenus, le paragraphe 6 de la Recommandation demande aux Etats membres d’encourager la définition d’un ensemble de descripteurs de contenus qui « devraient permettre une labellisation neutre des contenus, donnant aux utilisateurs la possibilité d’élaborer leur propre jugement sur ces contenus ». Le paragraphe 7 mentionne les descripteurs de contenus renvoyant à des contenus violents et pornographiques ainsi que les contenus invitant à la consommation de tabac ou d'alcool, incitant aux jeux d'argent, et les contenus permettant des contacts non surveillés et anonymes entre mineurs et adultes. Le paragraphe 8 indique que les fournisseurs de contenus devraient être encouragés à appliquer ces descripteurs « pour permettre aux utilisateurs de reconnaître et de filtrer ces contenus, quelle que soit leur origine ».

Au sujet des produits de filtrage, le paragraphe 9 de la Recommandation recommande que le développement d’un large éventail d’outils de recherche et de profils de filtrage basés sur des descripteurs de contenus soit encouragé. Eu égard à l’article 10 de la Convention européenne des Droits de l’Homme, le paragraphe 10 de la Recommandation indique que le filtrage devrait être laissé au libre choix des utilisateurs. Les produits de filtrage peuvent donc donner aux utilisateurs, tels que parents ou institutions ayant la responsabilité d’enfants, la possibilité d’effectuer des choix informés quant aux types de contenus légaux qui devraient être accessibles aux enfants40.

Enfin, le paragraphe 20 de la Recommandation demande aux Etats membres d’encourager la sensibilisation et l’information du public entre autres à l’égard des descripteurs de contenus et des outils de filtrage. Cette information devrait être accessible à tous, par exemple à travers les institutions éducatives ou les bibliothèques publiques. Des informations sur le filtrage des contenus pourraient en particulier viser les parents41.

Le principe 3 de la Déclaration sur la liberté de communication sur l'Internet adoptée par le Comité des Ministres le 28 mai 2003, traite plus spécifiquement des mesures de blocage et de filtrage imposées par l’Etat.

Le paragraphe 1 de la Déclaration souligne l’importance de l’absence de contrôle préalable de l’Etat à l’égard de ce que le public peut rechercher sur Internet. Bien que l’Etat ne devrait par aucun moyen recourir à de larges mesures visant à bloquer l’accès aux contenus indésirables, des exceptions doivent êtres permises pour assurer la protection des mineurs. Lorsque des mineurs ont accès à Internet, par exemple à l’école ou dans les bibliothèques, les autorités publiques peuvent exiger que des filtres soient installés sur les ordinateurs pour bloquer l’accès aux contenus préjudiciables. Le paragraphe 2 de la Déclaration concerne les mesures prises par l’Etat pour supprimer un contenu d’Internet ou d’en bloquer l’accès suivant une décision provisoire ou définitive des autorités nationales compétentes sur son caractère illicite au regard du droit pénal, du droit civil et du droit administratif. Il est souligné que ces mesures doivent se conformer aux dispositions de l’article 10, paragraphe 2, de la Convention de européenne des Droits de l’Homme et qu’elles devraient viser un contenu Internet clairement identifiable42.

La Déclaration sur les droits de l’homme et l’Etat de droit dans la société de l’information, adoptée par le Comité des Ministres le 13 mai 2005, ne mentionne pas explicitement les mesures de filtrage technique bien qu’il découle de la Déclaration que « les Etats membres doivent préserver et renforcer les mesures juridiques et pratiques pour éviter la censure de l’Etat et du secteur privé43 ». La Déclaration souligne également que « les Etats membres doivent, en vue de protéger les droits de l’homme, encourager l’autorégulation et la corégulation de la part des acteurs du secteur privé afin de réduire la diffusion de contenus illicites et de contenus préjudiciables et de permettre aux usagers de se protéger des uns et des autres »44. Enfin, elle encourage les acteurs du secteur privé à traiter la question de « la censure (censure cachée) par les prestataires de services Internet privés, par exemple le blocage ou l’élimination de contenus de leur propre initiative ou à la demande d’une tierce partie »45.

Bien que la Recommandation Rec(2006)12 sur la responsabilisation et l’autonomisation des enfants dans le nouvel environnement de l’information et de la communication ne mentionne pas l’utilisation des mesures de filtrage technique, il convient de noter qu’elle indique néanmoins qu’« une part essentielle de la réponse aux contenus et comportements présentant un risque d’effets préjudiciables réside dans la conception et le développement de l’infocompétence – définie comme la maîtrise des outils d’accès à l’information, le développement de l’analyse critique des contenus qu’ils véhiculent et l’appropriation des compétences utiles en vue d’un usage créatif et citoyen des moyens de communications –, ainsi que dans la mise en œuvre de formations destinées aux enfants et à leurs éducateurs afin qu’ils utilisent les technologies et services de l’information et de la communication de manière positive et responsable ».

La nouvelle Recommandation Rec(2007)11 sur la promotion de la liberté d’expression et d’information dans le nouvel environnement de l’information et de la communication, adoptée par le Comité des Ministres lors de la 1005e réunion des Délégués des Ministres, le 26 septembre 2007, fournit un cadre général à l’adoption de normes plus détaillées concernant les mesures de filtrage technique. Elle encourage les Etats membres, le secteur privé et la société civile à développer des normes communes et des stratégies pour promouvoir la transparence et la mise à disposition de l'information, de conseils et d'assistance aux utilisateurs individuels des technologies et des services, concernant entre autres « le blocage de l'accès et le filtrage des contenus et services quant au droit de recevoir et de transmettre l'information »46. Par ailleurs, il découle de la Recommandation que le secteur privé et les Etats membres sont encouragés à développer des normes communes et des stratégies concernant entre autres « l'évaluation et l'étiquetage des contenus et services présentant un « risque de préjudice et ceux qui n'en présentent pas, en particulier par rapport aux enfants » et « l'évaluation, l'étiquetage et la transparence des mécanismes de filtrage spécialement conçus pour les enfants47 ».

La Recommandation Rec(2007)16 sur les mesures de promotion de la valeur de service public d’Internet invite les Etats membres à promouvoir la liberté de communication sur Internet, sans considération de frontière, notamment en ne soumettant pas les personnes à un régime d’autorisations ou à d’autres exigences exerçant des effets similaires, en n’imposant pas de mesures générales de filtrage et de blocage et en ne soumettant pas les contenus Internet à des restrictions allant au-delà de celles appliquées à d’autres modes de fourniture de contenu48.

L’Assemblée parlementaire du Conseil de l’Europe a indiqué qu’elle soutenait le développement des technologies de filtrage qui seront en mesure de favoriser l’autorégulation des opérateurs sur le réseau au niveau international49. De façon plus spécifique, dans le contexte de la lutte contre le racisme et la xénophobie dans le cyberespace, l’Assemblée a souligné que sur le plan déontologique, il convenait d’encourager les efforts d’autodiscipline entrepris par les fournisseurs d’accès et d’hébergement et que cette lutte contre le racisme et la xénophobie devait être s’effectuer entre autres par la labellisation et la classification des sites ainsi que par le filtrage50.

Enfin, le document en ligne « Maîtrise d’Internet – Manuel » comprend des fiches sur le filtrage et la certification des sites Web ; il fournit des informations et indique les bonnes pratiques à l’intention des enseignants, des parents et des jeunes. Le Manuel aborde un certain nombre de questions touchant au filtrage telles que le fait que « les services logiciels de filtrage certifient les pages selon leur propre système d’évaluation et leurs objectifs » et que « les filtres peuvent bloquer des sites utilise liés à la contraception ou à l’éducation sexuelle à cause des mots-clés qu’ils contiennent ». En tant que guide de bonnes pratiques, le Manuel recommande d’examiner soigneusement la manière dont un filtre fonctionne avant de l’installer, d’avoir recours à l’assistance électronique avec discernement et, au moyen de solutions de type « liste blanche », de n’autoriser l’accès qu’à certains sites approuvés pour les utilisateurs d’Internet les plus jeunes.

Annexe II

Autres textes relatifs aux mesures de filtrage technique

Union européenne

Le recours à des mesures de filtrage technique a été encouragé par l’Union européenne dans deux recommandations sur la protection des mineurs et de la dignité humaine adoptées en 1998 et en 2006.

La Recommandation de 199851 recommande que les Etats membres, les secteurs et les parties concernées coopèrent à la mise en place d’un cadre national d’autorégulation, à l’élaboration de codes de conduite visant à protéger les mineurs et la dignité humaine et au développement de l’aide à l’exercice du contrôle parental, tel que le recours à l’utilisation de filtres. En ce qui concerne les produits de filtrage, la Recommandation souligne que ces dispositifs doivent être d’utilisation facile et souple et qu’ils doivent permettre aux mineurs, sous la responsabilité de parents ou d’enseignants, d’avoir accès aux services même lorsque personne ne les surveille. Elle mentionne également que des codes de conduite nationaux devraient aborder la question des règles de base concernant les conditions auxquelles des produits tels que des logiciels de filtrage seraient installés et activés par l’utilisateur et des options de filtrage, activées à la demande de l’utilisateur par les opérateurs de services en amont de l’utilisateur, seraient fournies aux utilisateurs en tant que services d’aide à l’exercice du contrôle parental. A un niveau plus général, il découle de la Recommandation de 1998 que la proportionnalité des codes de conduite devrait être appréciée entre autres au regard des principes de liberté d’expression, de protection de la vie privée et de libre circulation des services.

La Recommandation de 200652 appelle à nouveau l’industrie des services audiovisuels et d’information en ligne et autres parties concernées à prendre des mesures positives en faveur des mineurs, notamment des initiatives visant à leur faciliter l’accès aux services audiovisuels et d’information en ligne tout en les protégeant contre les contenus potentiellement préjudiciables, par exemple au moyen de filtres. Le rôle des filtres visant à empêcher le passage sur Internet d’informations portant atteinte à la dignité humaine et la volonté de la Commission européenne de communiquer aux parents des informations sur l’efficacité des logiciels de filtrage sont spécifiquement mentionnés.

Etudes

En complément des deux recommandations de l’Union européenne ci-dessus, l’une des lignes d’action du programme Safer Internet Plus (SIP) concernait le filtrage des contenus nuisibles et inappropriés.

Cette étude de Deloitte et l’Université catholique de Louvain s’inscrit dans le programme SIP pour « un Internet plus sûr ». Menée sur trois ans, elle est censée fournir une évaluation objective, par des experts et des FAI indépendants de solutions de filtrage de contenu Internet à l’intention des enfants de 6 à 16 ans (« Safer Internet Plan –Benchmark » ou étude de la fiabilité des logiciels filtrant les contenus Internet potentiellement préjudiciables). Un rapport de synthèse relatif à la première de ces trois années de test (2006) a été publié. Le rapport n’aborde pas la question des filtres en relation avec la liberté d’expression mais contient cependant des résultats intéressants sur l’efficacité et le fonctionnement de certains filtres. Le rapport relève l’existence de problèmes, notamment les suivants :

- Les produits de filtrage testés ont offert des performances satisfaisantes, filtrant les contenus de plusieurs millions de sites par jour, notamment en ce qui concerne la détection de sites pornographiques dans une langue très usitée (l’anglais). Cependant, les contenus moins explicites mais tout aussi nuisibles, de langue autre que l’anglais ou par exemple appartenant à des sites privés, n’ont été détectés de manière satisfaisante par aucun des outils testés.

- Les produits testés ont tous pris de « mauvaises décisions » de filtrage à hauteur de 25% des sites inappropriés pour des adolescents entre 11 et 16 ans. Les cas de blocage insuffisant (filtres laissant passer 40 à 80% des sites indésirables) se sont révélés plus nombreux que les cas de blocage excessif (filtres bloquant 10% à 30% de sites acceptables).

- Certains produits offrent à l’utilisateur trop peu d’options de personnalisation et manquent de clarté quant aux types de mots-clés déclenchant le mécanisme de blocage.

- Certains produits ne permettent pas à l’utilisateur de savoir quand et si le filtrage (le blocage et/ou l’accès par identification) est activé.

Egalement dans le cadre du programme Safer Internet Plus, la Commission européenne a mené à bien une enquête Eurobaromètre de décembre 2005 à janvier 2006 sur l’usage d’Internet par les enfants, y compris sur les mesures de contrôle parental, dans les 25 Etats membres que l’UE comptait alors, ainsi qu’en Bulgarie, Roumanie, Croatie et Turquie. L’enquête montre que 48% des adultes interrogés (parents et responsables d’enfants) pratiquent le filtrage de contenu Internet. Ils sont plus nombreux proportionnellement (50%) dans les quinze « anciens » pays de l’Union que dans les dix « jeunes » pays membres (38%) et que dans les pays adhérents et candidats (26%). L’enquête révèle également que le filtrage est utilisé par la majorité des parents dont les enfants ont entre 6 et 9 ans (59%) et moins par les parents d’adolescents ayant entre 14 ans et 17 ans (37%). Il est intéressant de noter qu’un pourcentage élevé de parents pensent que les écoles appliquent des filtres (31%) alors qu’une faible partie d’entre eux croient que les bibliothèques (3%) et les cybercafés (1%) pratiquent aussi le filtrage.

Une étude relativement récente sur les produits de filtrage au regard de la liberté d’expression a été menée par un pôle de la Faculté de droit de New York University (NYU), le centre Brennan pour la Justice (« Brennan Center for Justice »). Cette étude, qui visait à réaliser la synthèse d’autres études sur des produits de filtrage, avait donné lieu à la publication d’un rapport en 2001 résumant les résultats de plus de 70 études empiriques sur les performances de filtres. Une seconde version actualisée du rapport a été publiée en 2006, prenant en compte les études effectuées après début 2006. Cette version conclut que les filtres continuent de bloquer d’importants volumes d’informations utiles et que l’usage de plus en plus généralisé des filtres fait peser une menace sérieuse sur les valeurs fondamentales sous-tendant la liberté d’expression. Le rapport recommande que les écoles et les bibliothèques choisissent des filtres permettant de désactiver facilement le blocage des sites détectés par erreur, et qu’en complément ou en remplacement de ces filtres, ils adoptent une approche basée sur la formation à la maîtrise d’Internet et à la sécurité en environnement numérique.

Un autre projet en cours est le «OpenNet Initiative» (ONI), entrepris par un partenariat académique entre quatre institutions : the Citizen Lab at the Munk Centre for International Studies, University of Toronto; the Berkman Center for Internet & Society at Harvard Law School; the Advanced Network Research Group at the Cambridge Security Programme, University of Cambridge et the Oxford Internet Institute, Oxford University. L’ONI a pour objectif d’enquêter, d’exposer et d’analyser les pratiques de filtrage et de surveillance de l’Internet dans le monde. Le projet suit une approche multi disciplinaire qui inclut le développement et le déploiement d’outils d’énumération et des méthodologies pour l’étude du filtrage et de la surveillance de l’Internet, le développement de capacités dans des réseaux d’avocats et de chercheurs locaux, des recherches avancées qui explorent les conséquences des tendances et des directions actuelles et futures dans les pratiques de filtrage et de surveillance et leurs conséquences pour les régimes de gouvernance et de droit international et national. Le projet a déjà produit des outils et des données concernant la censure de contenu politique, social et relatif à des conflits ou à la sécurité, mais aussi concernant l’interdiction de l’utilisation d’outils et de services de l’Internet. Les rapports contiennent des profils des Etats de toutes les régions du monde53.

Note 1 Ce document a été classé en diffusion restreinte le jour de la diffusion. Il a été déclassifié lors de la 1022e réunion des Délégués des Ministres (26 mars 2008) (cf. CM/Del/Dec(2008)1022/5.1).

2 Le paragraphe 19 du Plan d’action de la 7e Conférence ministérielle européenne stipule : « Suivre de près les développements juridiques et autres relatifs à la responsabilité au titre des contenus mis à disposition du public sur Internet et, si besoin est, prendre toute initiative, y compris l’élaboration de lignes directrices portant, entre autres, sur les rôles et responsabilités des intermédiaires et autres acteurs d’Internet pour assurer la liberté d’expression » et le paragraphe 23 : « Promouvoir l’adoption par les Etats membres de mesures tendant à assurer au niveau paneuropéen un niveau de protection cohérent des mineurs contre les contenus préjudiciables diffusés sur les médias électroniques traditionnels et nouveaux, tout en garantissant la liberté d’expression et la libre circulation d’information ».

3 Paragraphes 12 et 16 de la Résolution n° 3 sur les droits de l’homme et la régulation des médias et des nouveaux services de communication dans la Société de l’Information, adoptée par les Ministres des Etats participant à la 7e Conférence ministérielle sur la politique des communications de masse (Kyiv, 10-11 mars 2005).

Note 4 Selon l’article 20 de la Convention du Conseil de l’Europe pour la protection des enfants contre l’exploitation et les abus sexuels (STCE n°201), chaque Partie à la Convention doit prendre les mesures législatives ou autres pour ériger en infraction pénale notamment le fait d’accéder, en connaissance de cause, à de la pornographie enfantine.
Note 5 Selon l’article 10 de la Convention sur la cybercriminalité (STCE n°185), chaque Partie à la Convention doit adopter les mesures législatives et autres qui se révèlent nécessaires pour ériger en infraction pénale, conformément à son droit interne, (entre autres) les atteintes à la propriété intellectuelle et autres droits connexes lorsque de tels actes sont commis délibérément, à une échelle commerciale et au moyen d’un système informatique.

6 Voir le Principe 3 de la Déclaration du Comité des Ministres sur la liberté de communication sur l’Internet, adoptée le 28 mai 2003 lors de la 840e réunion des Délégués des Ministres.

7 Voir l’arrêt Informationsverein Lentia et autres c. Autriche, 24 novembre 1993, Series A, n°276, § 38.

Note 8 La plupart des moteurs de recherche comportent une option de filtrage plus ou moins puissante pour bloquer l’affichage de sites pornographiques (et/ou autres contenus) dans les résultats.

9 Voir « Who Watches the Watchmen ? The Role of Filtering Software in Internet Content Regulation » de Yaman Akdeniz, The Media Freedom Internet Cookbook, OSCE, 2004, p. 107.

10 De nombreux exemples sont donnés dans le rapport de synthèse du Centre Brennan pour la Justice, de la Faculté de droit de l’Université de New York (NYU), intitulé « Internet Filters – a public policy report », seconde édition, 2006.

Note 11 Voir http://www.fosi.org/icra

12 Voir http://ec.europa.eu/information_society/activities/sip/projects/targeted/filtering/index_en.htm#filtering

13 Une étude menée dans le cadre du programme « Safer Internet Plus Programme » (SIP) n’est pas parvenue à identifier, parmi les 30 logiciels évalués, un seul outil de filtrage à même de trier les contenus par analyse intelligente. Voir le rapport de synthèse « SIP-Bench » sur l’efficacité des outils de filtrage en matière de protection des enfants de 6 à 16 ans, édition 2006, p. 24.

14 Ce qui suit est basé sur les descriptions contenues dans le site OpenNet Initiative, à l’URL :
http://opennet.net/about-filtering

Note 15 Voir le Principe 3 de la Déclaration du Comité des Ministres sur la liberté de communication sur l’Internet, adoptée le 28 mai 2003.

16 Le filtrage de la pornographie enfantine est obligatoire au niveau des notamment au Royaume-Uni, au Danemark et en Italie.

17 En France, les FAI sont tenus légalement depuis 2004 d’informer leurs clients de ce que leurs solutions intègrent des filtres ou de leur en fournir ; voir http://www.saferinternet.org/ww/en/pub/insafe/news/articles/0907/fr.htm

18 Rapport de synthèse « SIP-Bench » sur l’efficacité des outils de filtrage en matière de protection des enfants de 6 à 16 ans, édition 2006, p. 6.

19 Safer Internet, Eurobaromètre spécial, mai 2006, p. 26.

Note 20 Par exemple la loi française n°2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6-I-8 et article 8-I.
Note 21 Voir note 15 ci-dessus.
Note 22 Voir aussi la décision du 29 juin 2007 du Tribunal de Première Instance de Bruxelles, SABAM c. SA Scarlet (anciennement Tiscali), où un FAI belge a été tenu de mettre en place des mesures de filtrage technique pour empêcher ses clients à télécharger des fichiers musicaux illégalement. La décision est disponible à l’URL http://www.juriscom.net/documents/tpibruxelles20070629.pdf

23 Sécurité nationale, intégrité territoriale ou liberté publique, défense de l’ordre et prévention du crime, protection de la santé ou de la morale, protection de la réputation ou des droits d’autrui, pour empêcher la divulgation d’informations confidentielles ou pour garantir l’autorité et l’impartialité du pouvoir judiciaire.

Note 24 Selon la jurisprudence de la Cour, ceci exige l’existence d’un « besoin social impérieux » et le respect de la proportionnalité au but légitime poursuivi.
Note 25 Dans le même temps, il convient de faire remarquer qu’un aspect essentiel du traitement du risque posé par ces contenus réside dans la conception et le développement de l’infocompétence , voir Recommandation Rec(2006)12 du Comité des Ministres aux Etats membres sur la responsabilisation et l’autonomisation des enfants dans le nouvel environnement de l’information et de la communication.

26 Pour un exemple récent d’une affaire où la Cour européenne des Droits de l’Homme a considéré que l’Etat devait répondre des actes d’un fonctionnaire, voir Copland c. Royaume-Uni, arrêt du 3 avril 2007 (violation de l’article 8 de la Convention).

Note 27 Par exemple, il est clair que lorsque l’utilisation privé d’outils de filtrage est le résultat d’interventions des autorités étatiques (décisions de justice, actions législatives, et/ou des procédures administratives), ces interventions constitueraient une restriction à la liberté d’expression et d’accès à l’information dans l’environnement en ligne et devrait se conformer aux exigences de l’article 10, paragraphe 2 de la Convention européenne des Droits de l’Homme.
Note 28 Selon la jurisprudence de la Cour européenne des Droits de l’Homme, l’Etat devrait dans certaines circonstances être tenu responsable pour violations des droits de l’homme commises par acteur privés (l’effet horizontal indirect).

29 Rapport de synthèse « SIP-Bench » sur l’efficacité des outils de filtrage en matière de protection des enfants de 6 à 16 ans, édition 2006, p. 27.

30 Voir le rapport intitulé « Internet Filters – a public policy report », seconde édition, Centre Brennan pour la Justice, (Faculté de droit de NYU), 2006

Note 31 Voir également les questions soulevées dans le cadre des descriptions des différentes méthodes de filtrage existantes (section II ci-dessus).

32 Rapport de synthèse « SIP-Bench » sur l’efficacité des outils de filtrage en matière de protection des enfants de 6 à 16 ans, édition 2006, p. 27.

33 Comme l’a montré un arrêt récent de la Cour européenne des droits de l’homme, le Etats peuvent être tenus responsables en cas de surveillance exercée sans base légale sur la consultation Internet d’un fonctionnaire, comme dans l’arrêt Copland c. Royaume-Uni du 3 avril 2007 (violation de l’article 8 de la Convention).

34 Voir l’Annexe I au présent rapport, comportant des extraits d’instruments du Conseil de l’Europe relatifs aux mesures de filtrage.

Note 35 Déclaration sur le respect des droits de l’homme et de l’Etat de droit dans la Société de l’Information, adoptée par le Comité des Ministres le 13 mai 2005.
Note 36 Recommandation Rec(2007)11 sur la promotion de la liberté d’expression et d’information dans le nouvel environnement de l’information et de la communication, adoptée par le Comité des Ministres le 26 septembre 2007, lors de la 1005e réunion des Délégués des Ministres.

37 Lignes directrices, Section I, « Responsabiliser et autonomiser les utilisateurs individuels », point vi.

38 Lignes directrices, Section II, « Normes communes et stratégies pour une information fiable, la création de contenus souples et la transparence dans le traitement de l’information », points i et ii.

39 Recommandation Rec(2006)12 sur la responsabilisation et l’autonomisation des enfants dans le nouvel environnement de l’information et de la communication.

40 Voir paragraphe 37 de l’Exposé des motifs de la Recommandation.

41 Voir paragraphe 50 de l’Exposé des motifs de la Recommandation.

42 Voir Commentaire sur les principes de la Déclaration sur la liberté de la communication sur l’Internet.

43 Voir Partie I, paragraphe 1, « Droit à la liberté d’expression, d’information et de communication ».

Note 44 Voir Partie II, paragraphe 1, « Etats membres du Conseil de l’Europe ».

45 Voir Partie II, paragraphe 3, « Secteur privé ».

46 Lignes directrices, Partie I, « Responsabiliser et autonomiser les utilisateurs individuels », point vi.

47 Lignes directrices, Partie II, « Normes communes et stratégies pour une information fiable, la création de contenus souples et la transparence dans le traitement de l’information », points i et ii.

48 Annexe à la Recommandation, Partie III, « Ouverture », paragraphe 23.2, lettre a.

49 Paragraphe 5, point iii, lettre o, de la Recommandation 1332(1997) relative aux aspects scientifiques et techniques des nouvelles technologies de l’information et de la communication, adoptée le 23 juin 1997.

50 Paragraphe 5 de la Recommandation 1543(2001) relative au racisme et xénophobie dans le cyberespace, adoptée le 8 novembre 2001.

51 Recommandation 98/560/EC du Conseil du 24 septembre 1998 concernant le développement de la compétitivité de l’industrie européenne des services audiovisuels et d’information par la promotion de cadres nationaux visant à assurer un niveau comparable et efficace de protection des mineures et de la dignité humaine, JO 1998, L 270, p. 48.

52 Recommandation 2006/952/EC du Parlement européen et du Conseil, du 20 décembre 2006, sur la protection des mineurs et de la dignité humaine et sur le droit de réponse en liaison avec la compétitivité de l’industrie européenne des services audiovisuels et d’information en ligne, JO 2006, L 378, p. 72.

Note 53 Des outils et les rapports produits par l’ONI sont disponibles sur http://opennet.net


 Haut de page

 

  Documents liés
 
   Réunions
 
   Documents connexes