Deuxièmes Rencontres d'Autrans
8 au 10 janvier 1998
ISOC France




La sélection des contenus dans la société de l'information
- Atelier PICS -









Animation
Catherine Soubeyrand
CNET
catherine.soubeyrand@cnet.francetelecom.fr
Conseiller
Daniel Dardailler
W3C
danield@w3.org
Coordination
Robert Denoue
ISOC
denoue@worldnet.fr


Table des matières

 

1. Avant-propos *

2. L’Internet : un média particulier *

2.1 Médiathèque planétaire *

2.2 Contrôle central ou contrôle individuel *

2.3 Une communauté qui veut assumer sa responsabilité *

2.4 Classification : informer ou juger ? *

3. Modes de sélection *

3.1 La sélection statique *

3.2 Sélection par mots-clé *

3.3 Sélection dynamique *

4. Une solution neutre et ouverte : PICS *

4.1 Présentation de PICS *

5. Les services d'auto-étiquetage et les vocabulaires associés *

5.1 RSAC *

5.2 SafeSurf *

5.3 Vancouver Web Pages *

6. Les services d'étiquetage tiers : les bureaux d'étiquettes *

6.1 EvaluWeb *

6.2 Microsystems Software *

6.3 NetShepherd *

6.4 ORC Dayton *

7. Logiciels clients et serveurs *

7.1 Logiciels clients *

7.2 Logiciels serveurs *

8. Projets autour de PICS *

8.1 Projets issus du W3C *

8.2 Projets hors W3C *

9. Et l’avenir ? *

9.1 Sélection positive *

9.2 PICS le précurseur - RDF le successeur *

9.3 Faciliter l'accès à la connaissance *

10. Références *

 


  1. Avant-propos

L'entrée dans la société de l'information, dont l'Internet est la partie visible, place les sociétés en face de problèmes liés à la multiplicité des sources d'information et des modes de pensée. Le public concerné a le choix entre interdire de véhiculer certaines informations ou développer des méthodes permettant de choisir librement les informations à recevoir.

L'État a initié en 1996 une réflexion sur l'opportunité d'établir des règles de fonctionnement du réseau. La commission interministérielle (dite Commission Beaussant) a examiné différentes voies, quelquefois inadaptées au contexte, quelquefois nécessaires, souvent complémentaires.

Le Consortium World Wide Web (W3C) a mis au point un système permettant d'associer puis de lire des étiquettes donnant des informations sur une ressource Internet. Ce système offre la possibilité à toute personne ou organisme de donner des informations sur une ressources et de prendre connaissance des informations données. Ce système est connu sous le nom de PICS (Platform for Internet Content Selection - Plateforme de Sélection du Contenu sur Internet)

Des organismes ont étiqueté des contenus et les auteurs apprennent à auto étiqueter leur production. Les fournisseurs de logiciels ont développés des logiciels capables de lire les étiquettes PICS et de bloquer l'accès à certaines ressources en fonction du contenu des étiquettes.

L'Isoc France qui a participé aux débats sur la régulation met en avant la possibilité, voire la nécessité, d'utiliser des méthodes de sélection des contenus sur une base volontaire et individuelle.

Ce document a été établi pour la préparation d'un atelier consacré au sujet, lors des Rencontres d'Autrans de janvier 1998. Il expose les différentes techniques disponibles ainsi que les usages qui en sont faits à l'étranger. Au travers de ce document et du déroulement de l'atelier d'Autrans, le public peut prendre conscience de l'opportunité de développer la sélection des contenus et des difficultés qui sont liées à ce développement dans le contexte national.

L'atelier se fixe comme objectifs :


Catherine Soubeyrand
participe au groupe de travail sur le développement de PICS au sein du W3C. Elle est à l'origine de synthèses et traductions sur le sujet.

Daniel Dardailler

représente l'activité PICS au W3C pour l'Europe. Il est en relation directe avec les équipes travaillant sur le développement ou l'utilisation de PICS et de RDF.

Robert Denoue

est ingénieur à IBM et administrateur de l'Internet Society France. Il a participé aux travaux de la Commission Beaussant pour le compte de l'Internet Society.




  1. L'Internet : un média particulier
  2. L'Internet est un média composite dont le fonctionnement technique repose sur une grande variété d'acteurs. Ce fonctionnement est basé sur la collaboration et ne comporte pas de centre permettant de le contrôler.

    L'utilisation de l'Internet est rendue possible par cette collaboration qui fournit les éléments nécessaires au raccordement, au stockage, au transport, à la mise à disposition et à la consultation d'informations.

    Tout contenu est virtuellement accessible à une personne désirant le consulter. Les différents contenus sont stockés sur différents ordinateurs formant le réseau et il suffit à la personne de posséder un logiciel adéquat, un accès au réseau et de piloter le logiciel pour lui indiquer la façon de retrouver l'information désirée. Le réseau se charge de transmettre la requête au programme serveur de l'ordinateur qui possède l'information. Le serveur renvoie l'information au logiciel de consultation (le client) via le réseau. Il reste alors au logiciel client de présenter l'information sous sa forme originelle à l'utilisateur.

    1. Médiathèque planétaire
    2. Chaque contenu est emprunt de la marque de son auteur, il peut être commercial ou non. L'arrivée des contenus commerciaux est relativement récente et liée au développement de marchés ouverts par le réseau Internet. Les auteurs de contenus sont soumis aux lois de leur pays, ces lois sont donc très variables. Une très grande quantité de contenus est créée chaque jour, ces contenus peuvent être légaux ou non en regard des lois applicables à l'auteur ou de celles applicables à l'utilisateur qui les reçoit.

      Chaque utilisateur potentiel est aujourd'hui déjà, et sera plus encore dans les années qui viennent, confronté à la capacité d'accéder à des contenus qu'il peut approuver ou réprouver.

    3. Contrôle central ou contrôle individuel
    4. La société se retrouve donc dans une situation sans précédent. Certains diront que ce contexte est propice à faire évoluer la société vers un avenir meilleur, d'autres pourront craindre de se voir déstabilisés. C'est toute la capacité de l'individu à se prendre en charge et à mettre en place une autorégulation qui se trouve propulsée à l'avant-scène. Quoiqu'il en soit, tous les individus, adultes ou a fortiori mineurs, ne sont pas également armés pour se protéger.

      Pour certains, le libre arbitre sera suffisant, pour d'autres, une aide sera souhaitable, en particulier pour l'exercice d'un contrôle parental.

      Une des solutions pour y parvenir, sans porter atteinte à la notion indéfinie de liberté d'expression, est de mettre en place une protection lors de la consultation des contenus. D'une manière simple, celle-ci consiste à trier les contenus pouvant être consultés en fonction de critères divers. Les contenus ne vérifiant pas les critères définis par l'utilisateur seront rendus inaccessibles par l'utilisateur lui-même. Chaque individu peut ainsi fixer les critères selon sa propre sensibilité, indépendamment des autres utilisateurs.

      Cette solution, qui ne préjuge pas de ce qui est fait au niveau légal concernant la production des contenus et leur acheminement par les prestataires techniques collaborant au fonctionnement de l'Internet, est désignée sous le terme " filtrage des contenus " ou encore de " sélection des contenus ".

      Le principe sous-tendu par ce fonctionnement est que la sélection s'opère au point de consultation de l'information plutôt qu'à son point de création. Le filtrage est un acte volontaire qui respecte les droits et les opinions des utilisateurs autant que ceux des auteurs. Il affranchit, en partie ou en totalité, l'utilisateur de la multiplicité des lois étrangères, manquantes ou inadaptées au contexte du réseau.

    5. Une communauté qui veut assumer sa responsabilité
    6. Les acteurs de l'Internet font preuve d'une volonté à se prendre en charge eux-mêmes, ce qui est loin d'être courant dans d'autres domaines de la société. On voit rarement les conducteurs de véhicules initier la réforme du code de la route ou l'aménagement de la signalisation. L'Internet s'est construit sans contrôle des états, il est exempt des contraintes d'un tel contrôle. D'un autre côté, les acteurs de ce réseau sont conscients que l'ouverture à un public large est nécessaire mais s'accompagne de problèmes qu'ils doivent surmonter. Chaque tentative de réintroduction d'un contrôle de l'état s'est soldée par une contestation très forte. Le fait que le média soit très riche et peu contrôlable de manière centrale a jusqu'à présent donné raison aux tenants de l'autorégulation. Les tentatives d'amendement en vue d'établir un contrôle étatique, aussi bien aux Etats-Unis qu'en France se sont soldées par des décisions d'inconstitutionnalité prononcées par les autorités compétentes. Mais chaque tentative motive aussi les acteurs à proposer des solutions valables pour se substituer à la main mise institutionnelle. En ce sens, la communauté, qui sera peut-être demain la société entière, en retire un grand bénéfice. Cette observation devrait conduire les états à favoriser l'autorégulation et à faire confiance aux acteurs qui démontrent que la protection des personnes appelle des réponses plus positives que la limitation de la liberté d'expression.

    7. Classification : informer ou juger ?
    Extraits d'une communication de Donald F. Roberts et Thomas More Storke, professeur du Département de la Communication à l'université de Stanford, en août 1996 (source RSAC).
    Aujourd'hui, je vais parler de ce qui est devenu l'un des sujets brûlants dans le monde des médias de masse aux Etats-Unis. Durant les deux ou trois ans que nous avons passé aux USA, nous avons conduit un débat marquant à propos de l'opportunité et des moyens de réguler le contenu des médias. [...]

    Dans l'immédiat, je vais essayer d'expliquer pourquoi le sujet de la classification a pris un tel essor , présenter quelques résultats préliminaires de l'étude sur la violence à la Télévision Nationale, discuter du fonctionnement de la V-chip et finir par ce que l'on appelle le système de classification RSAC et les arguments qui me font préférer un système de description de l'information à un système d'évaluation de l'information. [...]

    Protéger les enfants

    La demande pour une réglementation du contenu des médias est essentiellement motivée par le besoin de " protéger les enfants ". Ainsi, chaque fois que l'on essaie de réglementer quelque chose par rapport au contenu d'un média, que ce soit pour l'étiqueter, pour restreindre son accès ou pour le censurer totalement, cela est généralement justifié par le souhait de vouloir préserver les enfants du mal. Les enfants sont présumés, c'est plutôt justifié, être différents des adultes – plus vulnérables, moins aptes à appliquer les bases du jugement critique, plus exposés. [...]

    Mon propos est simplement que la peur des médias pour les enfants n'est pas nouvelle. L'Homme a toujours débattu sur le type de contenu qui pourrait être approprié aux enfants et sur ce qui devrait être fait par rapport à cela.

    Demande en faveur de la classification

    Les réponses à cette question semblent toujours aller d'une extrême " ne rien faire " à l'autre " brûler les livres " (les films/les jeux/les disques – les auteurs !). La solution intermédiaire, au moins aux Etats-Unis, s'est exprimée sous la forme de demandes pour mettre en place une forme de classification ou d'étiquetage, un moyen d'identifier les contenus non appropriés aux enfants, et ensuite d'utiliser ce système soit pour habiliter les parents, soit pour réglementer l'accès des enfants, ou bien une combinaison des deux. [...]

    Comme les adultes ont toujours eu peur que les médias n'exercent une influence néfaste sur les enfants, il n'est pas surprenant [que l'on en vienne] à considérer les médias comme ayant " forcément " un impact négatif sur la société, et de là, à demander qu'ils soient réglementés ou encadrés. Étant donné que la constitution américaine garantit la liberté d'expression, l'une des possibilités pour exercer une forme de contrôle semble être un système de classification ou d'information, à condition qu'il ne soit pas mis en place par le gouvernement. Un sondage du New York Times publié en juillet 1995 a montré que 80% des américains adultes et 91% des parents étaient en faveur de la mise en œuvre d'un système de classification pour la télévision, que 80% des parents souhaitaient que les enregistrements musicaux soient classés et que 86% des parents pensaient que les cassettes et jeux vidéo devaient l'être également (Sex and power in popular culture, 1995). [...]

    En d'autres termes, si nous avons à mettre au point un système de classification pour informer les parents des contenus potentiellement problématiques dans les émissions télévisées (ou les films, les jeux vidéos ou les sites Web), les facteurs contextuels caractérisant la plupart (pas la totalité, mais la plupart) des programmes violents à la télévision américaine sont exactement ceux qui justifient le besoin d'étiqueter les contenus comme non appropriés aux enfants.

    La V-chip

    Comme certains d'entre-vous le savent déjà, en février, le Président Clinton a signé la loi de 1996 sur les télécommunications, une loi dont on dit qu'elle va changer la face de l'industrie américaine des télécommunications. Un petit passage de cette loi est destiné à donner aux parents la possibilité de contrôler les contenus télévisés auxquels leurs enfants peuvent avoir accès.

    La V-chip est un simple composant, un tout petit composant, à incorporer aux nouveaux téléviseurs (ou à rajouter à ceux déjà existants). Elle permet aux consommateurs de bloquer les émissions en fonction de la classification de leur contenu. La puce lit un signal qui n'est pas visible au spectateur (il est transmis pendant l'intervalle de blanking vertical […]). Ce signal qui sera présent dans chaque programme de télévision, contiendra l'information de classification du programme. Le consommateur peut programmer la puce pour que tout programme dont la classification ou le niveau d'intensité dépasse le seuil défini soit bloqué. Par exemple, une émission peut être classifiée entre 0 - pas de violence et 5 - très violent, ou entre G - tout public et NG - 17 - pas pour les enfants de moins de 17 ans (système américain de classification des films). Les parents décident des émissions qu'ils veulent autoriser à la maison sur la base de la classification et programment la V-chip pour bloquer ce qui dépasse le niveau sélectionné. Une fois que la sélection est faite, la puce décode automatiquement le signal de classification de chaque programme et agit en concordance avec la décision parentale (ou autre). Si le programme dépasse le seuil, la V-chip intercepte le signal et l'écran devient simplement vide. En bref, la puce n'est rien d'autre qu'un dispositif qui permet aux consommateurs de décider des types d'émissions qu'ils veulent autoriser chez eux à chaque moment et de bloquer les autres.

    Ils faut noter certaines choses importantes à propos de la V-chip : 1) elle peut s'adapter à n'importe quel nombre de systèmes de classification différents ; 2) elle peut prendre en compte plusieurs systèmes simultanément (il n'y a pas d'obligation de se conformer à une approche unique) ; 3) un même programme peut est classifié à l'aide de plusieurs critères, par exemple, il peut y avoir une classification pour la violence, une autre pour le sexe et une autre pour le langage, toutes pertinentes pour le même programme ; 4) la puce peut être mise en service et hors service ou programmée à nouveau à tout moment.

    Le système RSAC

    En clair, les caractéristiques électronique de la V-chip ne sont qu'une partie de l'histoire. La valeur de la V-chip dépend dans un premier temps autant du système utilisé pour classifier les contenus que des capacités d'affichage et de blocage, c'est pourquoi je vais parler des différentes approches qui président à la classification. La distinction principale à faire est celle entre les systèmes descriptifs et les systèmes évaluatifs.

    Pour commencer, combien d'entre-vous seraient satisfaits par un système de classification consistant à dire simplement G (bon pour les enfants) ou NG (mauvais pour les enfants) ? Avant de voir le programme, ce serait la seule information que vous en connaîtriez. La situation serait-elle meilleure s'il y avait quatre ou cinq niveaux de classification, disons 0 à 5, ou G, PG, PG-13, R et NC-17 (encore le système du MPAA) ? Est-ce suffisant ? Votre réponse à la question changera t'elle en fonction de qui fournit la classification ? Par exemple, si G ou NG est décerné par un membre influent du système éducatif ou par un détenu pour abus sexuel sur mineur. Que dire d'une classification qui serait faite par un ou deux éducateurs, l'un obsédé par la suppression de la violence à la télévision, l'autre en croisade pour tenir les enfants à l'écart de la nudité ? Mais vous ne saurez pas qui est l'origine d'une classification donnée. Est-ce que cela fera une différence pour vous en fonction de l'auteur de la classification ? Est-ce que certains d'entre-vous sont plus attentifs à la présentation de la violence qu'à celle du sexe, ou vice versa ? Est-ce que parmi vous, certains ont différentes visions à propos de la représentation de la nudité ? ou de la grossièreté ? et même si vous pouvez être d'accord sur les types de contenus les plus concernés, êtes-vous sûrs d'être d'accord sur la façon de classifier un contenu particulier ? Peut-être que ce que vous considérez comme étant de la violence brutale sera considéré par un autre comme rien de plus qu'une bagarre amicale.

    J'ai commencé à comprendre l'importance de ces questions lorsque j'ai été appelé par la Software Publishers Association pour développer un système de classification des jeux informatiques. Comme je l'ai dit auparavant, aux Etats-Unis, le débat sur la classification a impliqué la presque totalité des médias. Trois ans avant, en réponse à la mise sur le marché de quelques jeux vidéos particulièrement violents et sanglants, plusieurs membres du Congrès américain avaient fait pression sur l'industrie du jeu vidéo et du jeu informatique pour qu'elle développe une forme d'information parentale sur les emballages de jeux. [...]

    En fin de compte, lorsque le système sur lequel j'ai travaillé a été terminé, il fut remis à un comité d'information à but non lucratif, indépendant de l'industrie informatique, le Recreational Software Advisory Council (RSAC) [Comité Consultatif pour les Logiciels de Loisir].

    Le système de classification est connu sous le nom de système RSAC. Il y a quelques mois, une version modifiée, appelée RSACi (i pour Internet) a été mis en œuvre pour le World Wide Web et 2000 sites Web ont déjà été classifié avec.

    Plusieurs facteurs ont influencé la structure du système de classification RSAC. La plus importante étant sans doute la question générale de savoir si le système devait prononcer un jugement ou simplement informer (évaluatif ou descriptif). En d'autres termes, un système de classification doit-il émettre un jugement évaluatif sur ce qu'un enfant peut voir ou bien, doit-il donner aux parents des informations sur ce qu'est le jeu et les laisser émettre le jugement évaluatif ? Est-ce qu'il est mieux d'étiqueter un programme comme étant " non approprié pour un enfant de moins de 13 ans " ou d'indiquer que " ce programme montre de la violence qui n'est pas punie et qui résulte en des blessures à des êtres humains " , laissant les parents décider si leurs enfants peuvent l'utiliser ?

    Je me suis aperçu que beaucoup de parents s'opposaient à une classification de nature à juger de l'âge autorisé, ils ne croyaient pas qu'elle puisse être appropriée au cas de leurs propres enfants. Certains étaient persuadés que leur petit de 10 ans était en mesure de regarder certaines émissions classées PG-13, d'autres pensaient que leur jeune de 14 ans ne pouvait pas regarder tel film PG-13, ils n'étaient pas d'accord pour expliquer leur opinion à propos de ces classifications " d'experts " ; mais la plupart reprochait au système alphabétique simple de ne pas les informer suffisamment pour qu'ils puissent se faire une opinion valable.

    Étant donné que PG-13 peut être attribué à cause de la violence, du sexe ou du langage, ils sont souvent incapables de savoir ce qui a motivé la classification d'un film donné. La seule chose dont ils puissent être sûrs, c'est que quelqu'un a jugé que le contenu ne convient pas à un jeune enfant. [...]

    En fin de compte, étant donné que les concepteurs de jeux ne souhaitaient pas que leurs produits soient jugés, et que beaucoup de parents plaidaient pour plus d'informations, nous avons opté pour un système descriptif, un conseil informatif, par opposition à un système évaluatif. Nous avons décidé de prendre exemple sur le système d'étiquetage américain des produits alimentaires, un système qui demande aux fournisseurs d'aliments d'indiquer sur l'emballage la composition complète du produit emballé. On ne dit pas aux consommateurs s'ils peuvent ou non manger l'aliment, au lieu de cela, on leur fournit des informations adéquates et la décision leur appartient. Nous avons développé le système d'information sur les contenus du RSAC en utilisant les mêmes principes.

    Un autre élément déterminant dans la forme adoptée pour le système était logistique. La nature des jeux informatiques rend très difficile de les faire évaluer par des critiques indépendants. Si les films ou les cassettes vidéos peuvent être visualisées en 90 minutes, il faut quelquefois jusqu'à 100 heures pour passer un jeu en revue (200 pour une personne de plus de 40 ans). Étant donné que des centaines de jeux doivent être classifiés chaque année, cette solution est en pratique impossible.

    Par conséquent, nous devions mettre au point un système d'auto classification - c'est-à-dire un système au moyen duquel les concepteurs classifiaient eux-mêmes leurs propres jeux. Cela a créé, bien entendu, un nouveau problème. Demander au concepteur de classifier son jeu, en particulier lorsque le concepteur pense qu'une classification basse pour la violence fera baisser les ventes, c'est comme de demander au renard de garder le poulailler... cela semblait être une incitation à détourner les règles. Nous avons dû trouver un moyen pour obtenir des classifications fidèles et honnêtes, et aussi important, pour convaincre le public que les classifications effectuées soi-même étaient fidèles et honnêtes. La solution n'était pas compliquée en fait. Nous avons simplement pris les normes scientifiques en les rendant compréhensibles au public. Nous avons développé un système de classification très fiable et complètement transparent, ces deux caractéristiques ont largement solutionné le problème. Laissez-moi vous l'expliquer.

    Un système très fiable signifie que deux personnes qui utilisent correctement les procédures classifient un jeu de la même façon. Ceci nécessite des définitions très concrètes et très détaillées de chaque point à classifier et un jeu de questions sur le contenu qui ne requiert que des réponses de type " oui/non " une fois que les définitions ont été comprises. [...]

    Un système publique signifie qu'il est publiquement contrôlable, que chacun peut accéder au système, aux définitions et aux procédures. Dans la mesure où l'accès au système est garanti, chacun peut vérifier à tout moment la classification donnée à n'importe quel jeu. L'idée est qu'en donnant la possibilité au public de faire facilement des remarques ou d'émettre des objections lorsqu'il n'est pas d'accord avec la classification (en utilisant évidemment le même système), les concepteurs de jeu restent honnêtes par crainte d'une vérification. Si les concepteurs abusent du système, ils sont susceptibles de se voir retirer leur classification, ce qui peut se traduire par un retrait des produits des rayons de vente, et de se voir infliger une amende. [...]

  3. Modes de sélection
  4. On peut classer les méthodes de sélection des contenus à l'arrivée en deux grandes familles : la sélection statique et la sélection dynamique.

    1. La sélection statique

L'utilisateur ou un fournisseur définit une liste de ressources qui vont être utilisées par un logiciel pour vérifier si la ressource est autorisée ou non. Deux directions sont possibles :

Les listes sont en général détaillées pour indiquer les critères qui permettent d'autoriser une ressource ou de l'interdire. Le logiciel permet à l'utilisateur de retenir ou non chacun des critères en fonction de sa propre sensibilité. Dans une liste noire, l'utilisateur pourra passer outre pour certaines ressources s'il ne retient pas le ou les critères qui conduisent à l'insertion de la ressource dans la liste.

Les premières versions de logiciels de filtrage ont utilisé cette technique, aujourd'hui, elle cohabite souvent avec la sélection dynamique. Cyber Patrol propose une liste blanche (CyberYES) utilisée également pour le site " Route 6-16 " et une liste noire de 7000 sites (CyberNOT) sélectionnés après évaluation d'un certain nombre de critères.

    1. Sélection par mots-clé

Une technique particulière se situe entre la sélection statique et la sélection dynamique. Elle consiste à repérer des mots clés dans les contenus pour les interdire. Elle est statique, parce que basée sur une liste de mots clés à définir, et elle est dynamique car elle tient compte des contenus créés après la mise au point de la liste de mots.

Cette méthode bon marché présente un certain nombre d'inconvénients :

On raconte que cette technique empêche de consulter l'ensemble des pages situées dans le Sussex !

    1. Sélection dynamique

Dans la sélection dynamique, l'utilisateur n'est pas le seul acteur du filtrage et il n'est pas nécessaire de définir des listes statiques.

Chaque ressource, qui le permet techniquement, contient une étiquette évaluant son contenu sur la base de critères multiples. Cette étiquette peut être certifiée par un organisme indépendant qui propose sa propre liste de critères d'évaluation et sa propre échelle de mesure. Il peut exister plusieurs organismes dont le mode d'accréditation n'est pas défini actuellement.

L'utilisateur dispose d'un logiciel capable de lire les étiquettes et qui lui permet de sélectionner l'organisme certificateur ainsi que ses propres préférences pour chaque critère. Lorsqu'une ressource est accédée, le logiciel compare l'étiquette et les seuils définis par l'utilisateur. Si tous les critères sont dans les limites des seuils, la ressource est autorisée, dans le cas contraire, elle est inutilisable.

Cette technique est très dynamique puisqu'elle permet à l'utilisateur de tenir compte des contenus à mesure qu'ils sont créés sans maintenir de liste à jour. Le système repose en partie sur la confiance dans l'organisme qui certifie les étiquettes. Le système permet une dissociation de la fonction de classification et de celle de filtrage, les organismes de classification étant indépendants des éditeurs de logiciels de filtrage.

A ce jour, la seule méthode existante pour le codage, la certification et la lecture des étiquettes est Platform for Internet Content Selection (PICS) mis au point par le Consortium World Wide Web (W3C).

Le W3C est un organisme international dont la mission est de faire évoluer le Web de manière interopérable. Il est hébergé par le MIT aux Etats-Unis, par l'INRIA en Europe et par l'Université de Keio au Japon.

  1. Une solution neutre et ouverte : PICS
    1. Présentation de PICS
      1. Origine et objectifs de PICS : système ouvert et versatile

L'Internet étant depuis quelques années passé du domaine de la recherche au domaine du grand public, il s'est trouvé du fait de son succès, confronté au problème classique des médias: tous les contenus ne sont pas recevables par toutes les audiences. Pour éviter une lourde censure étatique, mal adaptée à ce nouveau média et risquant de compromettre son développement, divers acteurs se sont regroupés pour mettre au point une plate-forme commune pour le classification et la sélection des contenus sur l'Internet.

PICS est ainsi né en août 1995, au sein d'un groupe de travail du Consortium World Wide Web (W3C). Ce groupe fédère et harmonise différentes initiatives prises au cours de l'année 1995 : la création du groupe pour le contrôle parental dans le cadre des autoroutes de l'information (IHPEG), la proposition de plusieurs standards d'étiquetages de contenu et l'annonce de services et de produits pour bloquer les contenus non appropriés. Quelques mois plus tard, les Etats Unis proposèrent une loi portant sur les contenus indécents - le CDA : Communication Decency Act - qui, en dernier lieu, a été rejetée par la Court Suprême.

Rappelons les principes ayant accompagné la naissance de PICS. "Développer des technologies donnant aux utilisateurs le contrôle sur les contenus auxquels eux mêmes et leurs enfants accèdent. Il est espéré qu'une grande diversité de produits et de vocabulaires de classement sera disponible."

Les normes définies doivent faciliter :

Implicitement PICS utilise les spécificités de l'Internet à savoir la facilité et le faible coût de distribution des informations ainsi que la puissance des ordinateurs pour permettre à chacun de choisir ce qu'il souhaite regarder. Le rôle actif des utilisateurs est aussi mis en avant, PICS responsabilise les parents.

Insistons sur le fait que PICS n'impose aucun vocabulaire mais définit un format commun et neutre pour le codage et la transmission des étiquettes. Tout logiciel de sélection compatible PICS peut lire une étiquette compatible PICS, à l'utilisateur de choisir le logiciel qu'il préfère et l'origine des étiquettes.

Plus d'informations :

PICS sur le serveur du W3C http://www.w3.org/PICS

      1. L'essentiel de PICS : vocabulaire qu'il faut maîtriser pour lire la suite

Les termes importants, à retenir pour la suite, sont marqués en gras, au moment de leur définition, avec leur équivalent anglais indiqué en italique entre parenthèses.

Préalable : les adresses sur l'Internet sont appelées des URLs (Uniform Resource Locator), elles se composent du type d'accès (http) suivi du nom de l'ordinateur (www), du nom de domaine (isoc.org) enfin du chemin d'accès à la ressource (index.html). Ce qui donne finalement : http://www.isoc.org/index.html. Ces adresses sont constamment utilisées par les navigateurs.

PICS proprement dit se compose de deux normes en version 1.1, recommandations stables datées de novembre 1996.

La première "Label Distribution Label Syntax and Communication Protocols" définit le format des étiquettes (labels) et les trois manières de les distribuer :

Détaillons les divers composants de l'étiquette : elle contient l'identifiant du service qui l'a créé, paramètre obligatoire composé d'une URL. Autres paramètres : le numéro de la version de PICS utilisée, la date de création, l'auteur, la date d'expiration, la portée (un document unique ou un sous ensemble d'un site) et pour finir la cote également appelée classement (rating).

Exemple d'une étiquette pour le site de l'ISOC, créée suivant le vocabulaire RSACi qui comprend quatre critères langage (l 0), sexe (s 0), nudité (n 0) et violence (v 0).

PICS-1.1 "http://www.rsac.org/v1.0"
labels on "1997.11.05T08:13-0000" until "1998.11.20T23:59-0000"
for http://www.isoc.org"
by "John Doe"
ratings (l 0 s 0 n 0 v 0)

La cote est constituée par la partie : (l 0 s 0 n 0 v 0).

L'étiquette intègre deux paramètres de sécurité : un condensé (MIC : Message Integrity Cheks) qui peut être recalculé pour vérifier que l'étiquette s'applique a un contenu qui n'a pas été modifié depuis que l'étiquette a été créée et une signature numérique qui authentifie le service ayant produit l'étiquette.

Théoriquement, le nombre d'étiquettes associées à un même contenu est illimité, qu'elles soient situées avec celui-ci ou dans différents bureaux d'étiquettes.

La deuxième norme "Rating Services and Rating Systems" définit les services et les vocabulaires de classification (rating systems).

Un service est un organisme privé ou public qui crée et éventuellement distribue des étiquettes suivant un vocabulaire donné. Celui-ci comprend différentes catégories permettant de qualifier le contenu. Le vocabulaire RSACi, largement utilisé, définit quatre critères : langage, sexe, nudité et violence, chacun étant gradué de 0 à 4.

PICS n'impose aucun vocabulaire particulier, chaque service choisit ou définit un vocabulaire, le W3C recommande cependant de ne pas multiplier les vocabulaires à l'infini afin de faciliter la mise en oeuvre de PICS : délicat équilibre à atteindre. Des vocabulaires peuvent être développés pour évaluer toutes sortes d'informations depuis la qualité d'un document jusqu'au degré de publicité dans une page, tout dépend de l'utilisation recherchée. PICS est flexible.

Le service de classification doit fournir une description de lui-même sous forme d'un fichier (.rat) lisible par des machines. Cette description peut être fournie dans différentes langues, la cote d'une étiquette est indépendante de la langue. PICS facilite l'internationalisation.

Plus d'informations :

Norme sur les étiquettes http://www.w3.org/PICS/labels.html
Norme sur les services http://www.w3.org/PICS/services.html
Avant projet sur les profils http://www.w3.org/PICS/picsrules/spec11.htm

      1. Fonctionnement global
      2. Des parents qui souhaitent utiliser un logiciel de filtrage, vont en choisir un parmi ceux disponibles sur le marché ou utiliser un navigateur compatible PICS. Ils installent le logiciel sur leur machine, puis choisissent le service de classement qui correspond à leurs sensibilités ou à leurs valeurs.

        Le logiciel va lire la description du service (fichier .rat) et adapter son interface pour représenter les différents critères présents dans le vocabulaire choisi par le service. Les parents définissent pour chaque critère le degré qu'ils autorisent. Tout contenu dont l'étiquette ne satisfait pas aux paramètres définis par les parents sera bloqué.

        D'autres architectures sont possibles, le filtrage étant mis en oeuvre au niveau d'un serveur proxy ou d'un firewall géré par un fournisseur d'accès ou par le service informatique d'une entreprise.

      3. Les différents maillons de la classification basée sur PICS, de l'auteur au consommateur

Une des propriétés essentielle de PICS est de séparer distinctement la création des étiquettes et la sélection des contenus. Six rôles peuvent être définis dans la chaîne de classification (reprise de la FAQ PICS, Censorship & Intellectual Freedom) :

A - Créer un vocabulaire et définir les critères.

B - Créer des étiquettes.

C - Distribuer des étiquettes.

D - Développer des logiciels de filtrage.

E - Positionner les critères de filtrage.

F - Installer, faire fonctionner un logiciel de filtrage.

Examinons les différents maillons qui interviennent dans la chaîne PICS (tiré en partie, d'un article de C. Dianne Martin, et Joseph M. Reagle) :

Ils peuvent être commerciaux ou non et aller d'un individu à un grande multinationale, en passant par une université. Suivant le contexte légal et leurs motivations, ils peuvent ou non créer et distribuer des étiquettes dans leurs contenus.

Les fournisseurs d'hébergement fournissent un service à l'attention des individus ou des sociétés qui ne peuvent pas ou ne souhaitent pas disposer de leur propre serveur pour publier des contenus sur l'Internet. Pour se protéger contre l'accusation d'héberger des contenus illicites, ces entités peuvent encourager ou imposer aux fournisseurs de contenus de s'auto-classifier. Par exemple, CompuServe préconise le vocabulaire RSACi à travers une implémentation de Cyber Patrol et encourage ses abonnés privés ou institutionnels à employer RSACi.

Les moteurs de recherche et les agents peuvent se trouver en dehors du flux direct des contenus. Certains peuvent ne pas utiliser ces dispositifs, cependant ils offrent une valeur ajoutée réelle en permettant de canaliser et de retrouver les informations. A ce titre, les moteurs de recherche peuvent trouver un intérêt à être compatibles avec PICS, cela permettant d'améliorer leurs possibilités de recherche et d'indexage. Cela peut être à son tour une motivation pour les créateurs de contenus d'adopter des vocabulaires de classification compatibles avec PICS.

Les robots se promènent de site en site pour trouver les informations demandées par leurs propriétaires. Comme les robots sont des spiders personnels et sélectifs, leurs capacités à retrouver et à ramener les informations sont affectées par PICS de la même manière que les moteurs de recherche. Étant donné qu'ils ont maintenant la possibilité de se transmettre des informations, les étiquettes PICS peuvent devenir le langage leur permettant de communiquer les préférences de leurs propriétaires.

Les FAIs permettent de connecter un point de l'Internet à un autre. Les gouvernements peuvent les voir comme des points de contrôle commodes. Certains gouvernements se sont empressés de les rendre responsables des contenus qu'ils véhiculent. Étant donné que les FAIs ont été au cœur de la controverse, ils ont intérêt à adopter ou à favoriser les vocabulaires de classification [tels que RSACi].

Les navigateurs sont utilisés pour accéder aux informations du World Wide Web. Microsoft a incorporé le système PICS RSACi dans son Internet Explorer. L'intérêt d'un tel accord pour ces sociétés est de répondre à une préoccupation de contrôle parental ou institutionnel pour la restriction de l'accès aux contenus inopportuns.

Ces catégories incluent à la fois les réseaux publics (AOL, CompuServe, Prodigy) et les réseaux privés ou d'entreprise. Ces secteurs ont été particulièrement concernés par les contenus inopportuns. Tandis que les ISPs ont mis en avant un rôle neutre de transporteurs, les services en lignes ont cherché à donner une image familiale. De ce fait, ils ont été parmi les premiers à mettre en place des solutions de sélection comme SurfWatch ou Cyber Patrol. Les entreprises sont également concernées par les activités inopportunes sur leurs réseaux et certaines cherchent à contrôler l'activité de leurs employés à l'aide de logiciels tels que Net Shepherd. Les services de réseaux tels que les serveurs intranets, les firewalls ou les proxies sont également des points de contrôle de la diffusion des informations dans l'entreprise.

Théoriquement les vocabulaires peuvent être créés par n'importe quel individu ou organisme public ou privé, mais de fait les vocabulaires existants ont été créés par des organisations qui proposent un service d'auto-étiquetage tels que RSAC, SafeSurf ou un bureau d'étiquettes : NetShepherd, ORC, Microsystem.

Un gouvernement pourrait facilement imposer un vocabulaire. L'initiative INCORE étudie la faisabilité d'un vocabulaire commun à l'Europe. Le groupe "International Working Group for Content Rating" a été constitué dans le but de définir un vocabulaire de classification commun à l'UE, aux USA, à l'Australie et à d'autres pays. Cette question intéresse également l'OCDE.

L'atelier PICS aux rencontres d'Autrans 98 a aussi pour but de faire prendre conscience de l'importance du vocabulaire de classification et de l'impact qui résulte du choix effectué sur l'utilisation dans une culture donnée. Il a pour but de susciter la participation française aux groupes de travail internationaux sur le sujet.

      1. Questions fréquemment posées

Q1. Où puis-je trouver un logiciel PICS ? Combien coûte PICS ?

R1. PICS ne fournit aucun logiciel. C'est simplement un ensemble de spécifications techniques destiné à faciliter l'interfonctionnement entre les logiciels et les services de classement. Vous utiliserez un logiciel de filtrage fourni par une organisation autre que PICS. Il existe une liste de logiciels clients compatibles PICS, mais le W3C ne soutient ou n'évalue aucun de ces produits. Les prix varient, certains logiciels sont gratuits.

Q2. Quels critères utilise PICS lorsqu'il détermine ce que mes enfants peuvent regarder sans danger ? N'est ce pas en soi une décision subjective ?

R2. PICS ne classe rien. PICS ne fait que fournir des spécifications techniques permettant aux classements de toutes origines d'interfonctionner avec tous les logiciels de filtrage. Les services d'étiquetage et de classement choisissent leurs propres critères pour classer. Comme la notion de classement incorpore toujours une certaine part de subjectivité, vous voudrez certainement choisir un service de classement dont les jugements soient proches de ceux que vous feriez. Il est possible que le logiciel de filtrage que vous utilisez soit déjà configuré pour utiliser un service de classement particulier, auquel cas vous n'avez même pas à choisir séparément.

Q3. Est-il difficile pour un fournisseur de contenus d'incorporer une étiquette compatible PICS avec le contenu ?

R3. Un fournisseur de contenu doit premièrement choisir le vocabulaire de classement qu'il souhaite utiliser. Nous vous conseillons de faire usage d'un vocabulaire déjà utilisé par d'autres, afin de faciliter la compréhension de vos étiquettes par les parents. Une liste de vocabulaires d'auto-classement est disponible mais le W3C ne soutient aucun vocabulaire, en particulier. Typiquement, vous choisissez un service d'auto-classement, vous vous connectez à son serveur web et décrivez votre document ou votre site web en remplissant un questionnaire en ligne. Après que vous ayez complété le questionnaire, le service vous donne une étiquette de type texte dans un format spécial, que vous placez ensuite dans la portion entête de votre document HTML (ou la home page de votre site).

Q4. J'ai lu qu'une agence de classement indépendante peut étiqueter des sites ou des documents créés par d'autres. Est-ce que les créateurs des documents doivent coopérer ?

R4. Une agence de classement indépendante n'a pas besoin d'obtenir la coopération de chaque éditeur dont elle étiquette les contenus. Comme pour l'auto-étiquetage décrit ci-dessus, l'agence indépendante doit tout d'abord créer ou adopter un vocabulaire. Puis celui qui attribue les classements utilise un outil logiciel pour créer les étiquettes qui décrivent des URLs particulières. Au lieu de placer ces étiquettes dans les documents, l'agence indépendante les distribue au moyen d'un serveur séparé, ce que nous appelons un bureau d'étiquettes. Les logiciels de classement sauront comment interroger le bureau d'étiquettes pour trouver les étiquettes, de la même façon que les consommateurs savent quels magazines consulter pour lire des articles critiques sur des appareils électriques ou des automobiles.

Q5. Puis-je créer mes propres étiquettes afin d'être certain que mon enfant ne puisse voir que des contenus vérifiés au préalable ?

R5. Un parent ou un professeur peut aussi agir comme une agence de classement indépendante. Certains logiciels de filtrage facilitent ce processus en stockant les étiquettes définies par le parent ou le professeur sur l'ordinateur local, rendant ainsi inutile l'utilisation d'un bureau d'étiquettes. Habituellement les logiciels de filtrage décrivent cette fonction comme la capacité de "passer outre".

Q6. J'ai compris qu'un navigateur ou un logiciel de filtrage peut être paramètré pour aller vérifier des étiquettes fournies par une agence de classement indépendante avant d'établir la connexion avec un site choisi. Pouvez vous expliquer comment cela fonctionne ?

R6. Lorsqu'un utilisateur demande à voir une URL donnée, le logiciel de filtrage va chercher le document et en même temps il interroge le bureau d'étiquettes pour demander les étiquettes qui décrivent cette URL. Suivant ce que contiennent les étiquettes, le filtre peut bloquer l'accès à cette URL.

Q7. Est-ce que l'utilisation de logiciels conformes à PICS ralentit la communication sur Internet ?

R7. Si le filtre interroge un bureau d'étiquettes, comme décrit ci-dessus, la requête supplémentaire nécessitera du temps supplémentaire. Il existe plusieurs techniques, dont la copie en local des étiquettes et des requêtes en mode parallèle, pour limiter la perte de performances. Ce sera probablement un élément important de compétition entre les vendeurs.

Q8. Est-ce qu'un fournisseur d'accès Internet peut restreindre l'accès pour tous ses abonnés à des choses étiquetées d'une certaine manière ou bien est-ce que les étiquettes compatibles PICS peuvent seulement être utilisées pour limiter l'accès au niveau de l'utilisateur ? Est-ce qu'un pays peut limiter l'accès de tous ses fournisseurs d'accès Internet à certaines catégories d'étiquettes ?

R8. Cela dépend de la manière dont le réseau est configuré. Si un fournisseur d'accès ou un pays dispose de noeuds d'étranglement par lesquels transitent toutes les requêtes, il peut installer le logiciel de filtrage à ces endroits. Il est cependant plus naturel et plus efficace de laisser le contrôle de cette technologie aux mains des utilisateurs, car différents utilisateurs voudront limiter l'accès à différentes choses.

Q9. Est ce que PICS recommande un logiciel de filtrage particulier ?

R9. Non. Le Consortium World Wide Web, qui développe PICS est strictement neutre vis-à-vis des vendeurs. Une liste de filtres logiciels client est disponible.

Q10. Je m'inquiète de la possibilité que certains systèmes de classement étiquettent mal des contenus destinés à des adultes et les désignent comme convenables pour un enfant. Je serai plus rassuré si deux systèmes de classement séparés désignent tous les deux le contenu comme convenable pour un enfant. Puis je utiliser un logiciel de filtrage conforme à PICS pour restreindre l'accès à des contenus disposant d'étiquettes fournies par deux systèmes de classement ?

R10. En principe, un filtre peut tenir compte d'étiquettes provenant de plusieurs sources. L'implémentation réelle peut varier suivant le vendeur.

Q11. Je dirige une petite entreprise et plusieurs de mes employés demandent un accès régulier à certains sites Internet. Puis-je étiqueter ces sites et utiliser un filtre logiciel pour être sûr que mes employés n'accèdent pas à d'autres sites ? Est ce difficile à faire ? Combien de temps cela me prendra t'-il ?

R11. De nombreux vendeurs proposent une option pour "bloquer les sites non classés". La difficulté pour définir la zone acceptable pour vos employés variera suivant les vendeurs. Nous espérons également que les enseignants et les éditeurs de livres de cours créent des zones spécifiques de l'Internet pour les leçons. Un vendeur, au moins, a adopté cette méthode comme étant sa technique générale de filtrage.

Q12. Si le contenu contient l'étiquette, est-ce que l'étiquette peut être modifiée ou supprimée du contenu ?

R12. Oui, une étiquette dans un document HTML peut être supprimée. Intégrer une étiquette dans un document demande la coopération de l'éditeur et de tous ceux qui manipulent le document.

Q13. Si l'étiquette et le contenu sont physiquement séparés, comment peuvent-ils être liés de manière fiable ? Que se passe t-'il si le contenu est déplacé ou caché sur un autre site ?

R13. Un bureau d'étiquettes qui stocke seulement les étiquettes et pas les documents associe les étiquettes avec les URLs. Même si les contenus récupérés à partir de cette URL sont cachés, le bureau peut encore fournir une étiquette décrivant cette URL. Si les contenus sont déplacés vers une nouvelle URL, le bureau d'étiquettes peut essayer de garder trace des synonymes (URLs de remplacement qui pointent vers le même document) mais cela peut ne pas toujours correspondre. Un document qui a été étiqueté à une certaine URL peut effectivement être sans étiquette si il est déplacé à une autre URL.

Q14. Est-ce que PICS fonctionne avec des protocoles de communication autres que HTTP ? Pour exprimer cela autrement, est-ce qu'un filtre logiciel compatible PICS peut être contourné par un utilisateur dont l'accès est restreint à des documents appartenant à certaines catégories d'étiquettes, celui-ci obtenant les autres documents par FTP ou par courrier électronique ?

R14. les étiquettes PICS peuvent décrire tout ce qui peut être nommé au moyen d'une URL. Cela inclue FTP et Gopher, mais pas le courrier électronique.

Q15. Est-ce que les étiquettes conformes à PICS peuvent être associées à des canaux IRC particuliers et des discussions Usenet ?

R15. Les groupes de news Usenet, de même que les messages individuels possèdent des URLs et donc peuvent être étiquetés. Il n'existe pas encore de schéma officiel d'URL pour décrire les IRC, mais les spécifications PICS définissent un schéma préliminaire et un schéma d'URL encore plus solide pour les IRC est en cours de définition.

Q16. Comment puis-je être sûr qu'une étiquette PICS n'est pas fausse ou trompeuse ? Est-ce qu'une signature numérique peut être attachée à l'étiquette de telle sorte que je sois certain que l'étiquette est véritable ?

R16. Une étiquette peut intégrer une signature numérique. Ce mécanisme vous permet de vérifier que l'étiquette était autorisée par le service auquel vous avez souscrit. Vous devrez décider par vous-même si le service est digne de confiance. S'il émet souvent des étiquettes trompeuses vous souhaiterez probablement changer de service de classement.

Q17. Comment puis-je être certain que le contenu d'un site n'a pas changé depuis qu'il a été étiqueté ?

R17. Une étiquette peut inclure un condensé du contenu du document. Si le condensé est équivalent au condensé calculé du document alors l'étiquette est valide. Sinon le document a changé depuis que l'étiquette a été créée.

Q18. Puis-je demander à un service de recherche d'omettre les réponses qui seraient bloquées par mon filtre ?

R18. Pas encore, mais nous y travaillons. Nous sommes d'accord que cela peut être frustrant pour un enfant d'utiliser un service de recherche, d'obtenir dix réponses et puis de s'apercevoir en cliquant sur n'importe quelle réponse qu'il obtient un message indiquant que l'URL est bloquée. Nous sommes en train de définir un format standard pour les règles de filtrage, permettant au logiciel client de dire au moteur de recherche ce qui serait bloqué. Certains moteurs de recherche peuvent ignorer cette information, mais d'autres ajusteront leurs recherches en fonction des règles de filtrage du client.

Q19. Positionner les règles de filtrage m'embête trop. Ne pourrais-je pas plutôt trouver quelqu'un, en qui j'ai confiance et installer ses règles ?

R19. Certains vendeurs offriront cette fonction. Quand le format standard pour les règles de filtrage sera défini (voir la question précédante), il est probable que beaucoup d'autres vendeurs offriront cette fonction.

Avez-vous une question absente de cette FAQ ? Si c'est le cas, envoyez un courrier électronique à : pics-ask@w3.org

 

  1. Les services d'auto-étiquetage et les vocabulaires associés
    1. RSAC
    2. Cet organisme qui classait à l'origine des jeux vidéos a étendu son domaine pour couvrir les contenus Internet. Les critères utilisés sont incorporés dans des étiquettes PICS et sont décrits dans un fichier utilisable par les logiciels de filtrage.

      1. Présentation de RSAC par Stephen Balkam, directeur
      2. Durant l'automne 1995, nous avons créé le RSACi Working Party pour appliquer le processus de sélection des boîtes de jeux au Cyberespace avec la participation de Microsoft, Bell Atlantic, Time Warner, du MIT, de l'université de Stanford et de l'université George Washington. Nous avons décidé que le système serait entièrement basé sur le Web sans utilisation de formulaire papier. Il était entendu que le système serait à la libre disposition des fournisseurs de contenus et des utilisateurs (parents, enseignants, etc.) et qu'il incorporerait un élément de granularité permettant au fournisseur de contenu de classifier son site Web avec une étiquette unique ou sur la base de branches variées, de répertoires, voire de pages individuelles. De cette façon, Playboy pourrait classifier différemment une interview de Jimmy Carter et la playmate du mois.

        Contrairement à la classification des jeux, RSACi fut voulu comme étant un service gratuit. Le Working Party voulait qu'il y ait le moins de contraintes possibles au volontariat, et le coût en était un important. […] Le groupe opta pour se faire financer par des partenaires (société partenaire pour 100.000 dollars, société sponsor pour 50.000 et société donatrice pour 10.000) et par la vente du droit d'utiliser le système pour une application particulière dans un produit.

        Pour leur soutien, les sociétés se voyaient médiatisées, un lien était mis en place de la page d'accueil du RSACi vers leur site Web, une place était offerte dans le nouveau conseil consultatif de sponsoring du RSACi. […]

        A la mi-avril, tout était en place. Le soutien de la part de Microsoft, de l'association des auteurs de logiciels et de Dell Computers fut rendu publique, ils allaient bientôt être rejoints par CompuServe, US Web et UltraNet […]. Le vocabulaire RSACi a été incorporé dans le navigateur Internet Explorer 3.0 de Microsoft et dans Cyber Patrol, le dispositif de filtrage leader. Netscape a annoncé publiquement qu'il incorporerait PICS dans une version ultérieure de son navigateur, sans plus de précision.

        Comme pour les jeux, le RSACi met en place un certain nombre de vérifications pour s'assurer que le vocabulaire est utilisé correctement. Chaque site classifié est vérifié pour contrôler que les étiquettes sont correctement placées dans l'entête du site. De plus, une sélection aléatoire de sites est choisie chaque jour pour s'assurer que les étiquettes sont conformes aux contenus des sites. Un robot est en cours de mise au point pour contrôler que chaque étiquette RSACi du Web est conforme à la base de données du RSACi. Il y a aussi une proposition pour ajouter une signature électronique garantissant la sécurité et la fiabilité des étiquettes.

        En outre, la tricherie est découragée par la signature d'un contrat lors de l'entrée dans le système RSACi. Elle intervient dès le début du processus et met en garde le fournisseur de contenu qu'il ne peut délibérément détourner le système. En fin de compte, nous dépendons des citoyens du réseau pour être alerté lorsqu'ils détectent un site qui semble être mal étiqueté. A ce jour, seuls trois sites ont fait l'objet d'une alerte. Deux avaient mal compris le processus, le troisième a décidé de quitter le système

        Ce vocabulaire, qui fut d'abord une réponse à la menace de législation américaine, est accessoirement devenu un point important dans les discussions concernant les contenus de l'Internet au niveau mondial. Notre vocabulaire est largement utilisé en Europe (près de 1.000 sites classifiés uniquement en Grande Bretagne), en Extrême Orient et en Australie. Les gouvernements hésitent à décider s'il faut s'orienter vers un projet de législation ou s'il faut encourager, voire imposer, l'auto régulation par les professionnels de l'Internet.

        En Grande Bretagne, les associations de fournisseurs de services Internet ont poussé PICS et ont demandé à tous les utilisateurs de se classifier à l'aide de RSACi avant la fin de l'année. Au sein de l'Union Européenne, la commission chargée des problèmes de télécommunication, la DGXIII, a mis en avant la notion d'auto régulation et a recommandé RSACi (avec quelques réserves) dans son rapport officiel.

        Peter Webb, président de l'autorité audiovisuelle australienne, a récemment mis en avant PICS et RSACi dans une communication publique à Sydney. Un certain intérêt se développe également en Norvège, au Canada, en Espagne, à Singapour et en Chine.

        Nous sommes actuellement en pourparlers avec de nombreux ISPs de certains pays cités plus haut, pour mettre en place des sites miroirs du RSAC dans leur pays de façon à améliorer l'accès des utilisateurs locaux. Le vocabulaire lui-même devrait être localisé pour s'assurer que les termes et les critères sont traduits fidèlement tout en respectant la logique des échelles de mesure. L'Internet est un phénomène international, bien qu'ayant un fort accent américain. Chaque solution d'auto régulation aura à prendre en compte les intérêts et les soucis d'un grand nombre de pays et de cultures.

      3. Vocabulaire RSACi

       

       

      Critère de violence

      Critère de nudité

      Critère de sexualité

      Critère de langage

      0

      Aucun des cas suivants ou contexte sportif

      Aucun des cas suivants

      Aucun des cas suivants ou baiser innocent ou romantique

      Aucun des cas suivants

      1

      Blessure à un être humain

      Vêtement décolleté

      Baiser passionné

      Juron léger

      2

      Destruction d'objet réaliste

      Nudité partielle

      Attouchement sexuel

      Juron modéré ou profanation

      3

      Violence agressive ou mort d'humain

      Nudité frontale

      Acte sexuel non explicite

      Langage dur ou discours haineux

      4

      Viol ou licence, violence

      Nudité frontale obscène

      Acte sexuel explicite ou crime sexuel

      Grossièreté, langage vulgaire ou discours extrêmement haineux

      RSAC indique avoir classifié 40.000 sites Web à cette date parmi lesquels Playboy, CompuServe et Cnet.

      Plus d'informations

      Organisme http://www.rsac.org
      Fichier de critères http://www.classify.org/rsaci/Rsaci.rat
      Contact presse Pat Arcand ou Carolyn Wilkins, Copithorne & Bellows

    3. SafeSurf
      1. Présentation de SafeSurf
      2. Les Webmasters peuvent auto-étiqueter leur site grâce à un questionnaire en ligne. SafeSurf a également employé des volontaires pour étiqueter les sites. Ces deux méthodes ont permis de constituer une base de 60 000 sites étiquetés.

        SafeSurf vit grâce à des dons provenant d'organisations de parents et par la vente de produits de filtrage et de leur expertise à des écoles, des bibliothèques, des fournisseurs d'accès ou des entreprises.

      3. Le vocabulaire de SafeSurf

      SafeSurf présente son système de classification en insistant sur le fait qu'il n'est pas destiné à dire si un thème est bien ou mal traité, ni si l'idée développée est positive ou négative. Le nombre de critères est important, ainsi que les valeurs possibles pour chaque critère. Il s'agit d'une classification objective. SafeSurf espère fournir là un système qui permet l'auto classification et la classification par tierce partie tout en tenant compte de la liberté d'expression due aux parents (Premier Amendement de la Constitution américaine) et de l'innocence des enfants. SafeSurf permet que des contenus traitant le même thème, mais sous des aspects différents, par exemple artistique et pornographique, ne soient pas assimilés et que les buts recherchés se lisent dans les valeurs utilisées pour classifier le contenu.

      Recommandations et exemples

      Lorsque les niveaux 1 et 2 des critères servent à identifier un thème pour adultes, ces niveaux indiquent que la présentation du thème est faite de la façon la plus légère possible ou suggère plus que l'évidence présentée. Par exemple, la nudité pour être suggérée par une silhouette ou par des formes au travers des vêtements.

      Le niveau 3 est réservé à des services d'information pure, telle qu'une base de données de référence, un dictionnaire, une information de CNN ou un site de sensibilisation au Sida. Par exemple, les sites publiant des informations de référence sur l'homosexualité, en traitant de l'aspect psychologique peuvent être classifiés au niveau 3.

      Les contenus plus particulièrement destinés aux adultes commencent au niveau 4. Les niveaux 4 et 5 sont prévus pour des présentations artistiques des thèmes pour adultes. Une photo artistique de Playboy représentant un modèle féminin aux seins nus sera classée 5 ; 6 si la personne est nue de face. Pour le niveau 7, la valeur artistique est faible ou inexistante. Ce niveau concerne les contenus destinés à inciter à la lubricité. Les actes sexuels entre adultes présentés à distance raisonnable telle que la pénétration n'est pas visible relèvent du niveau 7. Les niveaux 8 et 9 sont pour les sites qui peuvent amener l'utilisateur à une participation simulée par des images suggestives ou de contact sexuel en gros plan ou bien des connexions " live ".

      Plus d'informations

      Organisme http://www.safesurf.com
      Description du service (.rat) http://www.classify.org/safesurf/SafeSurf.rat
      Information mailto:safesurf@safesurf.com

    4. Vancouver Web Pages
      1. Site expérimental
      2. Ce site propose, dans sa version 1.0, un service de classification expérimental basé sur PICS. Chaque auteur peut classer lui-même ses contenus. L'administration de Vancouver Web Pages indique ne pas pouvoir garantir la validité des étiquettes délivrées ou établies selon le système proposé.

        Le service permet d'indiquer les valeurs qui doivent être incorporées dans l'étiquettes puis fournit l'étiquette à inclure dans la page Web.

        Certaines valeurs de critères sont négatives pour indiquer des aspects positifs tandis que les valeurs positives sont considérées comme des " vices " selon les propres termes de l'organisme. Le générateur d'étiquettes positionne les valeurs par défaut à zéro.

      3. Le vocabulaire de Vancouver Web Pages

    Plus d'informations

    Organisme http://vancouver-webpages.com/
    Description du service (.rat) http://vancouver-webpages.com/VWP1.0/

  2. Les services d'étiquetage tiers : les bureaux d'étiquettes
  3. Dans ce type de fonctionnement, les étiquettes PICS ne sont pas comprises dans les contenus eux-mêmes. Les étiquettes sont stockées dans un bureau d'étiquettes. Lorsqu'un contenu est accédé par un utilisateur, le logiciel de filtrage interroge un serveur propre au service et lui communique l'URL de la ressource accédée. Le serveur renvoie alors, s'il la possède, l'étiquette PICS correspondante. Bien entendu, cette étiquette n'est valable que pour le service considéré, elle peut coexister avec d'autres étiquettes PICS incorporées dans le contenu lui-même. Actuellement les différents bureaux sont mono-service mais un bureau hébergeant plusieurs services est possible.

    1. EvaluWeb
    2. Service expérimental gratuit. Les étiquettes sont générées à l'aide de l'intelligence artificielle en analysant le contenu des documents. Le vocabulaire retenu a un seul critère avec trois valeurs : Général, Présence des parents recommandée et Pour les adultes.

      Plus d'informations

      Organisme http://www.sserv.com/evaluweb/pics.html

    3. Microsystems Software

Microsystems qui diffuse le logiciel de filtrage Cyber Patrol a commencé par utiliser les listes CyberNOT et CyberYES sous la forme de fichiers locaux. Aujourd'hui, Microsystems met en place un serveur PICS pour diffuser les informations CyberNOT dans des étiquettes standard.

Étant donné que la liste CyberNOT est mise au point par un comité et non pas sur la base de l'auto classification, les étiquettes ne sont pas incorporées dans les contenus. Les étiquettes sont conservées sur le serveur spécifique pics.microsys.com.

La liste CyberNOT constitue le cœur du service de classification tiers CyberNOT. Le service fournit les informations de classification en deux catégories sexe et autres.

Le service PICS retourne une étiquette contenant une valeur comprise entre 0 et 8 pour chaque catégorie. Pour la catégorie sexe, 0 indique que le contenu n'est pas classifié comme sexuel., une valeur de 2 indique que le contenu relève d'un des 4 critères, une valeur de 4 de deux critères, 6 pour trois critères et 8 pour les quatre en même temps.

Pour la catégorie autres, la valeur correspond au nombre de critères dont relève le contenu.

La liste CyberNOT est mise au point par une équipe de parents et d'enseignants chez Microsystems. La liste est mise à jour chaque semaine. Microsystems encourage les parents à faire lui part des sites qui pourraient être ajoutés à CyberNOT. En janvier 96, la liste comportait 5000 sites classifiés.

Plus d'informations

Organisme http://www.microsys.com
Description du service (.rat) ftp://ftp.microsys.com/pics/msiratng.rat

    1. NetShepherd
    2. Compagnie basée à Calligari au Canada très active et dynamique sur PICS pour la création d'un bureau le plus riche possible. Début 97 elle a engagé plus de 300 utilisateurs du Net pour constituer une base qui atteint aujourd'hui 380.000 étiquettes, le vocabulaire (CRS) utilisé comprend deux critères : l'âge et la qualité (une à cinq étoiles). NetShepherd vend un logiciel client qui s'ajoute au navigateur, il permet de choisir les contenus auxquels on accède et d'enrichir la base en donnant un avis sur un contenu. Le bureau de NetShepherd a astucieusement été couplé au moteur d'Alta Vista de sorte que les résultats issus d'une recherche soient classés en fonction de critères d'âge et de qualité définis par l'utilisateur. Cette démonstration est disponible en ligne.

      NetShepherd a annoncé le 10 septembre une alliance avec LookSmart afin de combiner leurs deux bases et créer le service "LookSmart Label Bureau". Il sera commercialisé par LookSmart, NetShepherd assurera la partie technique. LookSmart a classé 12.500 sites répartis en catégories selon leur qualité.

      Plus d'informations

      Organisme http://www.netshepherd.com

    3. ORC Dayton

Service PICS expérimental développé par des bibliothécaires, il se réfère à la législation de l'Etat de l'Ohio. Le vocabulaire retenu ORC (Objective Ratings Criteria) est le plus simple possible avec un critère binaire : pour les adultes ou non. Le bureau réalisé avec le serveur ICSS contient 5.000 sites, liste établie en fonction des déclarations trouvées sur les sites.

Plus d'informations

http://PICS.DAYTON.LIB.OH.US/PICS/ORC.HTML

  1. Logiciels clients et serveurs
  2. Les produits présentés dans ce document ne sont en aucun cas sélectionnés sur la base d'une supériorité quelconque. Les auteurs n'émettent aucune opinion sur leur valeur technique et n'en recommandent aucun. Les caractéristiques qui sont présentées peuvent être fausses, incomplètes ou obsolètes, il ne s'agit que d'exemples choisis à titre d'illustration.

    1. Logiciels clients

Les logiciels de sélection clients peuvent être situés à deux endroits :

  1. Dans le navigateur lui-même, c'est le cas d'Internet Explorer 3 ou 4. Il n'est plus nécessaire d'avoir de logiciel séparé pour traiter les étiquettes PICS. Cependant Internet Explorer n'offre pas toutes les possibilités d'une logiciel comme Cyber Patrol.
  2. Dans une application séparée du navigateur. L'application s'interpose entre le réseau et le navigateur. L'exemple le plus connu est Cyber Patrol.

Le logiciel de sélection peut prendre sa décision par différentes méthodes, quelquefois utilisées conjointement :

      1. Cyber Patrol de Microsystems Software Inc.

Microsystems Software s'est beaucoup intéressé aux différents aspects de l'utilisation de l'Internet à la maison, à l'école, dans l'entreprise, etc. Cyber Patrol est un logiciel de filtrage majeur dans son domaine.

Il est aujourd'hui compatible avec l'encodage PICS, mais s'appuie également sur deux listes complémentaires : CyberYES et CyberNOT. La première liste permet de récupérer des URLs vérifiées et réputées sans danger particulier, voire présentant un intérêt spécifiquement éducatif. La deuxième liste contient des sites repérés comme ne convenant pas à un public non adulte.

Les listes CyberYES et CyberNOT ne relèvent pas du système PICS, il est important de comprendre que Cyber Patrol est un logiciel qui gère l'accès d'une part avec PICS (les étiquettes PICS sont donc reconnues et utilisables), d'autre part sur la base de listes disjointes, n'ayant aucun rapport avec les étiquettes PICS.

Il existe des version de Cyber Patrol pour un usage sur le poste final (client) ou sur un serveur proxy. A cette date, Microsystems annonce une version pour un serveur Microsoft et une autre pour un serveur Netscape.

Le logiciel permet de contrôler les pages Web, les adresses FTP et IRC et les groupes de discussion de Usenet.

Cyber Patrol comporte des options de contrôle originales, par exemple :

Liste de blocage CyberNOT

La liste CyberNOT est utilisée par Cyber Patrol pour bloquer certains sites considérés comme inappropriés à un public mineur. Les parents sont libres de tenir compte ou non de cette liste, le logiciel de filtrage peut fonctionner uniquement sur la base des étiquettes PICS incorporées dans les contenus accédés.

CyberNOT est divisée en catégories et l'accès à un site peut être géré au niveau des répertoires ou des pages individuelles. Ainsi des pages peuvent être autorisées alors que d'autres contenus sur le même site sont répertoriés comme étant bloqués.

Les tuteurs (parents, enseignants, etc.) peuvent interdire une partie de la liste ou sa totalité, sur la base de créneaux horaires.

En juillet 1997, les critères évalués comprennent :

Le tuteur peut sélectionner une ou plusieurs catégories à bloquer, il peut également autoriser un site de la liste et ajouter des sites interdits supplémentaires. Il dispose d'une possibilité d'action sur les principaux services en lignes et sur certaines applications telles que les jeux.

Liste d'autorisation CyberYES

La liste CyberYES est le pendant de la liste CyberNOT. Les ressources indiquées dans cette liste ont été revues et sur la base de critères donnés sont considérées comme appropriées à un public jeune. CyberYES est utilisée par le logiciel de sélection Cyber Patrol et est également la base du site " Route 6-16 ", un site spécialement construit pour les enfants.

En juillet 1997, les catégories évaluées sont :

Fonctionnement

Cyber Patrol est disponible pour Windows, Windows 95, Mac et les serveurs proxy de Netscape et Microsoft.

Plus d'informations

Organisme http://www.cyberpatrol.com/
http://www.microsys.com/pics/pics_msi.htm
Description du service (.rat) http://www.classify.org/cybernot/msiratng.rat
CyberNOT mailto:debrag@microsys.com
Infos mailto:cyberinf@microsys.com
En France http://www.cti.fr

      1. Internet Explorer

Internet Explorer incorpore depuis sa version 3 la prise en charge des étiquettes PICS. Les fichiers de description (*.rat) sont placés dans le répertoire windows\system. Internet Explorer permet de définir les paramètres de contrôle dans le menu Options – Sécurité. Le superviseur (celui qui décide des niveaux de contrôle) possède un mot de passe qui empêche les autres utilisateurs de modifier les choix qu'il a opéré.

Une fenêtre permet de visualiser les différents systèmes de filtrage utilisables (ceux ayant leur fichier *.rat en place). Pour chaque système, la liste des critères est affichée. En cliquant sur un critère, il est possible de régler le niveau de tolérance pour ce critère à l'aide d'un curseur. Lorsque le curseur est déplacé, un libellé indique en clair la signification du réglage. En fait, le texte qui apparaît est celui du fichier *.rat.

Un bouton permet d'accéder au site Web du fournisseur du système de classification pour avoir plus d'informations ou pour pouvoir récupérer un fichier *.rat plus récent. Il est possible d'activer plusieurs systèmes de classification basés sur PICS en même temps pour augmenter le nombre de contrôles effectués sur chaque page.

Le superviseur a la possibilité de bloquer ou d'autoriser les pages qui ne sont pas étiquetées.

Une autre option permet de demander qu'une fenêtre spéciale s'affiche pour les pages refusées. Cette fenêtre permet de saisir le mot de passe du superviseur pour outrepasser les critères définis et forcer l'affichage de la page. Cela est utile lorsque que le superviseur accompagne l'enfant et qu'il peut lui fournir des explications supplémentaires à propos du contenu normalement refusé.

Étant donné qu'Internet Explorer fonctionne sous Windows 95, les possesseurs de cette plate-forme ont la possibilité de définir des profils d'utilisateurs personnels, y compris des niveaux de sécurité différents pour le filtrage PICS.

Internet Explorer est livré d'origine avec un fichier *.rat pour le RSACi, en français..

Plus d'informations

Page d'Internet Explorer http://www.microsoft.com/ie/
Utilisation de RSACi dans IE http://www.rsac/com/explorer.html

    1. Logiciels serveurs
      1. Jigsaw du W3C
      2. Serveur entièrement écrit en java (en version 1.0 bêta 1 au 1ier septembre), dont les sources sont gratuitement mises à disposition des développeurs du Web. Il sert de prototype de démonstration pour les nouveaux protocoles. Comme serveur il sait diffuser les étiquettes dans l'entête HTTP, comme bureau il peut être interfacé à une base de données SQL - pour stocker les étiquettes, car il intègre JDBC (Java DataBase Connectivity : API en java pour l'accès aux bases de données). Voir également le code source développé dans le cadre de Xlabel).

        Plus d'informations

        Jigsaw sur le W3C http://www.w3.org/Jigsaw/

      3. ICSS
      4. Internet Connection Secure Server, version 4.2, serveur commercial d'IBM, sous Unix ou NT, supportant PICS dans les entêtes HTTP ou comme bureau d'étiquettes.

      5. Javelin
      6. Proxy d'IBM sous NT, encore en version bêta, il intègre PICS dans la gestion du cache. Il supporte aussi PICSrules, spécification dont l'éditeur est d'IBM.

        Plus d'informations

        Serveur et proxy d'IBM http://www.ics.raleigh.ibm.com/ics/

      7. InterGo

Serveur proxy appelé WEBsweeper.

Plus d'informations

Serveur http://www.mimesweeper.integralis.com/Web_Security/Undesirable.htm

  1. Projets autour de PICS
    1. Projets issus du W3C
      1. Mini projet Xlabel
      2. Autour de Jigsaw, le W3C a réalisé un projet portant sur trois points voisins : définir des méthodes pour soumettre des étiquettes PICS à un bureau; un langage pour interroger le bureau en fonction de cotes ou de certaines options des étiquettes et un développement en java avec Jigsaw et une base SQL.

        Plus d'informations

        Xlabel sur le W3C http://www.w3.org/PICS/refcode/Bureau/index.htm

      3. DSig
      4. "Digital Signature" dont l'objectif est de définir un format standard pour pouvoir exprimer une assertion sur une ressource informatique donnée tout en signant numériquement cette affirmation. Grâce à ce mécanisme on peut avoir confiance dans le programme chargé sur le réseau : applet, plug-ins; connaître l'auteur d'une œuvre. DSig utilise et étend les étiquettes PICS 1.1 pour contenir les signatures numériques. Voir le document "DSig 1.0 Signature Labels" qui est un document de travail.

        Plus d'informations

        Projet DSig http://www.w3.org/Security/DSig/Overview.html

      5. P3

"Platform for Privacy Preferences" l'objectif de ce projet est de permettre deux choses :

P3 se charge de définir un vocabulaire, des règles d'encodage et les protocoles nécessaires aux logiciels clients et serveurs pour transporter et négocier ces préférences qui serviront notamment à personnaliser l'accès des utilisateurs. P3 pourrait utiliser PICS pour exprimer les préférences des utilisateurs. P3 devrait se terminer en avril 98.

Plus d'informations

Projet P3 http://www.w3.org/Privacy

      1. WAI

WAI pour "Web Accessibility Initiative" a pour objectif d'améliorer les technologies du Web pour que les personnes handicapées y accèdent plus facilement. Des vocabulaires spécifiques à divers handicaps pourraient être définis afin d'améliorer la sélection des contenus.

Plus d'informations

Projet WAI http://www.w3.org/WAI

    1. Projets hors W3C
      1. Application Incubator

Organisé par Paul Resnick: co-président du groupe de travail pendant deux ans et à présent responsable du PICS Interest Group. Il travaille à l'université du Michigan, l'idée est de favoriser l'émergence de nouvelles applications utilisant les étiquettes, actions en cours :

Plus d'informations

Application Incubator http://www.si.umich.edu/~presnick/PICS-incubator/

  1. Et l'avenir ?
    1. Sélection positive
    2. PICS offre le moyen de sélectionner les informations souhaitées, en bloquant les informations non désirées. D'autres approches basées sur une sélection dite "positive", proposent des listes de sites intéressants pour les enfants, afin de faciliter leur découverte et utilisation de l'Internet. Détaillons trois initiatives américaines qui vont dans ce sens.

      1. Guide du Cyberespace

A l'usage des parents et des enfants, réalisé par l'American Library Association (ALA).

Les bibliothécaires sont de longue date, des experts pour ce qui est d'organiser et de classer l'information et ainsi la rendre facile à trouver et utiliser. Aujourd'hui ils appliquent leur expérience au Cyberespace avec pour objectif d'aider enfants et parents à s'y retrouver et tirer le meilleur de ce nouveau média, que ce soit pour apprendre ou s'amuser.

Le site "The Librarian's Guide To Cyberspace For Parents & Kids" contient des conseils pour les parents et une liste de plus de cinquante sites compilés par des bibliothécaires connaissant bien l'Internet et ses possibilités, sites sélectionnés sur les critères suivants, qui prennent en compte aussi bien la qualité du contenu, que la présentation :

"Ce n'est pas la technologie mais la manière dont elle est utilisée qui fait la différence."

Plus d'informations :

Le site du Guide http://www.ssdesign.com/parentspage/greatsites/guide.html

      1. Route 6 - 16
      2. Site spécialement conçu pour les enfants, réalisé par Microsystems, développeur du logiciel Cyber Patrol dont nous avons déjà parlé au paragraphe 2.4.1. Il contient plus de 3000 liens.

        Les critères pris en compte sont la capacité du contenu à motiver, stimuler, éduquer ou distraire un public de 6 à 16 ans. La liste est établie par un comité de chercheurs qui sont parents ou enseignants d'enfants en âge d'aller à l'école. Les sites sont contrôlés tous les 60 jours pour vérifier qu'ils sont toujours conformes aux standards de Microsystems Software. Les sites purement commerciaux sont exclus de cette liste.

        Plus d'informations :

        Le site "Route 6-16" http://www.microsys.com/616/default.htm

      3. Yahooligans!

Le nom s'inspire de celui du célèbre moteur de recherche Yahoo. Le site est un index de l'Internet navigable par catégories et interrogeable au travers de mot ou groupes de mots pour des surfers âgés de 7 à 12 ans.

Le contenu de la base provient de deux sources : les suggestions des utilisateurs et les informations recueillies par un robot de recherche automatique. Les utilisateurs sont invités à signaler tout site qui d'après eux ne devrait pas figurer dans Yahooligans!.

Plus d'informations :

Yahooligans! http://www.yahooligans.com

    1. PICS le précurseur - RDF le successeur
    2. Le Web initialement conçu pour la communication humaine, manque de mécanismes lui permettant de se décrire efficacement vis à vis des machines ("machine-undertandable information" en anglais). Cette description des ressources disponibles s'appelle l'information sur l'information - le terme de "metadata" est aussi utilisé - elle sert à de nombreuses applications qui cataloguent les ressources, décrivent des connaissances ou expriment des relations entre des contenus. Les exemples sur le Web sont nombreux : moteurs de recherche, bibliothèques numériques, agents intelligents, cartographie des sites. Malheureusement aucune méthode universellement adoptée n'existe. Mentionnons l'utilisation fréquente de la balise <META> dans les pages HTML pour ajouter des attributs du type (nom, valeur du contenu) aux pages : auteur, mots clefs, etc. Exemple :

      <META NAME="Auteur" CONTENT="Pierre Durant">

      PICS qui associe des étiquettes à des contenus sur le Web paraît être un bon candidat pour stocker les metadata, cependant il souffre de limitations qui le rende impropre à cette tâche. Il ne permet ni d'exprimer des structures multiples, ni d'intégrer des chaînes de caractères dans la partie cote. Il est donc nécessaire de l'étendre pour développer un nouveau format, plus riche mais préservant les propriétés importantes de PICS à savoir les trois modes de diffusion des étiquettes et l'absence d'enregistrement centralisé des vocabulaires.

      Le nouveau format s'appelle RDF pour Resource Description Framework, il est développé au sein du W3C et s'inspire de propositions techniques antérieures : une soumise par Microsoft intitulée "Web Collections using XML", et l'autre par Netscape "Meta Content Framework Using XML". Un avant projet produit par le groupe de travail "RDF modèle et syntaxe" a été rendu public début octobre. RDF définit une infrastructure commune pour la représentation et l'échange des metadata, autorisant du même coup l'interopérabilité entre les diverses applications du Web qui les utilisent. RDF est basé sur XML comme syntaxe de transfert, afin de bénéficier des développements déjà réalisés autour de ce format.

      Lien entre PICS et RDF : la charte de naissance de RDF mentionne premièrement l'obligation de pouvoir exprimer au moyen de RDF tout ce qu'une étiquette PICS-1.1 peut exprimer et deuxièmement la possibilité de traduire automatiquement les étiquettes PICS-1.1 au format RDF et ce sans aucune perte d'informations.

      PICS reste une norme soutenue par le W3C mais toute évolution technique du format devra se faire en utilisant RDF. Le PICS Interest Group décidera du moment de la transition.

      Avec les metadata en place, il sera possible de laisser à des agents intelligents les tâches bureaucratiques et commerciales de base (inférence à partir des données sur les données, validation de preuve de crédibilité, négociation des accès, respect de la vie privé, etc.), et de laisser aux humains le côté intuitif et créatif.

      Plus d'informations :

      http://www.w3.org/Metadata/

    3. Faciliter l'accès à la connaissance

Prévoir l'utilisation exacte qui sera fait de cette nouvelle technologie est délicat. L'usage qui s'impose n'est pas toujours celui qui était initialement attendu. Retenons que ce format offre à tout un ensemble d'applications une description compréhensible des ressources de l'Internet.

En premier, les moteurs de recherche, bénéficieront d'un catalogue d'informations à exploiter, ils pourront aller au delà de la simple recherche à partir de mots, souvent imprécise et frustrante pour nous donner un accès rapide à l'information recherchée. En effet les mots ne seront plus perçus comme isolés mais dans un certain contexte qui précise leur signification.

Le plus prometteur est peut être l'utilisation qui en sera faite dans les bibliothèques numériques. Faisons confiance aux bibliothécaires, ces gardiens de la mémoire de l'avenir pour imaginer un nouvel accès à la connaissance et nous aider à nous y retrouver dans le dédale d'informations.

  1. Références

Documents de référence sur PICS

PICS http://www.w3.org/pub/WWW/PICS

Organismes, sociétés en relation avec le contrôle parental

W3C http://www.w3.org
RSAC http://www.rsac.org/
SafeSurf http://www.safesurf.com/
National Council for
Educational Technology http://www.ncet.org.uk/gen-sheets/parents/
Center for Democracy
and Technology http://www.cdt.org/
IHPEG http://www.prognet.com/contentp/rabest/IHPEG.html
Pearl Software http://www.pond.com/~pearlsft/whitep.htm
X-Stop http://www.xstop.com/memo.pdf,
http://www.xstop.com/wp2xstop.pdf
Observatoire des Usages
et technologies de l'Internet http;//www.oui.net/

Barèmes de classification

RSACi http://www.rsac.org/ratingsv01.html

Logiciels clients

Cyber Patrol http://www.cyberpatrol.com/
Cyber Patrol Corporate http://www.microsys.com/cyber/default.htm
Cyber Patrol Proxy http://www.microsys.com/proxy/default.htm
CyberSitter http://www.pow-dist.co.uk/solidoak/cyber.html
Cyber Snoop http://www.pond.com/~pearlsft/snoop.htm
DaxHOUND http://www.shepherd.net/
I-Guard http://www.urlabs.com/
Net Nanny http://www.netnanny.com/
SafeSurf http://www.safesurf.com/filter/
SurfWatch http://www.surfwatch.com/
Triple Exposure http://www.ips-corp.com/
X-STOP http://www.xstop.com/

Logiciels de classification

IBM ICS http://www.ics.raleigh.ibm.com/
Jigsaw http://www.w3.org/pub/WWW/Jigsaw/

Serveurs d'étiquettes

EvaluWeb http://www.sserv.com/evaluweb/pics.html
NetShepherd http://www.netshepherd.com
Microsystems Software http://pics.microsys.com
NewView http://www.newview.com
Source Pacific http://www.source.com.au/tools/webmaster

Personnes en relation avec l'information sur la classification des sites

Stephen Balkam, RSAC
Tim Berners-Lee, W3C
Kevin Fink, N2H2 Corporation mailto:kevin@n2h2.com
Andrew Gray, CompuServe
Martin Haeberli, Netscape
Jim Miller, PICS
Martin Presler-Marshall, IBM mailto:martinm@raleigh.ibm.com
Paul Resnick, PICS mailto:presnick@research.att.com
Bob Schloss, IBM
Bernd Schiphorst, AOL
Bernard Vergnes, Microsoft

Réflexion sur la régulation de l'Internet

Allemagne http://www.nlip.nl
Australie http://www.senate.aph.gov.au/committee/comstand/online/index.htm Belgique http://www.a-1.be/en/ispa.html
http://www.info.fundp.ac.be/~dza/mapi-fr.html
Etats-Unis http://www.itaa.org/intrpt01.htm
Europe http://europa.eu.int/comm/sg/daphne/daphneen.htm
France http://www.telecom.gouv.fr/francais/activ/techno/missionint.htm
Grande Bretagne http://www.ispa.org.uk
Japon http://www.nmda.or.jp/enc/index-english.html
Suisse http://www.admin.ch/ejpd/d/bj/internet/inemarbf.htm