Deux décisions de justice récentes ont mis en relief toute l’importance et le caractère problématique de la qualification de l’acte de publication d’un flux RSS ou « digg-like » ou d’un agrégat de flux RSS. Est-ce un acte d’hébergement ou d’édition ? S’il s’agit d’un acte d’hébergement, l’article 6 § 1 de la Loi pour la Confiance dans l’Économie Numérique (LCEN) ((Loi nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) (JO 2004 du 22 juin 2004 : http://www.legifrance.gouv.fr/texteconsolide/PCEBX.htm))) exonère l’auteur de la publication de responsabilité, à moins qu’il ait eu connaissance du caractère manifestement illicite de l’information diffusée. En revanche, s’il s’agit d’une activité d’édition, l’auteur de la publication est pleinement responsable même s’il n’avait pas connaissance de l’illicéité de l’information relayée par le flux.
Article publié à l’origine sur Intlex.org, puis recopié sur Valhalla.fr à la fermeture du site.
I. Nature technique et fonctionnement des flux RSS et « digg-like »
Contrairement à ce qui se dit parfois, les flux RSS (Really Simple Syndication) et les flux « digg-like » ne sont pas, en principe, des flux d’informations au sens strict. Ce sont des flux de références ou de liens hypertexte vers des informations. Sur une page Web, ils se matérialisent par une série de titres d’articles provenant de sites tiers, accompagnés de liens hypertexte vers ces sites. Les titres sont « empilés » du plus récent au plus ancien. Si l’on parle de « flux », c’est parce que la liste des titres est mise à jour en temps réel : un nouveau titre viendra se placer en haut de la liste, faisant descendre tous les autres titres.
Lorsqu’il se trouvent dans un flux RSS, ces titres proviennent des différents sites qui les diffusent grâce à des fichiers placés sur leurs serveurs et fréquemment mis à jour. Pour afficher un flux RSS sur une page Web, il suffit de récupérer à intervalle régulier le fichier contenant les titres à partir de n’importe quel site qui propose cette fonction ((Sur le site du Monde Diplomatique (http://www.monde-diplomatique.fr/recents), on peut lire : « Webmestres : ajoutez directement, sur votre propre site, ce petit fil d’informations, fait de liens hypertextes vers les articles récemment publiés sur le site Internet du “ Monde diplomatique ” ».)). On dira alors qu’on est « abonné » au flux RSS de ce site. A partir de ce moment, comme pour tout abonnement, le contenu du flux sera envoyé automatiquement, sans démarche active de son destinataire.
La technologie RSS permet également de réaliser une agrégation des flux. Il est possible de regrouper des titres provenant de plusieurs flux et de créer ainsi un nouveau flux. Cependant, il est en principe impossible de choisir au sein d’un même flux quels titres seront repris et quels autres titres seront rejetés. Un tel tri nécessiterait la mise en place d’une solution de filtrage basée sur des mots-clés qui n’est pas prévue originairement par la technologie RSS. En d’autres termes, lorsqu’on s’abonne à un flux, on accepte en bloc son contenu présent et à venir.
Les sites « digg-like » sont basés sur un système inventé par le site américain Digg. Ce sont des sites « communautaires » : c’est la communauté des internautes qui définit le contenu du site en lui ajoutant des liens vers des articles publiés sur d’autres sites, puis en notant et en commentant ces articles. Le système « digg-like » est structurellement différent de l’agrégation de flux RSS sur deux points importants. En effet, d’une part, les informations véhiculées dans un flux RSS sont directement affichées sur les sites qui sont abonnés au flux, sans qu’il soit possible de les contrôler a priori, alors que les sites « digg-like » supposent un ajout manuel des articles par les internautes, ce qui permet de placer chaque nouvel article dans une « file d’attente » et d’en contrôler le contenu avant d’en autoriser la diffusion. D’autre part, la suppression d’un article sur un site « digg-like » n’affecte pas les autres articles, alors qu’il est en principe impossible pour l’abonné d’un flux RSS de supprimer un article sans retirer le flux entier.
Les flux RSS et les flux « digg-like » véhiculent d’autres informations que les titres des articles : parfois un court résumé du contenu de l’article, toujours la référence vers cet article sous forme d’adresse Web (URL). Cependant, dans des cas qui restent exceptionnels, le contenu de l’article est diffusé dans le flux.
Pour résumer, les points suivants sont particulièrement importants dans le cadre de l’analyse de la nature juridique des flux RSS et « digg-like » :
- en principe, les flux RSS et « digg-like » ne véhiculent pas une information mais une référence (un lien) permettant d’accéder à l’information ;
- les flux RSS et « digg-like » sont mis à jour en temps réel ;
- la technologie RSS ne prévoie pas de filtrage des références envoyées par un flux, mais il est possible de contrôler a priori le contenu des articles soumis aux sites « digg-like » ;
il est possible d’agréger des flux RSS et « digg-like » existants pour créer un nouveau flux qui regroupe toutes les références diffusées par les flux agrégés.
II. Éditeur et hébergeur : des qualifications différentes
1. Hébergeurs
La définition de l’activité d’hébergement de contenu électronique se trouve à l’article 6 de la LCEN. Il s’agit de l’activité exercée par
« Les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services (...) »
Deux éléments sont particulièrement importants en ce qui concerne les flux RSS et « digg-like ».
1) L’activité d’hébergement est une activité de stockage et non de traitement ou d’exploitation des données. Autrement dit, l’hébergeur se borne à offrir un support pour la conservation des données ; il ne les manipule pas lui-même et il ne les diffuse pas pour son compte. Or, l’agrégation de différents flux RSS et « digg-like » dans le but de constituer un flux unique reprenant l’ensemble des titres des flux agrégés pourrait être considérée comme un traitement des données. Si, par ailleurs, les flux sont diffusés sur le Web par le site qui les agrège et pour son propre compte (notamment pour attirer plus de visiteurs et augmenter ses revenus grâce à de la publicité), il y a bien une exploitation des données. Toujours est-il qu’il n’y a pas de stockage de l’information stricto sensu. En effet, comme il a été expliqué plus haut, les flux RSS et « digg-like » ne véhiculent pas l’information elle-même, sauf exception, mais une référence vers cette information sous la forme d’un titre, d’un court descriptif et d’une adresse URL.
2) Un hébergeur stocke les données fournies par le destinataire de l’hébergement. Cette disposition vise clairement les prestataires techniques qui mettent à disposition un espace de stockage en ligne pour que leurs clients hébergent les fichiers de leurs sites. L’hypothèse est claire : le client construit son site depuis son ordinateur, puis met les fichiers en ligne sur les serveurs de l’hébergeur qui se charge de les diffuser sur le réseau. Les fichiers, et les informations qu’ils contiennent, sont fournis par le client ; l’hébergeur n’intervient pas dans leur élaboration, il n’en contrôle pas le contenu. Ce schéma n’est pas applicable aux flux RSS et « digg-like » : lorsqu’un site agrège des flux provenant d’autres sites, il le fait pour lui-même et non pas pour ces autres sites. En effet, pour que des flux provenant de sites tiers puissent être agrégés, il faut qu’ils soient déjà diffusés par ces sites. Le fichier qui contient les données du flux RSS ne quitte pas le serveur du site d’origine ; il est simplement lu, et non stocké, par le site qui l’agrège. De même, le fichier qui contient l’article repris par un site « digg-like » reste sur le serveur d’origine et ce n’est qu’une référence vers ce fichier qui est publiée par le site « digg-like ». La source originelle de l’information ne change donc pas et aucune nouvelle source n’est créée : l’agrégation du flux RSS ou de l’article dans un flux « digg-like » ou leur diffusion par un autre site ne fait que prolonger la source d’origine, qui se suffit en principe à elle-même ((On doit ici exclure l’hypothèse de l’hébergement d’un site miroir. Les miroirs sont des copies à l’identique d’un site mais hébergées par des serveurs différents. Ces copies visent à réduire la charge du serveur principal et la bande passante utilisée en répartissant le contenu sur des serveurs différents situés en d’autres lieux. L’utilisation de serveurs miroirs permet également de décongestionner le réseau et d’accélérer les temps de transfert : chaque internaute obtiendra l’information du serveur le plus proche de lui. Dans le cas de l’utilisation d’un serveur miroir, il s’agit véritablement d’un second hébergement.)). La preuve en est que la mise hors ligne d’un site agrégeant des flux RSS ou des articles ne suffit pas à faire cesser la diffusion de ces flux ou de ces articles sur le réseau ; il faudrait pour cela supprimer le contenu incriminé des serveurs qui sont à l’origine de sa première diffusion, qui en sont la source.
2. Éditeurs
L’activité d’édition s’oppose ici à celle d’hébergement. Elle constitue une catégorie résiduelle qui se définit a contrario en l’absence de définition légale : est un éditeur « toute personne physique ou morale qui, à titre professionnel ou non, édite et met en ligne de l’information, au sens le plus large du terme, à destination des internautes, en la publiant sur son site internet » ((C. FÉRAL-SCHUHL, Cyberdroit. Le droit à l’épreuve de l’Internet, ed. Dalloz Praxis (4ème ed., Paris 2006), num. 121.11, p. 549.)) et sans pouvoir être qualifiée d’hébergeur au sens de la LCEN.
Est ainsi considéré comme éditeur une personne qui choisit de diffuser une information. Un éditeur a un comportement actif : il prend d’abord la décision de diffuser l’information, puis il met en oeuvre les moyens nécessaires à sa diffusion. Il importe peu qu’il soit ou non l’auteur de cette information.
Les éditeurs sur Internet sont en principe soumis aux mêmes obligations légales que les éditeurs de la presse papier ou audiovisuelle, notamment celles résultant de la loi de 1881 sur la liberté de presse ((Loi n°1881-07-29 sur la liberté de presse du 29 juillet 1881 (Legifrance : <www.legifrance.gouv.fr/texteconsolide/PCEAA.htm>))), exception faite de l’obligation de déclaration préalable auprès du CSA ((Cette obligation résultant de la loi du 29 juillet 1982 a été supprimée pour les publication sur Internet par la loi n°2000-719 du 1er août 2000 (spéc. art. 2).)). La LCEN impose cependant à tout éditeur sur Internet l’obligation supplémentaire de se rendre identifiable (pour les professionnels) ou de rendre identifiable son hébergeur (pour les particuliers).
III. Éditeur et hébergeur : des responsabilités différentes
L’importance de la distinction entre hébergeur et éditeur réside dans la détermination du régime de responsabilité applicable. Les hébergeurs disposent d’un régime spécifique qui les exonère de responsabilité dans la plupart des cas, alors que les éditeurs restent pleinement responsables des dommages causés par les informations qu’ils participent à diffuser.
1. Hébergeurs
L’activité des hébergeurs est nécessaire à la diffusion d’une information sur le réseau. Pourtant, les hébergeurs ne sont pas à l’origine de l’information diffusée. Il sont de simples intermédiaires techniques.
Partant de ce postulat, trois conceptions de la responsabilité des hébergeurs peuvent être défendues.
1) La première conception est celle de l’irresponsabilité totale : l’activité des hébergeurs est purement technique, elle ne concerne que le contenant à l’exclusion du contenu.
2) La seconde conception est celle de la responsabilité systématique et totale : puisque l’activité des hébergeurs est nécessaire à la diffusion de l’information, elle est également nécessaire à la réalisation du préjudice subi du fait de la diffusion de cette information. Il est donc naturel que la responsabilité des hébergeurs soit engagée.
3) La troisième conception, qui est actuellement celle du droit français, se situe à mi-chemin entre les deux premières. Elle reprend, peu ou prou, le « tryptique pouvoir - savoir - inertie » proposé par un auteur : « n’est indubitablement fautif que celui qui est à même techniquement d’intervenir, qui sait qu’il y a matière à intervention et, pour finir, ne fait rien » ((M. VIVANT, La responsabilité des intermédiaires de l’Internet, JCP G n°45 du 10 novembre 1999, I 180)).
La loi du 1er août 2000 ((Loi n°2000-719 du 1er août 2000 modifiant la loi n°86-1067 du 30 septembre 1986 relative à la liberté de communication (JO 177/2000 du 2 août 2000, p. 11903 : http://www.juriscom.net/txt/loisfr/l20000801.htm))) prévoyait à l’origine que les hébergeurs n’étaient responsables que dans les cas où, saisis par un juge ou par un tiers, ils n’avaient pas agi pour mettre hors ligne ou filtrer le contenu litigieux. Le texte fut cependant vidé de sa substance par une censure du Conseil Constitutionnnel ((Conseil Constitutionnel, 27 juillet 2000, Décision n°2000-433 : Loi modifiant la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication [non-conformité partielle] ; JO 2000.p. 11922)).
Le droit positif actuel résulte d’article 6 de la LCEN :
« ... les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services ne peuvent pas voir leur responsabilité civile engagée du fait des activités ou des informations stockées à la demande d'un destinataire de ces services si elles n'avaient pas effectivement connaissance de leur caractère illicite ou de faits et circonstances faisant apparaître ce caractère ou si, dès le moment où elles en ont eu cette connaissance, elles ont agi promptement pour retirer ces données ou en rendre l'accès impossible... »
Le Conseil Constitutionnel a précisé que « ces dispositions ne sauraient avoir pour effet d’engager la responsabilité d’un hébergeur qui n’a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge » ((Conseil Constitutionnel, 10 juin 2004, Décision n°2004-496 : Loi pour la confiance dans l’économie numérique (LCEN) [non-conformité partielle] ; D. 2004.1739, note B. Mathieu)).
Il en résulte donc, au final, qu’un hébergeur n’engage sa responsabilité que s’il n’a pas agi promptement pour mettre hors ligne un contenu dont il ne pouvait ignorer l’illicéité ou dont le retrait avait été ordonné par une décision de justice.
2. Éditeurs
Le régime traditionnel de responsabilité des éditeurs est le régime dit « en cascade » du chapitre IV de la loi du 29 juillet 1881 sur la liberté de presse. Le directeur de la publication est le premier responsable. A défaut, l’auteur sera responsable et, à défaut de l’auteur, le producteur sera poursuivi comme auteur principal.
Ce régime transposé à Internet conduit à engager la responsabilité des différents opérateurs techniques intervenant dans la chaîne de diffusion de l’information.
Le droit commun se substitue à ce régime spécial lorsqu’il devient impossible pour les différents intermédiaires de contrôler l’information diffusée. Or, c’est le cas sur Internet et plus particulièrement pour les flux RSS qui agrègent des informations provenant de sources différentes et mises à jour en permanence.
Le Conseil d’État a proposé dans son rapport sur Internet et les réseaux numériques ((CONSEIL D’ETAT, Internet et les réseaux numériques, La Documentation française (1998))) de maintenir le régime traditionnel de responsabilité lorsque l’opérateur exerce une fonction éditoriale, par exemple lorsqu’il conçoit son propre site Web, « mais de retenir un régime de responsabilité de droit commun pour toutes les autres fonctions exercées sur le réseau et notamment les fonctions d’intermédiation technique ».
Toute la question est donc de savoir si l’agrégation et la diffusion de flux RSS est une simple activité « d’intermédiation technique » ou s’il s’agit au contraire d’une activité éditoriale.
IV. La publication d’un flux RSS est une activité d’édition
Deux décisions récentes, rendues en référé respectivement par le TGI de Nanterre dans l’affaire « O. Dahan c. Lespipoles.com » et par le TGI de Paris dans l’affaire « O. Martinez c. Fuzz.fr », qualifient la publication d’un flux RSS et d’un site « digg-like » comme une activité d’édition. Une troisième décision, rendue dans l’affaire « O. Dahan c. Wikio.fr » met en relief le fait que l’activité d’hébergement est purement technique.
1. Affaire « Lespipoles.com » et « wikio.fr »
Deux décisions ont été rendues dans cette première affaire. Un article concernant une prétendue liaison entre l’actrice américaine Sharon Stone et Olivier Dahan, réalisateur du film « La Môme », avait été publié sur le site « gala.fr » et diffusé par ce site dans un flux RSS. A son tour, le flux RSS était repris sur deux sites : le site « lespipoles.com » et le site « wikio.fr ». M. Dahan se dirigea donc dans un premier temps contre l’éditeur du site « lespipoles.com » ((TGI Nanterre (ref.), 28 février 2008, Olivier Dahan c. Eric D. ; Legalis 2008 : http://www.legalis.net/jurisprudence-decision.php3?id_article=2225)) et, dans un second temps, contre la société titulaire du nom de domaine « wikio.fr » ((TGI Nanterre (ref.), 7 mars 2008, Olivier Dahan c. Planete Soft ; Legalis 2008 : http://www.legalis.net/jurisprudence-decision.php3?id_article=2232)).
Dans la première ordonnance, le juge des référés rejette l’argument du défendeur selon lequel « il n’aurait que la qualité d’hébergeur (…) en ce que les contenus sont affichés systématiquement, automatiquement, et régulièrement mis à jour, sans la moindre décision de sa part et donc sans le moindre contrôle “éditorial” sur le contenu des informations ». Il estime en effet que « ledit site agence différents flux dans des cadres préétablis (“dernières news” ou “dernières vidéos”) et qu’il a trait à un thème précis : l’actualité des célébrités » ; en outre, le site possède « un moteur de recherche propre au thème ainsi traité », ce qui démontre son contrôle sur le contenu diffusé. Il en résulte que « la décision d’agencer ainsi les différentes sources, permet à l’internaute d’avoir un panorama général, grâce aux différents flux ainsi choisis, sur un thème précis, et constitue bien un choix éditorial de la partie défenderesse ». Le défendeur a donc « la qualité d’éditeur et doit assumer les responsabilités, à raison des informations qui figurent sur son propre site ».
Dans la deuxième ordonnance, le juge relève que la société défenderesse, Planete Soft, est seulement titulaire du nom de domaine « wikio.fr », « qu’elle n’a ni la qualité d’hébergeur, ni d’éditeur, ni de “webmaster” ayant la maîtrise du site litigieux ». Il existe donc une contestation sérieuse au sens de l’article 808 NCPC sur la qualité à agir en défense de la société Planete Soft et le juge des référés se déclare incompétent pour connaître du litige.
Les deux décisions lues en parallèle permettent de relever l’importance du critère du choix éditorial. Un opérateur est considéré comme un éditeur lorsqu’il opère un choix éditorial, c’est-à-dire lorsqu’il aménage l’information diffusée sur son site. Il s’agit d’une démarche active destinée à apporter une valeur ajoutée soit au site, par le regroupement et le classement des informations diffusées, soit aux informations elles-mêmes qui sont mises en relation avec des contenus connexes. A l’inverse, l’opérateur qui se borne à fournir un service (comme un nom de domaine), sans intervenir dans le processus d’élaboration du contenu du site, ne peut être considéré comme l’éditeur de ce site.
2. Affaire « Fuzz.fr »
Les faits sont ici semblables à ceux exposés ci-avant : le site « fuzz.fr » affichait un lien vers un article, hébergé sur un autre site, et ayant pour thème une prétendue liaison entre l’actrice Kylie Minogue et Olivier Martinez. En revanche, il ne s’agissait pas ici d’une agrégation de flux RSS, mais d’une sélection « digg-like » de certains articles, parus sur divers sites, par les internautes.
En l’espèce, la société défenderesse soutenait qu’elle n’était qu’un simple prestataire technique, ne faisant qu’héberger un lien hypertexte vers l’article original. Le juge n’a pas accueilli cet argument ((TGI Paris (ref.), 26 mars 2008, Olivier Martinez c. Bloobox Net, Eric Dupin (affaire Fuzz) ; Legalis 2008 : http://www.legalis.net/jurisprudence-decision.php3?id_article=2256)). Il a au contraire estimé qu’en renvoyant vers le site à l’origine de l’article litigieux, en « agençant différentes rubriques telles que celle intitulée “People” » et, surtout, en présentant le titre de l’article en gros caractères, la défenderesse avait décidé seule « des modalités d’organisation et de présentation » de son site et, partant, opéré un choix éditorial. Il en découle que l’acte de publication doit être compris « non pas comme un simple acte matériel, mais comme la volonté de mettre le public en contact avec des messages de son choix » et que la société « doit être dès lors considérée comme un éditeur ».
V. Conclusion
L’affaire « Fuzz.fr » a bénéficié d’une très large couverture médiatique : des médias traditionnels ((Le Figaro, Une décision de justice fait trembler le web 2.0 (avec AFP) (S. LAURENT); Le Monde, Les sites hégergeant des informations émanant de tiers sont responsables de leur publication (L. GIRARD))) à la radio et à la télévision, en passant bien entendu par la « blogosphère » ((A. ASTAIX, Le hussard de la toile, à l’assaut du web communautaire, Blog Dalloz 2008)). L’ordonnance rendue par le juge des référés a suscité de vives critiques. Elle est pourtant fondée en droit. En effet, il est clair que la définition de la qualité d’hébergeur contenue dans la LCEN ne vise que les intermédiaires techniques, à l’exclusion des opérateurs qui exploitent directement et pour leur compte l’information diffusée, qu’ils en tirent ou non un bénéfice. Dans ce contexte, la sélection, le classement et la mise en valeur de l’information suffisent à caractériser un « choix éditorial » qui, à son tour, est caractéristique d’une exploitation du contenu diffusé.
Il nous semble que le débat aurait pu être déplacé sur un autre point, bien plus problématique : le fait que les sites incriminés ne diffusent pas le contenu litigieux mais une simple référence vers ce contenu (sous réserve qu’il ne reprennent pas une partie substantielle de l’article référencé). Si la diffusion d’un lien vers une page Web s’assimile à la diffusion du contenu de cette page, c’est toute l’architecture du réseau qui est à revoir ! Qu’en serait-il, en effet, de la responsabilité des moteurs de recherche ? Et qu’en serait-il de la responsabilité d’un site affichant un lien vers un deuxième site qui afficherait à son tour un lien vers un troisième site au contenu illicite ?
Si le débat ne s’est pas déplacé sur ce terrain, c’est que ce n’était pas nécessaire car, précisément, les liens affichés sur les sites incriminés n’étaient pas de « simples liens ». Ils étaient mis en valeur de manière à relayer l’essentiel du contenu de l’information (titre suggestif et court résumé), et non simplement à signaler son existence. Le fait qu’il s’agisse, dans les deux cas, d’informations « people » n’est d’ailleurs certainement pas indifférent à la condamnation. Il est en effet bien connu que les informations de ce type sont particulièrement sensibles, et qu’il arrive souvent qu’elles franchissent la limite de l’illicéité. Dans ce contexte, les éditeurs des sites incriminés ont commis une négligence plutôt qu’un acte illicite actif en diffusant des informations non vérifiées et susceptibles d’être illicites, alors qu’ils avaient les moyens, quoi qu’ils en disent, d’en contrôler le contenu. Il ont en tout cas pris un risque qui justifie que leur responsabilité soit recherchée.