L’on revient, cette semaine, sur l’actualité de Google, sur les pratiques de filtrage de plus en plus fréquentes, sur la neutralité du Net et sur la responsabilité des intermédiaires.
L’actualité de Google est intéressante, cette semaine. Les récents changements à la tête de la société américaine semblent avoir eu pour conséquence une accélération dans la mise en oeuvre des projets de Google. Ainsi, en premier lieu, l’interface de plusieurs applications Web (le moteur de recherche, Gmail, Agenda) a changé : une barre noire en haut de la page, un menu gris à gauche, le tout étant plus sombre et plus «pro» que l’ancienne version qui, à force d’accueillir de nouveaux éléments, était devenue de moins en moins facilement lisible. En deuxième lieu, le premier «Chromebook» (ordinateur tournant sous le système d’exploitation Chrome OS de Google), fabriqué par Samsung, vient de sortir. Globalement, l’ordinateur semble cher pour ce qu’il fait, avec une configuration matérielle plutôt faible et un système d’exploitation n’offrant que peu de possibilités en dehors de l’usage des applications en ligne signées Google. En troisième lieu, Google a lancé cette semaine son pseudo-réseau social, «Google+» (démonstration interactive). Il s’agit d’une plateforme regroupant plusieurs services de Google, comme +1 ou Picasa, et fondé sur un concept intéressant de «cercles» : l’utilisateur définit plusieurs «cercles», le cercle familial, le cercle des amis et le cercle professionnel, par exemple, et choisit les informations à partager avec chacun de ces cercles. Cela devrait éliminer le problème bien connu sur Facebook des photos compromettantes accessibles aux contacts professionnels. Alors que Google est souvent critiquée pour sa politique en matière de protection de la vie privée, et que les autorités françaises n’hésitent pas à demander des informations à la société américaine, le site PCInpact fait le point sur la protection des données personnelles dans le cadre de Google+.
Neutralité du Net
La Commission européenne a répondu, le 26 juin, à une question écrite posée par une eurodéputée et relative à l’instauration d’une «taxe YouTube». Il s’agit, pour les FAI, de facturer à certains «gros» sites diffuseurs de médias volumineux, comme YouTube (qui diffuse des vidéos), la consommation de bande passante. Que dire… cela peut être une bonne ou une mauvaise idée : s’il s’agit de faire payer certains gros sites qui génèrent d’énormes revenus sans participer à l’entretien des infrastructures qui leur permettent d’exister, c’est plutôt une bonne idée (à l’heure actuelle, le coût de l’entretien repose in fine sur les abonnés à Internet) ; en revanche, s’il s’agit de permettre aux FAI de discriminer selon la provenance des contenus, en favorisant leurs propres services, l’idée devient mauvaise. Toujours est-il que la Commission européenne ne tranche pas : la question est en débat, mais une telle taxe n’est pas inenvisageable.
Filtrage
L’on a beaucoup parlé, cette semaine, de la réunion de l’OCDE sur la régulation d’Internet. Comment souvent, les compromis ont été recherchés, et il en résulte des idées abstraites et parfois contradictoires plutôt que des engagements précis. Ainsi, l’OCDE affirme la nécessité d’un Internet libre et ouvert, de la protection de la vie privée des internautes, et de la sauvegarde des droits de propriété intellectuelle. Or, ces trois exigences sont souvent incompatibles : pour protéger les droits de propriété intellectuelle, l’on surveillera les internautes au détriment de leur droit à la vie privée et l’on filtrera certains sites au détriment de la neutralité du Net ; pour protéger la vie privée des internautes, l’on rendra Internet un peu moins libre et ouvert puisque la protection de la vie privée d’un internaute n’est pas forcément compatible avec la liberté d’expression d’un autre internaute. En définitive, la question essentielle est celle de savoir si la balance penchera d’un côté ou de l’autre, ou si elle gardera un certain équilibre.
Affaire Comcast, bis repetita, mais cette fois-ci en Belgique : le FAI Telenet bride le réseau P2P BitTorrent en réduisant le débit de la connexion lorsque ce protocole de partage est utilisé. Il s’agit de la première violation de grande ampleur de la neutralité du Net en Europe. Affaire à suivre… cela ne fait que commencer.
En France, la Cour d’appel de Paris [arrêt en PDF] a rejeté la QPC de Darty dans l’affaire Stanjames. Rappelons brièvement les faits : Stanjames est un site de paris en ligne étranger qui n’est pas autorisé en France ; aussi, l’autorité de régulation (ARJEL) a saisi le juge afin qu’il ordonne aux FAI français, en application de la loi sur la régulation des jeux en ligne, de filtrer ce site. La loi précise que les FAI seront indemnisés du coût des mesures prises pour filtrer les sites de paris en ligne non autorisés, mais le décret devant préciser les modalités de cette indemnisation n’a pas été pris. Les FAI doivent donc mettre en place les mesures de filtrage à leurs frais, et c’est ce qu’a contesté Darty. La Cour d’appel ayant rejeté sa demande, les FAI devront continuer à filtrer sans être indemnisés.
En France encore, nouveau rebondissement dans la très intéressante affaire Gallimard. Le problème est le suivant : au Canada, on parle français et on lit des livres d’auteurs français, mais les oeuvres tombent dans le domaine public au bout de 50 ans après le décès de l’auteur, alors qu’en France, il faut attendre 70 ans. Des sites canadiens offrent donc gratuitement, sur Internet, des oeuvres d’auteurs français qui, selon le droit local, sont dans le domaine public… mais qui ne le sont pas encore en France ! Il suffit donc, pour un internaute français, d’aller télécharger les fichiers sur ces sites canadiens, plutôt que de les acheter en France. Pour Gallimard, cette situation est problématique (en revanche, que les ayants droit continuent à percevoir de l’argent d’un travail auquel ils sont étrangers pendant 70 ans après la mort de l’auteur, cela ne semble poser aucun problème), et la société française a demandé le blocage en France des sites canadiens. Elle a d’abord obtenu gain de cause, avec une ordonnance sur requête du 11 mai 2010. Le juge parisien est aujourd’hui revenu sur cette décision en expliquant que le blocage de site est une atteinte à la liberté d’expression et qu’il ne peut donc être mis en oeuvre, selon la loi, soit par ordonnance lorsqu’il y a urgence, soit à la suite d’un procès régulier avec un débat contradictoire entre les parties.
En France toujours, le filtrage volontaire (logiciel installé sur le terminal client) se précise : la SCPP a dressé une liste de 30000 oeuvres dont les contrefaçons pourraient être filtrées. C’est clairement le «direct download» qui est ici visé, et plus particulièrement certains sites comme Rapidshare ou Megaupload.
Au Royaume-Uni, c’est le site Newzbin pourrait bientôt être filtré. Il s’agit d’un simple moteur de recherche, à l’instar de Google, mais qui, contrairement à ce dernier, ne recherche pas des pages sur le Web mais des fichiers binaires sur Usenet. Une fois les fichiers trouvés, le site permet de créer un fichier NZB lisible par plusieurs logiciels de téléchargement, qui se chargent alors de récupérer les fichiers. Les newsgroups binaires d’Usenet sont, à l’heure actuelle, la méthode la plus sophistiquée pour télécharger des fichiers contrefaisants. La MPAA a donc poursuivi le FAI British Telecom afin d’obtenir le blocage de Newzbin. Encore une affaire à suivre.
Responsabilité
Le statut «d’éditeur de presse en ligne» est devant le Conseil constitutionnel, à la suite d’une demande de QPC acceptée par la Cour de cassation. Résumons : la LCEN de juin 2004 a créé le statut d’hébergeur, par opposition à celui d’éditeur : les éditeurs sont responsables du contenu qu’ils éditent, alors que les hébergeurs ne sont responsables que si, ayant connaissance de l’existence d’un contenu manifestement illicite, ils n’ont rien fait pour le retirer. La loi Hadopi 1 a créé un régime spécifique aux responsables de forums de discussion, calqué sur celui des hébergeurs, mais sans l’adverbe manifestement. Les conséquences juridiques sont très importantes : le responsable d’un forum de discussion, contrairement à un hébergeur, ne peut se défendre en argüant que le contenu n’était pas manifestement illicite et que, s’il ne l’a pas retiré, c’est qu’il attendait que le juge se prononce sur sa licéité. Il y a donc un risque énorme que les responsables de forums jugent les contenus qui leur sont soumis d’une manière très sévère, et qu’ils exercent une censure privée afin d’éviter d’être tenus pour responsable de la diffusion d’un contenu qui serait, a posteriori, jugé illicite par un tribunal. Ce risque est une restriction de la liberté d’expression, et le Conseil constitutionnel est appelé à se prononcer sur sa conformité à la constitution.