Pas de grande nouvelle, en cette semaine de vacances estivales. L’affaire Wikileaks se poursuit : selon Newsweek, le site aurait communiqué à l’armée américaine certains documents qui n’ont pas encore été publiés. Cependant, il chercherait un hébergement par le parti pirate suédois en raison de la législation de ce pays (protection des sources, anonymat renforcé, lourdes procédures pour mettre hors ligne du contenu).
En parlant d’hébergement, celui du site France.fr laisse à désirer. Un comble pour un site qui aurait déjà coûté 4 millions d’euro.
Alors qu’Microsoft Internet Explorer fête ses 15 ans, le magasine américain Wired(en), dont on sait l’influence dans le petit monde des nouvelles technologies, annonce de nouveau(es) la mort du web. Le raisonnement est le suivant : le Web a été inventé pour hiérarchiser, classer, catégoriser les informations diffusées sur Internet ; il repose pour cela sur la technologie hypertexte. Or, à l’heure actuelle, les sites Web qui connaissent le plus fort développement sont ceux fournissant des applications en ligne : soit de stockage ou de traitement dans les nuages (ex: Google Docs, Gmail, Dropbox…), soit les réseaux sociaux (Facebook et al.). Les internautes ne parcourent plus autant le Web, ils ne surfent plus de lien en lien, ils se contentent d’accéder à un petit nombre de sites qu’ils ont l’habitude de consulter. Cette tendance serait encore accentuée par l’accès mobile à Internet : on trouve par exemple, sur l’iPhone, des applications dédiées à Facebook, YouTube, Dailymotion, etc., qui donnent accès à ces sites sans utiliser de navigateur et sans forcément passer par le Web (techniquement, tous ces sites ont des API qui permettent d’interagir avec leurs bases de données et leurs services depuis n’importe quel logiciel compilé).
On ne peut nier que l’avenir du Web est sombre lorsqu’on apprend, par exemple, que les autorités fédérales américaines développent des technologies permettant de surveiller les réseaux sociaux et d’identifier les internautes anonymes(en) à partir notamment de leur style littéraire. Dans ce contexte, on comprend mieux pourquoi Eric Schmidt, patron de Google, se méfie des réseaux sociaux, comme Facebook qui vient de lancer son service de géolocalisation aux États-Unis, et conseille de changer de nom pour échapper aux moteurs de recherche !
Le débat sur la neutralité du Net, enjeu important du Web du futur, a d’ailleurs progressé en France, cette semaine, avec la proposition de loi du député socialiste Christian Paul. Celle-ci répond au projet du gouvernement et, contrairement à ce dernier, ne propose pas une neutralité soumise au bon vouloir des fournisseurs d’accès.
• 439 mots • #Internet #neutralité #Google #blog #libre #gouvernement #Facebook #réseaux sociaux #hébergementL’actualité principale de cette semaine est la publication de la proposition conjointe de Google et Verizon sur la neutralité du Net. Les affaires Blackberry et Wikileaks continuent de leur côté d’évoluer sans rebondissement majeur.
Google et Verizon (FAI américain) viennent de publier une proposition de lignes directrices pour une réglementation sur la neutralité du Net. La presse avait annoncé, la semaine dernière, que Google et Verizon préparaient un accord afin de favoriser l’accès à certains contenus «premium» (comprendre : payants). Les deux sociétés avaient démenti. Pourtant, on constate que leur proposition permet parfaitement, pour les accès mobiles (Blackberry, iPhone, et autres smartphones, iPad et autres tablettes), une différenciation des conditions d’accès en fonction du contenu.
Cet accord représente une alliance entre deux catégories d’acteurs historiquement ennemis(en) : les fournisseurs de contenu (Google et al.) et les fournisseurs d’accès (Verizon et al.). Malheureusement, cette entente est, sur certains points, au détriment des usagers du réseau. Certains vont même jusqu’à parler de «trahison» pour qualifier la nouvelle position de Google(en), qui se serait «vendu» aux fournisseur d’accès mobile.
Facebook a rapidement rejoint le débat(en), pour condamner la nouvelle position de Google. De son côté, AT&T s’est prononcée en faveur de la proposition, ce qui n’est pas étonnant considérant l’importante marge de manoeuvre qu’elle laisse aux FAI.
La société canadienne RIM a finalement en partie cédé devant la pression exercée par l’Arabie Saoudite. Les autorités du pays pourront désormais surveiller les utilisateurs de Blackberry sur son territoire.
Et ce qui devait arriver arriva, la boîte de Pandore ayant été ouverte : d’autres pays, l’Inde en premier lieu, demandèrent à leur tour des concessions de la part de la société canadienne. RIM tente de résister, mais la brèche est ouverte.
Le discours de l’armée américaine à l’encontre de Wikileaks continue de se durcir. Certains suggèrent même qu’elle devrait se lancer dans une «guerre numérique» contre le site(en). Les américains auraient demandé à leur alliés en Afghanistan de les aider à faire tomber Wikileaks ; cette information a toutefois été démentie(en).
Plusieurs organisation humanitaires(en) et même Reporters Sans Frontières ont demandé à Wikileaks de censurer les noms des personnes qui pourraient être mises en danger par la diffusion des documents. Le site affirme qu’il va publier sous peu 15.000 nouveaux documents, qu’il est actuellement en train de censurer.
Oracle, qui a racheté Sun, l’entreprise à l’origine du langage Java, attaque Google en justice pour violation des brevets qu’elle détient sur le langage. Pour certains, le géant américain des bases de données compromet par cette action ses positions en faveur de l’open source(en).
En France, la mise en oeuvre de la loi Hadopi se heurte à de nouvelles difficultés. Le fournisseur d’accès FDN a en effet attaqué devant les juridictions administratives le décret du 26 juillet dernier relatif à la procédure de notification des internautes.
En Allemagne, les Google Cars s’apprêtent à reprendre la route, malgré les tensions existant entre la société californienne et l’autorité allemande de protection des données personnelles.
Dans le même temps, Apple, qui vient de corriger la faille iOS permettant d’exécuter du code contenu dans des fichiers PDF (et de jailbreaker ainsi les iPhone/iPad), et de remercier Papermaster pour cause d’Antennagate, a attiré l’attention des autorités de régulation de la concurrence. La Commission européenne se joint en effet à la FTC pour enquêter sur l’exclusion de l’AppStore des logiciels développés avec la plateforme Flash(en).
Concernant la régulation des paris en ligne, le site Stanjames.com dont nous parlions la semaine dernière a annoncé, juste après la création d’un site miroir par un internaute indépendant, qu’il bloquerait l’accès aux internautes français.
• 668 mots • #Alors que Google annonce qu’elle estime à 130 millions le nombre de livres dans le monde, l’actualité technologique de cette semaine est dominée par la question du filtrage du Net. On en parle aux États-Unis et dans les pays du Golfe, à propos de l’affaire Blackberry, en Indonésie et en Australie, une fois de plus, et en France concernant les sites de paris en ligne. Il est aussi question, cette semaine, de la neutralité du Net, avec un prétendu accord entre Google et Verizon, de la protection de la vie privée, et de la liberté d’expression avec l’affaire Wikileaks qui continue de préoccuper l’armée américaine.
L’Arabie Saoudite a annoncé en début de semaine(en) que les Blackberry, ces téléphones «intelligents» (smart phones) fabriqués par la société canadienne Research-In-Motion (RIM), qui ont amorcé le succès de l’internet mobile bien avant l’avènement de l’iPhone, seraient bloqués sur son territoire. Quel est le problème ? Comme les autres smartphones, les Blackberry permettent d’échanger des e-mails. Mais contrairement aux autres téléphones, les messages échangés avec les Blackberry sont chiffrés directement sur le terminal et transmis sous forme chiffrée aux serveurs de RIM (aux États-Unis et en Angleterre), où ils sont stockés. Le chiffre employé est très fort, et le décryptage (c’est-à-dire, le déchiffrement sans la clé de chiffrement) est hors de portée de la plupart des gouvernements.
RIM a construit sa réputation sur la sécurité et la confidentialité des données. La société perdrait rapidement cette réputation si elle laissait certains États peu démocratiques fouiner dans les données des utilisateurs, bien qu’il semblerait qu’elle ait déjà donné un accès limité à l’Inde. Les américains soutiennent cette position… jusqu’à un certain point. En effet, depuis le 11 septembre 2001, la lutte contre le terrorisme est une des priorités de la politique extérieure américaine. Or, les américains peuvent difficilement demander aux autres pays de communiquer des données personnelles de leurs citoyens (comme par exemple dans le cadre des accords PNR et SWIFT avec l’UE), au nom de la lutte contre le terrorisme, tout en protégeant la confidentialité des données stockés sur le territoire contre d’autres gouvernements. A cela s’ajoute un autre problème : quid de la confidentialité messages envoyés par les fonctionnaires américains ou internationaux dans ces pays qui veulent accéder aux données ? On comprend que la secrétaire d’État Clinton ait annoncé que les USA étaient prêts à discuter, avec des experts, sur certaines questions techniques, tout en reconnaissant la complexité de la situation.
Alors que d’autres pays rejoignent la fronde contre le chiffrement des données transmises par les Blackberry (les Émirats Arabes Unis, le Koweit, le Liban, l’Algérie, l’Indonésie, l’Inde(es)), l’Arabie Saoudite semble ne pas encore avoir mis en place de mesure de filtrage.
Dernière minute: un accord semble avoir été trouvé entre RIM et l’Arabie Saoudite, la société canadienne installera des datacenters en Arabie Saoudite afin de stocker sur place les données des utilisateurs de Blackberry du pays.
L’Indonésie annonce qu’elle va filtrer le Web, principalement les sites pornographiques. Les FAI du pays sont placés dans une position délicate par cette décision, puisque c’est sur eux que repose le filtrage. Or, les techniques de filtrage, lorsqu’il se veut massif, ne sont pas très efficaces. Élaborer une «liste noire» de sites à filtrer est un long travail, qui doit constamment être renouvelé.
En Australie, à quelques semaines des élections législatives, l’opposition annonce qu’elle entend abandonner les projets de filtrage du Net de l’actuelle majorité si elle parvient au pouvoir. En réalité, le projet de filtrage semble compromis, même si elle perd, tant il est controversé au sein de la majorité. Les critiques sont bien connues : sur le plan idéologique, la liberté d’expression et, sur le plan technique, l’inefficacité des mesures de filtrage massif.
L’Autorité de Régulation des Jeux en Ligne (ARJEL) a pour mission de réguler l’activité des sites Web permettant aux internautes de jouer à des jeux d’argent en ligne. Plus précisément, les sites doivent être agréés par l’ARJEL pour pouvoir proposer des jeux aux internautes français. L’ARJEL a la possibilité de demander au juge des référés d’ordonner le blocage des sites non agréés, après une mise en demeure non suivie d’effet. La loi qui libéralise le secteur des jeux en ligne date du 12 mai dernier (juste avant la coupe du monde de football, paris sportifs obligent…), et les premiers contentieux apparaissent maintenant.
Le 25 juin dernier, l’ARJEL a mis en demeure la société Stanjames.com de se mettre en conformité avec la loi française, ou de cesser de proposer des paris au public français. En l’absence de réaction de la société, l’ARJEL a saisi le juge des référés afin d’obtenir le blocage du site litigieux. Par un jugement au fond en forme de référé du 6 août 2010, publié par Numérama, le juge des référés a ordonné aux FAI français de bloquer le site de la société Stanjames.com.
La décision du tribunal est dure pour les FAI français. Ceux-ci sont obligés de mettre en oeuvre toutes les mesures nécessaires pour bloquer le site litigieux : filtrage IP, d’URL, de DNS, et même filtrage avec DPI. Mais surtout, ils doivent faire évoluer les mesures de filtrage dans le temps, afin de garantir que le site continue d’être bloqué. Le coût de ces opérations est pour l’instant supporté par les FAI, le décret devant fixer les modalités de leur dédommagement n’ayant pas encore été publié.
Le filtrage de certains sites est nécessaire. On ne saurait tolérer n’importe quel comportement illicite au nom de la liberté d’expression ou de la liberté du commerce. La position française est donc théoriquement justifiable, d’autant que le filtrage n’intervient pas a priori ou de manière automatique, mais sur décision de justice. Mais il est plus contestable, en revanche, que le principe de subsidiarité de la LCEN (21 juin 2004), selon lequel le demandeur doit d’abord s’en prendre à l’éditeur du contenu litigieux avant d’agir contre l’hébergeur puis contre les fournisseurs d’accès, soit systématiquement évincé ; que la procédure soit celle du référé, dans laquelle le juge se borne, pour rendre un jugement au fond, à vérifier que les conditions d’application de la loi sont réunies ; et surtout que le site concerné ne soit pas partie à la procédure.
L’on reparle également, cette semaine, du principe de neutralité du Net. C’est un article du New York Times(en) qui relance le débat(en) : Google serait prête, selon cet article, à permettre à l’opérateur de téléphonie mobile américain Verizon de moduler la bande passante allouée à un contenu en fonction de la disposition du consommateur à payer pour ce contenu. Le scandale éclate(es) et Google dément. Vinton Cerf(es) réaffirme l’importance du principe de neutralité du Net et Verizon conteste à son tour l’article du NYT.
En France, l’UMP promet une loi afin de garantir la neutralité du Net.
Aux États-Unis, la discussion avec la FCC continue(en). Les partisans de la neutralité du Net veulent voir les fournisseurs d’accès (ISP) qualifiés de «common carriers» au sens du Titre II du Communications Act de 1934(en).
Une petite explication s’impose. Dans l’arrêt Comcast du 6 avril 2010(en,pdf), la Cour d’appel du district de Columbia a décidé que la FCC n’avait pas compétence pour imposer à Comcast, fournisseur d’accès, la neutralité du Net au sein de son réseau. Le FAI est donc libre d’organiser son réseau comme il l’entend, et la FCC n’a pas son mot à dire.
[caption id=»attachment_95» align=»aligncenter» width=»300» caption=»Comcast Case Consequences»][/caption]
Pour recouvrer sa compétence régulatoire, la FCC peut qualifier les ISP comme Comcast de «common carriers» et leur appliquer les règles du titre 2 du Communications Act. Mais cela est doublement dangereux. D’une part, les tribunaux pourraient refuser cette qualification, ce qui priverait définitivement la FCC de son pouvoir de contrôle. D’autre part, la FTC (Federal Trade Commission), qui protège notamment les consommateurs et la libre concurrence, perdrait sa compétence sur les ISP, puisqu’elle n’est pas compétente pour réguler les «common carriers» (ce qui est de plus en plus contesté(en)). La FTC dispose en effet d’une compétence générique, horizontale et très large, qu’elle perd pour les questions qui relèvent de la compétence spécifique et verticale d’un autre régulateur.
La Commission européenne a dans l’idée de réformer la directive 95/46 définissant un cadre global pour la collecte et le traitement des données personnelles au sein de l’UE. Si la réforme semble nécessaire, sur certains points, notamment les réseaux sociaux qui touchent aujourd’hui plus de 20 millions d’internautes français, soit un citoyen sur trois, les autorités nationales européennes, la CNIL en France, répondent toutefois qu’il ne faut pas se précipiter. La révision de la directive devrait donc, en principe, avoir lieu pendant le deuxième semestre 2011. Espérons qu’elle parvienne à éviter ce que prédit Eric Schmidt, le PDG de Google : la disparition de l’anonymat sur Internet.
Wikileaks, le wiki hautement sécurisé dont le but est de permettre la publication de documents confidentiels d’intérêt public sous couvert d’anonymat, se retrouve une fois de plus au premier plan de l’actualité. Le site a publié, il a quelques temps, plusieurs dizaines de milliers de documents secrets de l’armée américaine portant sur l’Afghanistan. Depuis, les autorités américains enquêtent sur le site, et tentent de remonter à la source. Certains serveurs de Wikileaks seraient situés en Suède, pays dans lequel il est juridiquement très difficile (mais pas impossible…) de faire fermer un site web.
Le site a mis en ligne un fichier de 1,4 GO chiffré avec l’algoritme AES, réputé inviolable sauf par force brute (c’est-à-dire, dans les faits, totalement inviolable), appelé «assurance», sans précision sur son contenu. Le fichier étant disponible en ligne, de nombreuses personnes vont le télécharger. Et s’il «arrive malheur à Wikileaks», il n’y aura plus qu’à publier la clé de déchiffrement pour que le contenu du fichier soit à son tour rendu public.
• 1714 mots • #Internet #neutralité #Google #vie privée #données personnelles #jeux en ligne #gouvernement #filtrage #DPI #réseaux sociauxAu sommaire cette semaine : propriété intellectuelle avec Hadopi et le logiciel de sécurisation, la licéité du jailbreaking aux USA ou, plus généralement, du contournement des DRM dans le cadre du fair use, et la diffusion de données personnelles publiques sur Internet.
On reparle encore, cette semaine, de l’Hadopi qui se met progressivement en place. C’est d’abord du décret 2010-695 du 25 juin 2010 instituant une contravention de négligence caractérisée protégeant la propriété littéraire et artistique sur internet dont il est question. Même s’il représente un modèle à ne pas suivre en termes de légistique, on finit par en comprendre la teneur après quelques lectures : lorsqu’une infraction est constatée, les autorités recommandent un logiciel au titulaire de l’abonnement à Internet ; celui-ci ne verra par la suite sa responsabilité engagée que s’il n’a pas installé ce logiciel et qu’une nouvelle infraction est constatée. Un juriste souligne le problème : ce n’est pas la sécurisation de l’accès à Internet qui permet d’écarter la responsabilité de l’internaute, mais le défaut de sécurisation de cet accès (c’est-à-dire le fait de ne pas installer le logiciel recommandé) qui constitue un élément constitutif de l’infraction. En d’autres termes, la charge de la preuve incombe au parquet. Or, il sera très difficile, en pratique, de démontrer de façon convaincante le défaut de sécurisation.
L’une des principales difficultés provient du logiciel de sécurisation lui-même. Un document confidentiel sur les moyens de sécurisation, émanant de l’Hadopi et publié par Numérama, expose plusieurs problèmes.
1) Le premier problème concerne le fonctionnement du logiciel. Celui-ci analyse l’activité de l’internaute et la consigne dans un journal (log). Ce journal est conservé, sur l’ordinateur de l’internaute, en deux versions : une version en clair, que l’internaute peut lire, et une version chiffrée et signée numériquement, que l’internaute ne peut pas (en principe) consulter ou altérer. En cas de contentieux, la version chiffrée est déchiffrée ; c’est elle qui fait foi. A ce stade, les spécialistes de la cryptologie auront compris le problème : les algorithmes basés sur une clé publique et une clé privée (la cryptographie asymétrique), utilisés dans ce genre de circonstances, supposent que l’expéditeur et le destinataire du message se font confiance. Or, ici, l’Hadopi ne peut pas faire confiance à l’internaute.
Petite explication. L’expéditeur Alice (par convention) génère une clé privée, qu’elle garde secrète, et une clé publique qu’elle communique au destinataire, Bob (idem). Celui-ci chiffre le message avec la clé publique d’Alice et l’envoie à cette dernière. Alice déchiffre ensuite le message à l’aide de sa clé privée. L’idée essentielle est que la clé publique d’une personne permet aux tiers de chiffrer les données pour cette personne, et pour elle seule.
Dans le cas du logiciel Hadopi, le «tiers de confiance» (par rapport à Hadopi), éditeur du logiciel de sécurisation, a pour mission de chiffrer le contenu du journal de l’internaute. Il doit donc installer sa clé publique dans le logiciel de sécurisation qu’il édite, sur l’ordinateur de l’internaute. Conclusion : il suffit à l’internaute de récupérer cette clé publique pour chiffrer n’importe quel message en se faisant passer pour le tiers de confiance (B). Il peut, par exemple, altérer le journal en clair, puis le chiffrer avec la clé du tiers de confiance, et l’envoyer à l’Hadopi à la place du véritable journal chiffré.
Il faut donc empêcher l’internaute de récupérer la clé contenue dans le logiciel. Mais cela n’est pas vraiment possible, même si ce logiciel est compilé et que son code est obscurci (obfuscated). Il y a toujours une possibilité de récupérer la clé, en trançant l’activité du logiciel lors du chiffrement du journal.
2) De là provient la deuxième difficulté : le document mentionne les logiciels libres. Or, par définition, le code source d’un logiciel libre est disponible, et peut être lu et modifié par tout le monde. La clé de chiffrement d’un logiciel libre ne peut donc pas être cachée.
Plus fondamentalement, à partir du moment où le logiciel de sécurisation a pour but d’espionner l’internaute, il ne peut pas être libre. S’il était libre, l’internaute pourrait le modifier pour qu’il ne surveille pas certaines de ses activités, privant ainsi l’espionnage de toute pertinence. Pire encore, dès lors que le logiciel fonctionne sur un système d’exploitation libre (i.e. Linux et al.), qu’il soit libre ou propriétaire, son fonctionnement peut être altéré en modifiant le système d’exploitation (p. ex. : le logiciel lui-même n’est pas modifié, il tente bien de recueillir les données prévues, mais c’est le système d’exploitation qui est modifié pour lui interdire l’accès à ces données).
3) La troisième difficulté porte sur une autre fonction du logiciel de sécurisation : le filtrage. Le logiciel a en effet pour rôle de bloquer une partie du trafic, que ce soit avec certaines sites, à l’aide de certains logiciel ou de certains protocoles, ou sur certains ports. L’efficacité du filtrage est remise en question par l’existence de plusieurs techniques, notamment de tunneling (VPN, Tor…) : un tunnel chiffré est créé entre l’émetteur et le récepteur, et les données par le tunnel sont protégées contre la surveillance venant de l’extérieur.
Autre élément inquiétant : il est envisagé, pour le futur, d’intégrer le logiciel de sécurisation directement dans le routeur ADSL (la «box»). Il deviendrait, de cette manière, beaucoup plus difficile à contourner. Cependant, il mettrait encore plus en péril la vie privée des internautes et leur liberté d’accéder à un Internet ouvert et dépourvu de censure.
La loi américaine Digital Millenium Copyright Act (DMCA)(pdf,en) interdit le contournement des mesures techniques de protection et de gestions des droits numériques (MTP, en français, ou DRM pour Digital Rights Management en anglais). Les DRM empêchent par exemple de lire une chanson achetée sur l’iTunes Store avec un autre logiciel qu’iTunes et sur plus de 5 ordinateurs différents.
Or, la cinquième Cour itinérante vient de juger(en) que le contournement des DRM n’était illicite que s’il était réalisé dans le but de violer les droits de propriété intellectuelle. Le contournement des DRM pour un fair use de l’oeuvre est donc licite(en).
Conséquence immédiate : certaines sociétés qui ont pris la mauvaise habitude de «verrouiller» leurs appareils afin d’emprisonner les consommateurs dans leur écosystème commercial (comprendre : Apple iOS contre jailbreak), ne peuvent plus s’opposer légalement à la levée des mesures de protection… Mais elles peuvent toujours s’y opposer contractuellement (notamment en annulant la garantie !).
L’actualité de cette semaine, en matière de protection de la vie privée et des données personnelles, est dominée par deux affaires : la première concerne Google Street View, et la seconde Facebook.
Google est accusée d’avoir collecté certains contenus transitant par des connexions Wifi non sécurisées, dans le cadre du programme «Street View». Après analyse, l’homologue anglaise de la CNIL, l’Information Commissioner’s Office (ICO), a décidé que Google n’était pas fautive : les données collectées étaient publiques, d’une part, et n’étaient pas «personnelles» (relatives à une personne identifée ou directement ou indirectement identifiable).
Côté Facebook, les données de 100 millions d’utilisateurs ont été collectées dans une base de données, à partir de la liste des profils du site, puis mises à disposition sur les réseaux d’échange P2P. Mais selon le droit américain, il n’y a aucun problème : les données étaient déjà publiques(en), et donc protégées par le premier amendement (exemple du raisonnement dans l’affaire The Virginia Watchdog).
Ces deux affaires mettent en relief un problème de plus en plus important sur Internet : le traitement des données personnelles des internautes présente certains dangers qui sont totalement indépendants de la nature publique des informations. Le regroupement des données personnelles publiques dans une base de données permet des traitements de ces données qui ne sont pas possibles directement depuis le Web (manuellement). En d’autres termes : on collecte d’abord les données nécessaires au traitement, depuis une source publique, puis l’on exploite ces données de telle ou telle manière, sur le fondement de tel ou tel critère.
Les internautes devraient pouvoir diffuser publiquement leurs données, pour qu’elles soient accessibles à des lecteurs humains, tout en interdisant leur inclusion dans des bases de données privées à traitement automatisé. Tel n’est pas le cas, à l’heure actuelle, en droit américain. Peut-être y a-t-il un peu d’espoir du côté de la réglementation de la publicité ciblée ?
On apprend par ailleurs que le site français de Facebook offrirait à certains utilisateurs la possibilité de supprimer leur compte. Jusque là, il n’était pas possible de supprimer définitivement son compte Facebook (et de retirer les données déjà publiées), mais seulement de le désactiver (et d’empêcher la publication de nouvelles données). La fonction semble être encore expérimentale, mais elle montre une volonté de Facebook d’assouplir sa politique, qui visait jusqu’à présent à retenir les utilisateurs autant que possible (et même contre leur volonté). Ce changement est donc une bonne chose, d’autant qu’une étude récente(en) montre que les étudiants américains qui se soucient de la confidentialité des données publiées sur Facebook sont de plus en plus nombreux.
• 1528 mots • #Internet #P2P #propriété intellectuelle #Google #vie privée #données personnelles #Apple #libre #linux #code source #Facebook #filtrage