Numéro huit
Retrouvez le numéro huit de
Third : Le numérique et notre vie privée
Retrouvez le numéro huit de
Third : Le numérique et notre vie privée
Rappelons donc dans un premier temps l’intérêt de défendre la vie privée. De catégories privé/public d’abord peu distinctes au Moyen-Âge2, ce qui relève du privé a peu à peu pris le sens que l’on y attribue aujourd’hui, à savoir ce qui relève de la personne, de ses attributs et de ses intérêts, et qui ne relève pas de l’État au sens de la chose publique, de la collectivité. Cet équilibre en mouvement entre l’individuel et le collectif a, de longue date, été discuté relativement à l’impact jugé heureux ou malheureux d’une centration sur les intérêts privés au détriment d’un investissement pour la chose publique3. Ces deux registres, l’individuel et le collectif, sont intrinsèquement liés à un autre niveau.
À mesure des siècles et plus particulièrement à partir du XIXème siècle, la valorisation de la vie privée s’est en effet traduite dans une appréciation croissante du privé en tant que valeur fondatrice de l’humain comme être réflexif. Elle est alors pensée comme un droit pour chacun « à être laissé tranquille »4. Préserver la vie privée devait ainsi permettre de ne pas être soumis en permanence à diverses ingérences ou autres communications de nature à entraver la formation de l’esprit critique par et pour soi-même, condition au fait d’être citoyen et de pouvoir exercer savoix de manière éclairée. La protection de la vie privée a ainsi d’abord été pensée comme un ensemble de garde-fous visant à prévenir les intrusions émanant de l’extérieur.
Aux XIXème et XXème siècles, on pense en particulier aux velléités étatiques de surveillance des populations, mais également au développement des premières TIC de masse :
Écrit en 1890 par deux juristes américains réclamant une protection légale spécifique de la vie privée (qui n’existait alors pas dans le monde anglo-saxon), ce texte résonne de manière étonnante avec notre époque. La vie privée devient ainsi progressivement perçue comme une valeur humaine fondamentale, et un élément clé de la démocratie, qui, du fait de diverses menaces d’intrusion ou de surveillance, nécessiterait une protection particulière. Elle est ainsi inscrite dans de grands textes fondamentaux 6.
Si Warren et Brandeis posent très en amont de l’informatique ce lien entre TIC et protection de la vie privée, l’essor de l’informatique puis des TNIC ne leur donne pas tort. Depuis l’informatique jusqu’au « Big Data » d’aujourd’hui, différentes affaires ont fait scandale et ont rappelé l’importance de la vie privée (dans une acception s’étendant aux données personnelles) et de légiférer pour sa protection.
En France, c’est dans les années 1970 avec l’essor de l’informatique et des fichiers de données que prend place, d’abord un peu confidentiellement, puis en éclatant au grand jour le besoin de mettre des limites au traitement de données. Plusieurs affaires font réagir, jusqu’au scandale public et politique lié au système automatisé pour les fichiers administratifs et les répertoires des individus (SAFARI) qui aboutira en 1978 au vote de la première loi dite « Informatique et Libertés ».
Cette loi, réactualisée depuis, reste le socle fondateur des droits des individus au regard de « leurs » données. Plus récemment, c’est en Europe que le Règlement général sur la protection des données (RGPD)7 a réaffirmé que le sujet n’était pas caduc. C’est là encore un scandale, l’affaire Snowden en 2013, qui a ravivé l’intérêt pour ce règlement qui n’avait d’abord suscité que peu d’enthousiasme auprès des députés européens8.
Parallèlement à ces protections envers des intrusions et exploitations abusives de données, les pratiques individuelles elles-mêmes ont évolué pour devenir plus participatives à mesure que les technologies ont évolué. Les individus vivent désormais en produisant des traces numériques, dont une part croissante est produite et partagée volontairement9. De nouvelles formes de tension viennent interroger la protection du privé, depuis les relations interpersonnelles jusqu’aux acteurs traditionnels, auxquels s’ajoutent les entreprises très demandeuses de ces données. Ces dernières sont en effet une source de connaissance et de captation des clients10. Mais les données personnelles sont désormais également au centre de nombre de services (l’intérêt des réseaux sociaux repose par exemple sur le partage de leurs traces par les individus) et sont ainsi devenues une source croissante de valeur et d’informations11.
Faut-il y voir, aujourd’hui, une forme d’érosion de la vie privée en tant que valeur fondamentale ?
Le paradoxe de la vie privée se maintient pourtant : il repose sur le constat régulièrement renouvelé que, d’un côté, les individus ont des pratiques de protection peu avancées et que, d’un autre côté, il y a une persistance de leur sensibilité à la question de l’intrusion, du consentement, et du contrôle de leurs informations. Les individus multiplient certes les traces volontaires et involontaires qui disent des choses d’eux-mêmes (de leurs préférences, de leurs activités, de leurs orientations politique, religieuse, sexuelle, etc.). Mais dans le même temps ils bricolent des formes de protection qui indiquent leur préoccupation, ou bien sont encore capables de faire reculer un projet de fichier souhaité par le gouvernement (exemple en France, en 2008, avec le fichier EDVIGE12). Mais s’ils ont pu être capables de s’opposer ainsi, et si des outils de protection existent, il n’en reste pas moins que le rapport de force est déséquilibré entre d’un côté des entreprises désireuses de capter l’attention et de mieux solliciter commercialement les individus pour générer de la valeur13 ou des services de renseignement souhaitant mieux identifier les préférences politiques, et d’un autre côté les individus.
À l’ère du « Big Data », cette asymétrie est rappelée par les algorithmes régulièrement accusés, comme les traitements de données plus classiques mais avec une ampleur renouvelée, de produire des décisions discriminantes voire de pouvoir influencer les manières de percevoir le monde. Les désormais classiques affaires Snowden ou Cambridge Analytica par exemple le rappellent bien. Les algorithmes favoriseraient ainsi une nouvelle forme de gouvernementalité14. Alors que les outils numériques prétendent accroître l’accès aux informations et offrir d’infinies découvertes, il s’agirait plutôt in fine d’une réduction du monde dont l’individu, maintenu dans ses univers familiers, n’aurait pas conscience.
Face à cela, plusieurs pistes sont avancées : apprendre à décrypter le fonctionnement de ces « calculs » de données et leurs effets, pour d’une part comprendre, et d’autre part utiliser cela à son profit en ouvrant les possibles au lieu de se laisser enfermer dans des univers de familiarité15 ; préserver des corps intermédiaires qui s’appuieraient sur ces outils avec discernement pour limiter le glissement vers une société de capitalisme numérique où l’algorithme ferait loi en lieu et place de son interprétation humaine en contexte16. Il n’en reste pas moins qu’à ce jour, les algorithmes sont déjà des opérateurs de décision avec lesquels il semble régulièrement difficile de négocier, quand bien même on en comprendrait le fonctionnement17.
Parmi les données qui interrogent la protection de la vie privée en témoignant que des équilibres sont à maintenir et à réinventer, les données liées à la localisation sont particulièrement concernées. Si une partie de ces informations de localisation sont sollicitées par des applications qui n’en ont besoin que pour mieux connaître leurs usagers, ces données sont aussi porteuses de la promesse de villes intelligentes. Pour mieux calibrer les offres de transport, pour faciliter multimodalité et intermodalité, pour mieux gérer les flux énergétiques, pour dessiner la conduite connectée de demain qui promet des améliorations en termes de sécurité, de pollution ou de gestion logistique notamment, ces données en mouvement sont en effet indispensables.
Derrière ces objectifs vertueux, l’un des risques pointés est là encore de voir les individus devenir captifs de services dictant finalement, par leur politique notamment commerciale basée sur l’exploitation des données, les « bons » comportements, voire interviennent pour bannir les « mauvais ». Sur les sites de réseaux sociaux, la question de laisser diffuser ou de censurer des contenus est de plus en plus présente ; n’attendant pas que d’éventuelles actions en justice rendent leur verdict, les entreprises deviennent elles-mêmes, de facto ou avec intentionnalité, agent de régulation de ce qu’il est permis de dire ou non18. Peut-il en être de même relativement à nos comportements de mobilité, les données devenant non plus seulement une source d’information nécessaire, mais autant de traceurs de nos comportements plus ou moins vertueux19 ?
On peut espérer que le législateur veille à ce que ce genre d’abus n’advienne pas. Néanmoins, la possibilité technique existant, les paradigmes de ce qui est toléré ou non socialement évoluant régulièrement20, et les individus étant relativement démunis face à des services qui produisent désormais leur sens, leur utilité, leur valeur du fait de l’exploitation des données, renforcer le rôle du législateur et de la CNIL apparaît indispensable.
Bien plus qu’une question individuelle, il s’agit d’une question sociale, et même politique. C’est bien vers une combinaison de grands principes, d’outils individuellement mobilisables, et de limites juridiques et réglementaires fortes qu’il convient de continuer de penser la question du privé, sans faire l’économie d’une forme d’éducation à ces techniques et à leurs effets possibles, à ce qui ne se voit pas mais peut avoir des effets bien réels sur la vie quotidienne et sur la vie privée.
1 | Source : https://www.cnil.fr/fr/definition/donnee-personnelle. (Retour au texte 1)
2 | Ariès Philippe, 1985, « Pour une histoire de la vie privée », in Aries Philippe, Duby Georges (dir.), 1985 (réédition 1999), Histoire de la vie privée. Tome 3 : De la Renaissance aux Lumières, Paris, Ed. Seuil, coll. Points Histoire, 635 p., pp. 7-22. (Retour au texte 2)
3 | Rey Bénédicte, 2012, La vie privée à l’ère du numérique, Paris, Hermès (Retour au texte 3)
4 | L’expression dans le texte original est « the right to be let alone ». Elle est traduite par « le droit à être laissé tranquille », ou par « le droit à être laissé seul ». in Warren, Brandeis, 1890, The right to Privacy.(Retour au texte 4)
5 | Warren, Brandeis, The right to Privacy, 1890. Traduction par Françoise Michaud. (Retour au texte 5)
6 | En particulier :
-Déclaration universelle des droits de l’homme du 10 décembre 1948, article 12 : « Nul ne sera l’objet d’immixtions arbitraires dans sa vie privée, sa famille, son domicile ou sa correspondance, ni d’atteintes à son honneur et à sa réputation. Toute personne a droit à la protection de la loi contre de telles immixtions ou de telles atteintes ».
-Convention Européenne des droits de l’homme et de sauvegarde des libertés fondamentales du 4 novembre 1950, article 8 ; Charte des droits fondamentaux de l’Union Européenne du 7 décembre 2000, article 7 : « Toute personne a droit au respect de sa vie privée et familiale, de son domicile et de sa correspondance ». (Retour au texte 6)
7 | Règlement 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation des données à caractère personnel. (Retour au texte 7)
8 | Voir à ce sujet le film documentaire « Democracy » de David Bernet (2015). (Retour au texte 8)
9 | Allard, Laurence, et Frédéric Vandenberghe, 2003, « Express yourself ! Les pages perso. Entre légitimation technopolitique de l’individualisme expressif et authenticité réflexive peer to peer », Réseaux, vol. no 117, no. 1, 2003, pp. 191-219. (Retour au texte 9)
10 | Cochoy Franck (dir.), 2004, La captation des publics. C’est pour mieux te séduire, mon client…, Toulouse, Presses Universitaires du Mirail, coll. « socio-logiques », 297. (Retour au texte 10)
11 | Kessous Emmanuel, Rey Bénédicte, 2009, « La vie privée à l’épreuve de l’économie numérique », in « Traçabilité et réseaux », Revue Hermes, n° 53, 2009, Paris, CNRS Editions, 263 p., pp. 49-54. (Retour au texte 11)
12 | Le fichier EDVIGE (Exploitation Documentaire et Valorisation de l’Information Générale) visait à collecter des données pour la nouvelle sous-direction de l’information générale (issue du démantèlement des Renseignements Généraux). Le décret de création de EDVIGE a été rejeté par de très nombreuses associations s’insurgeant contre plusieurs éléments : la collecte possible de données dès 13 ans en cas de trouble de l’ordre public ; la collecte de données relativement aux personnes ayant « un rôle politique, économique, social ou religieux significatif » ; la collecte d’informations relativement à l’orientation sexuelle, la santé… Le scandale fut assez fort pour qu’EDVIGE devienne EDVIRSP, fichier un peu moins gourmand pour de telles données mais tout aussi contesté (Rey, 2012). (Retour au texte 12)
13 | Kessous Emmanuel, 2012, L’attention au monde, Paris, Arman Colin ; Rochelandet Fabrice, 2010, Économie des données personnelles et de la vie privée, Paris, La Découverte. (Retour au texte 13)
14 | Rouvroy Antoinette, Berns Thomas, 2013, « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », in Revue Réseaux, n°177, pp. 163-196. (Retour au texte 14)
15 | Cardon Dominique, 2015, À quoi rêvent les algorithmes, Éditions du Seuil et La République des Idées, Paris. (Retour au texte 15)
16 | Cohen Daniel, 2022, Homo Numericus. La « civilisation » qui vient, Paris, Albin Michel. (Retour au texte 16)
17 | Exemple : la polémique récente en Grande-Bretagne « Fuck the algorithm » dénonçant les conséquences pour le passage à l’université d’un mode de notation basé en partie sur un algorithme témoigne de ce genre de tensions, où les enjeux relatifs aux données glissent de la vie privée aux choix de vie. (Retour au texte 17)
18 | On peut penser au compte Twitter de Donald Trump en son temps, à ceux de Marine Le Pen ou Jean-Luc Mélenchon, ou autres comptes Twitter et Instagram de Kanye West en octobre 2022 par exemple. (Retour au texte 18)
19 | Cet extrait du site « Caradisiac » liste par exemple quelques-uns des travers possibles : « Ce profilage des conducteurs permettrait de leur imposer le paiement de prestations de maintenance sous peine que leur véhicule soit bridé ou même immobilisé (…) en fonction de ses algorithmes marketing. On peut craindre aussi que des fonctionnalités soient soumises à de coûteux abonnements perpétuels ou que des options soient remises à 0 à tout moment par des fournisseurs de service, notamment en cas de revente. Tandis que dans le cas d’une utilisation professionnelle, le véhicule de fonction serait aussi une pointeuse implicite, horodatant et géolocalisant en permanence son utilisateur. Imaginez que demain, en cas d’alerte pollution ou de couvre-feu, un signal émis par des STIC habilités pourra automatiquement immobiliser à distance des listes entières de véhicules ou même les verbaliser à partir de la seule analyse de leurs datas transmises au réseau ! » (source : https://www.caradisiac.com/donnees-personnelles-et-vehicules-connectes-mobilite-intelligente-contre-vie-privee-186542.htm, visité le 26/08/2022. ) (Retour au texte 19)
20 | Le récent contexte sanitaire a montré comment, même temporairement, des restrictions que l’on n’aurait pas imaginées avant la pandémie ont pu être mises en place et appliquées. De la même manière, les interdictions de circulation en cas de pics de pollution, désormais régulières, sont une nouvelle donne de notre rapport à la mobilité. (Retour au texte 20)