third
Décembre 2024

Best of - Numéro dix

Retrouvez le numéro dix de
Third : Un monde nouveau

sommaire
Third | Décembre 2024

Julien Cloarec, Professeur des Universités à l’iaelyon School of Management de l’Université Jean Moulin Lyon 3.
Entretien du 18 octobre 2024

 
Voir la contribution originelle : Le metavers, de la fin de la vie privée à la fin de l’intimité
 
Third (T) : Depuis votre article, le développement du metavers a connu un certain recul. Comment expliquez-vous ce ralentissement ? Cette technologie a-t-elle encore des perspectives ?

 
Julien Cloarec (JC) : Le recul a été très fort, mais nous pouvons ranger l’échec du metavers au même titre que l’échec des NFT. Cela partait d’une idée de décentraliser le web et de créer de nouveaux espaces de consommation où l’on peut vendre des actifs digitaux. Mais cela ne répondait à aucun problème que se posaient les consommateurs. Autrement dit, le metavers est une solution qui ne résout aucun problème. J’aime beaucoup les interventions de Pablo Rauzy, maître de conférences en informatique à l’université Paris 8, qui explique à ce sujet que créer un système de confiance (idée du web3) là où il n’existe aucune problématique de confiance est parfaitement inutile1.

Le metavers c’est aussi un échec marketing. Meta s’est positionné sur le metavers car ils avaient besoin d’une image de marque forte pour se différencier des autres GAFAM. Mais cela s’est révélé être un échec cuisant, avec un niveau de pertes représentant plusieurs milliards au niveau de Meta qui a été contraint d’abandonner cette stratégie. Toutes les personnes qui s’étaient proclamés experts en metavers ou NFT ont fait de même et se sont reconvertis en experts en intelligence artificielle (IA). En revanche, quelle que soit la technologie développée et la dénomination choisie (IoT, big data, blockchain, NFT, IA…), on reste dans un capitalisme de surveillance2 avec un but constant : récolter les données produites par les ordinateurs pour entraîner des modèles et monétiser les données.

Enfin, s’agissant des perspectives du metavers, il en existe peut-être mais qui ne seront probablement pas grand public. Des acteurs continuent d’investir dans les espaces virtuels, comme Apple avec son casque de réalité virtuelle. Mais l’expérience sensorielle n’est pas optimale, ce qui a même conduit des entreprises à proposer des solutions pour améliorer l’expérience d’utilisation. Des chercheurs continuent également de travailler sur les espaces de réalité virtuelle, notamment ceux de l’université de Münster en Allemagne, qui essayent de déterminer si certains types d’interactions sociales peuvent être plus pertinentes dans le metavers qu’en physique3. Il y aura donc ponctuellement des utilisations du metavers mais probablement pas à grande échelle.
 

T : Dans vos recherches sur le metavers, vous avez exploré la disparition de la vie privée et de l’intimité. Comment cette réflexion se compare-t-elle à vos travaux sur les autres innovations où la collecte des données personnelles joue également un rôle central, comme les appartements connectés ou les véhicules autonomes ?

 
JC : Si l’on aborde en premier lieu l’exemple des appartements connectés, comme pour le metavers, le sujet d’étude est ici encore un lieu de vie avec un fort lien avec l’intime, le chez soi, mais également des problématiques de vie privée qui sont très saillantes.

J’avais mené une étude comparative entre la France, l’Allemagne et la Chine afin d’essayer de comprendre en quoi la peur de la captation des données par des capteurs installés à domicile impactait la confiance accordée au système qui va gérer ces données pour améliorer l’expérience d’habitat4. Nous avons noté des taux de préoccupation relativement différents, mais également que ces taux n’impactaient pas nécessairement la confiance accordée au système de gestion des données. Par exemple, en Chine, les utilisateurs se disent préoccupés par la manière dont les données sont captées à leur domicile mais paradoxalement, cela n’a aucun impact sur la confiance qu’ils accordent au système de gestion des données.

Nous pouvons rapprocher cette étude d’un concept qui vient de la littérature qui s’appelle le privacy paradox5 (paradoxe de vie privée) selon lequel même si les personnes sont préoccupées par la protection de leur vie privée, leur comportement ne reflète pas leur préoccupation ; ce qui est effrayant. Donc, si on se met à la place d’une entreprise qui veut utiliser cette théorie de manière cynique, on arrive à la conclusion que peu importe ce qu’expriment les consommateurs quant à la protection de leurs données, ils ne prendront aucune action qui conduirait à ne plus transmettre leurs données.

Un autre concept connexe est le control paradox6 (paradoxe de contrôle), théorisé en 2013, qui dit que si on donne aux consommateurs ne serait-ce qu’une illusion de contrôle sur leur vie privée, ils vont prendre plus de risques d’exposition de leur vie privée (et notamment plus que s’ils avaient réellement du contrôle sur leur vie privée sans pour autant en avoir conscience). Une chercheuse du MIT, Catherine Tucker, a travaillé sur le control paradox en mettant en place une quasi-expérimentation sur Facebook qui montrait que l’impression de contrôle augmente la performance de la personnalisation publicitaire en ligne7. Les utilisateurs, pensant qu’ils étaient en contrôle, cliquaient davantage sur les publicités alors qu’en réalité ils n’avaient aucun contrôle.

Mon étude comparative a également mis en lumière des différences importantes au sein même de régions culturellement proches. En effet, le taux de préoccupation est beaucoup plus fort en Allemagne qu’en France (où il est déjà élevé). Cela peut s’expliquer par des pratiques différentes. Par exemple, en Allemagne, la couverture de Google Street View est très parcellaire, car il est nécessaire pour Google d’obtenir le consentement de tous les habitants pour cartographier une rue. Donc, au sein d’une région contre l’Europe, censée être homogène, notamment sur la question de la protection des données avec le Règlement Général sur la Protection des Données (RGPD), on a quand même des différences culturelles assez fortes.

Si on s’intéresse aux véhicules autonomes, on peut faire le même constat que pour le metavers et les appartements connectés : les entreprises considèrent cette innovation comme une place de marché et un espace de consommation. Par exemple, une entreprise comme Amazon cherche à se positionner sur les logiciels pour véhicules autonomes et considère également que le temps libéré par l’autonomie du véhicule constituera encore plus de temps disponible pour consommer sur sa plateforme.

La différence entre le métavers et les véhicules autonomes est que, alors que le premier est devenu un sujet d’importance du jour au lendemain, le second s’impose de manière beaucoup plus graduelle. Les recherches Google du grand public sur les véhicules autonomes ont commencé au début des années 2010 et se sont stabilisées à la fin des années 2010. Depuis, nous avons atteint un palier, le sujet reste présent mais sans trop de variations. En outre, la technologie utilisée pour les véhicules autonomes est intrinsèquement graduelle en ce qui concerne le niveau d’automatisation déployé, le niveau 0 étant un véhicule pas du tout autonome et le niveau 5 étant le véhicule complètement autonome sans volant et sans pédales qui vous conduit d’un point à un autre (ce véhicule n’existant pas encore). Actuellement, en Europe, plus de la moitié des véhicules neufs vendus sont de niveau 2, c’est-à-dire qu’ils ont des capacités de semi-automatisation (facilités pour se garer, pour doubler…). Pour arriver au niveau 5, au-delà des défis technologiques, il y a des leviers éthiques. Des chercheurs du MIT et la Toulouse School of Economics ont essayé de comprendre les préférences morales des citoyens à l’égard des véhicules autonomes, notamment sur les règles applicables en cas d’accident8. Cela sera très certainement traduit différemment au sein des trois grands clusters mondiaux (sud, ouest et est) qui ont des préférences morales totalement différentes. Il y aura donc des barrières éthiques et législatives au déploiement des véhicules autonomes, mais comme cette technologie s’impose progressivement et non à marche forcée, son adoption semble plus pérenne.
 

T : Vous avez également étudié les principaux défis éthiques auxquels les délégués à la protection des données (DPO) sont confrontés dans leur rôle de protection des données personnelles. Quelles sont les principaux enseignements que vous tirez-vous de ces travaux ?

 
JC : La fonction de DPO est récente, elle a été créée en 2018 avec le RGPD. Comme toute nouvelle fonction, elle est en quête de légitimité, d’autant plus qu’il s’agit d’un titre honorifique et non d’un métier (le DPO peut tant être un avocat qu’un salarié ayant des fonctions dans un domaine proche des données).

Nous avons sondé quelques centaines de DPO appartenant à des organisations diverses, avec un focus sur les DPO de sociétés qui utilisent les données personnelles à titre lucratif9.

Le premier enseignement de notre étude est lié à la self discrepancy theory (théorie de la discordance). Cette théorie nous explique comment le différentiel entre ce que quelqu’un veut faire et peut faire eu égard aux moyens à sa disposition impacte son comportement. Ce que nous avons remarqué c’est que les DPO ont une éthique personnelle assez forte (et donc des ambitions importantes sur ce qu’ils souhaitent accomplir dans leur rôle). Or, s’ils ne disposent pas des moyens financiers et humains nécessaires pour accomplir leur rôle, ils vont subir une surcharge cognitive forte et se sentir responsables de ne pas pouvoir réaliser leur éthique personnelle, alors pourtant qu’il s’agit d’une responsabilité de l’entreprise.

Inversement, les DPO qui disposent de moyens importants vont développer un sentiment d’auto-capacité assez fort et, par conséquent, leur charge cognitive va être allégée. Autrement dit, leur sentiment de satisfaction va prendre le pas sur leur éthique personnelle dans la détermination de leur comportement. Ce qui va nettement améliorer leur qualité de vie.

Nous avions partagé ces résultats avec l’Association Française des Correspondants à la protection des Données à caractère Personnel regroupe les Délégués à la protection des données (AFCDP) et nous continuons à travailler en bonne intelligence avec eux pour mieux comprendre la pratique du métier des DPO, leurs besoins, et essayer de faire des recommandations aux DPO et aux organisations pour améliorer les conditions de travail des DPO. Il y a toujours un biais au sein de certaines organisations qui vont nommer un DPO car elles pensent en avoir besoin, mais dans le même temps elles craignent que le DPO devienne un obstacle à certains développements de l’entreprise et rechignent ainsi à leur donner les moyens dont ils ont besoin. Paradoxalement, un DPO qui dispose des moyens nécessaires à l’exercice de ses fonctions se sentira mieux dans son travail et sera sans doute plus constructif et conciliant entre son éthique et les intérêts de l’entreprise, là où un DPO privé de moyens érigera des barrières supplémentaires.

On retrouve également ce biais dans le rapport avec les utilisateurs. Certains opérationnels pensent que la transparence avec les utilisateurs sur la récolte et l’utilisation des données va pousser ces utilisateurs à se protéger et à ne plus transmettre leurs données. Au-delà du risque de sanctions légales, les résultats de notre étude montrent au contraire que la transparence crée plus de confiance pour transmettre ses données10.



1. Rauzy, P. (2023). Promesses et (dés) illusions. Une introduction technocritique aux blockchains. Terminal. Technologie de l’information, culture & société, 136. (Retour au texte 1)
2. Zuboff, S. (2020). L’âge du capitalisme de surveillance. Paris, Zulma. (Retour au texte 2)
3. Hennig-Thurau, T., Aliman, D. N., Herting, A. M., Cziehso, G. P., Linder, M., & Kübler, R. V. (2023). Social interactions in the metaverse: Framework, initial evidence, and research roadmap. Journal of the Academy of Marketing Science51(4), 889-913. (Retour au texte 3)
4. Meyer-Waarden, L., Cloarec, J., Adams, C., Aliman, D. N., & Wirth, V. (2021). Home, sweet home: How well-being shapes the adoption of artificial intelligence-powered apartments in smart cities. Systèmes d’information et management26(4), 55-88. (Retour au texte 4)
5. Norberg, P. A., Horne, D. R., & Horne, D. A. (2007). The privacy paradox: Personal information disclosure intentions versus behaviors. Journal of consumer affairs41(1), 100-126. (Retour au texte 5)
6. Brandimarte, L., Acquisti, A., & Loewenstein, G. (2013). Misplaced confidences: Privacy and the control paradox. Social psychological and personality science4(3), 340-347. (Retour au texte 6)
7. Tucker, C. E. (2014). Social networks, personalized advertising, and privacy controls. Journal of marketing research51(5), 546-562. (Retour au texte 7)
8. Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., … & Rahwan, I. (2018). The moral machine experiment. Nature563(7729), 59-64. (Retour au texte 8)
9. Aubert-Hassouni, C. and Cloarec, J. (2022), Navigating Marketing Analytics Governance: Scope and Boundary Conditions of Data Protection Officers’ Self-Accountability, ISMS Marketing Science Conference, Chicago, IL (Retour au texte 9)
10. Cloarec, J., Cadieu, C., & Alrabie, N. (2024). Tracking technologies in eHealth: Revisiting the personalization-privacy paradox through the transparency-control framework. Technological Forecasting and Social Change200, 123101. (Retour au texte 10)

partager cet article
Partager sur

Ce site utilise des cookies d'audience afin d'améliorer la navigation et les fonctionnalités.