THIIRD_LOGO-2
Novembre 2018

Numéro Un

Retrouvez le numéro un de
Third : qui gouverne les
algorithmes?

la revue de Parallel Avocats

Des algorithmes vecteurs de pratiques anticoncurrentielles : vieilles questions économiques et nouvelles incertitudes juridiques

ARTICLE

 

Par Frédéric Marty, CNRS – GREDEG – Université Côte d’Azur

 

La publication de l’ouvrage Virtual Competition d’Ariel Ezrachi et Maurice Stucke en 2016 a renouvelé les questionnements sur la possibilité de voir des algorithmes devenir des vecteurs de pratiques anticoncurrentielles voire, dans certains cas, de véritables inducteurs de celles-ci.

Après la publication de nombreux rapports ou enquêtes sectorielles de la part de la Commission européenne, de l’Autorité de la concurrence, du Bundeskartellamt ou encore de l’OCDE, les algorithmes sont mis en cause dans de nombreuses procédures concurrentielles.

Nous proposons de jauger ces cas et d’envisager d’autres pratiques possibles à l’aune de l’économie industrielle. Si certains des risques concurrentiels peuvent apparaître comme inédits, ils apparaissent en grande partie comme déjà connus en droit et économie de la concurrence.

 

Quelles sont et quelles pourraient être les pratiques anti- concurrentielles qui peuvent reposer sur des algorithmes de prix, de recherche ou d’appariement et de quelle façon peut-on les saisir par la littérature économique ? Notre propos vise à montrer que si les pratiques anticoncurrentielles en cause étaient connues avant le développement d’une économie fondée sur les algorithmes, l’ampleur et l’acuité des problèmes qu’elles peuvent soulever méritent une attention particulière.

Cette contribution se structure comme suit. Nous présentons une vue d’ensemble des pratiques anticoncurrentielles qui peuvent résulter des algorithmes en considérant successivement les pratiques coordonnées et les pratiques unilatérales, en d’autres termes les ententes et les abus de position dominante. Dans chacune de ces deux sections, nous faisons un focus sur une question spécifique : celle de la capacité d’algorithmes à colluder spontanément et celle de la discrimination tarifaire parfaite.

Un panorama des pratiques anticoncurrentielles pouvant s’appuyer sur des algorithmes
 

Les pratiques coordonnées

 
Les pratiques coordonnées visent à neutraliser la concurrence au travers d’un accord entre des opérateurs en concurrence sur le même marché pertinent (collusion horizontale) ou intégrés le long d’une même chaîne de valeur (collusion verticale). Cet accord peut être explicite, il s’agit, selon la configuration, d’un schéma de cartel ou de prix de revente imposés. La collusion peut également être tacite. Ce dernier cas correspond à un schéma d’abus de position dominante collective.

En matière d’ententes horizontales, trois cas de figure peuvent être distingués.

Le premier cas correspond à une entente qui repose sur un algorithme pour sa mise en œuvre (par exemple un algorithme de prix). Ce fut par exemple, le cas dans l’affaire Topkins aux États-Unis en 2015. Des vendeurs concurrents sur la plateforme Amazon utilisaient un même logiciel pour fixer, surveiller et ajuster leurs prix respectifs.

Le deuxième cas répond au concept de hub and spoke conspiracy. Des concurrents évitent de communiquer entre eux sur une base horizontale mais transmettent les informations sensibles nécessaires pour se coordonner à une entité située en surplomb qui les agrège et les transmet à chacun d’entre eux. Ce type de mécanisme pouvait être mis en place bien avant le développement de l’économie numérique. De telles ententes pouvaient passer par des offices statistiques d’organisations professionnelles. Cependant des plateformes d’intermédiation, telles Uber, ont pu faire l’objet de telles accusations aux États-Unis. Sur le principe, une plateforme en position de monopole pourrait fixer le prix des transactions et répartir les marchés.

La dernière modalité d’entente est la plus intéressante. Il s’agit de la possibilité d’atteindre un équilibre de collusion tacite via le jeu spontané des différents algorithmes mis en œuvre par des firmes concurrentes. Dans des marchés traditionnels, la collusion tacite peut émerger dans des marchés étroitement oligopolistiques dans lesquels les concurrents sont très proches en termes de structures de coûts ou de capacités de production. Si les entreprises prennent conscience que toute stratégie visant à maximiser le profit individuel est appelée à être contrecarrée par les concurrents, il se peut qu’elles optent pour la solution « raisonnable » d’une paix armée permettant sinon de maximiser le profit collectif du moins de bénéficier d’« une vie paisible ». Ces équilibres sont difficiles à caractériser et à sanctionner dans le cadre de procédures concurrentielles. Le parallélisme de comportement peut ne participer que d’un ajustement rationnel à des contraintes communes. De surcroît, les concurrents n’ont pas à communiquer d’une façon ou d’une autre dans un tel cas de figure. Des algorithmes capables d’un apprentissage machine auto-renforçant pourraient identifier rapidement le pattern du marché : ( i.e. comprendre ses caractéristiques et les fonctions de réaction des concurrents et converger spontanément vers un équilibre mutuellement profitable sur le long terme ?).
 

La collusion peut-elle procéder spontanément du jeu des algorithmes ?

 
L’avant-propos du rapport d’activité 2017 du Bundeskartellamt 1 témoigne de la crainte des autorités de concurrence de voir se développer des collusions tacites entre algorithmes d’autant plus difficiles à sanctionner qu’elles sont spontanément mises en œuvre par ces derniers sans qu’une intention de colluder n’apparaisse dans le code.

Une abondante littérature a été développée après la présentation d’une possible botled collusion par Ariel Ezrachi et Maurice Stucke. Leur scénario repose sur un ensemble d’hypothèses quant aux capacités des algorithmes à rapidement identifier une stratégie mutuellement profitable et à éviter les biais de coordination qui rendent l’atteinte de ces équilibres difficiles dans le monde réel (et qui les condamnent à une instabilité intrinsèque).

Comme le montre la figure infra, les critiques faites à ce scénario insistent sur la possibilité de voir des intelligences artificielles reproduire des biais humains mais également sur la faible plausibilité même d’atteindre de tels équilibres au travers des algorithmes aujourd’hui utilisés par les entreprises. Une communication entre les algorithmes demeurerait nécessaire sous une forme ou une autre. Reste également à concilier ce scénario avec le foisonnement des prix en ligne sous l’effet des algorithmes de tarification dynamique et des possibilités croissantes de différenciation des prix selon les consommateurs.

Il convient également de s’attacher aux collusions verticales. L’enquête sectorielle de la Commission européenne sur le e-commerce, publiée en 2017, a montré qu’une part très significative des firmes utilise des algorithmes pour surveiller en permanence les prix en ligne et ajuster automatiquement leur stratégie à ces derniers. Ces possibilités peuvent être utilisées dans le cadre de contrôle des canaux de distribution pour éviter des risques de concurrence intra-marque. Dans de telle situation les firmes amont mettent en place des prix de vente imposés (resale price maintenance – RPM). La Commission européenne a infligé le 24 juillet 2018 des amendes à des fabricants de matériels électroniques grand public (Asus, Denon & Marantz, Philips et Pioneer) pour de telles pratiques.
 

Les pratiques unilatérales

 
Les abus de position dominante peuvent également reposer sur des algorithmes. Nous pouvant distinguer en la matière abus d’éviction, abus d’exploitation et même abus de dépendance économique.
 

Algorithmes et abus d’éviction

 
Les abus d’éviction peuvent tout d’abord procéder de la mise en œuvre d’algorithmes de prix. L’identification fine de chaque segment de consommateurs et des stratégies des concurrents peuvent permettre à des opérateurs dominants de s’engager dans des stratégies de prédation d’autant plus efficaces et d’autant moins coûteuses qu’elles sont finement ciblées comme le présente par exemple Lina Khan (2017) dans son article Amazon’s Antitrust Paradox. Le traitement des abus d’éviction passant par les prix est d’autant plus difficile à traiter sur les marchés numériques que les tests de coûts communément appliqués pour déterminer si une pratique de prix est de nature à exclure du marché un concurrent aussi efficace que l’opérateur dominant y sont souvent inopérants.

En effet, comment évaluer au travers de tels critères les stratégies freemium ou les modèles biface dans lesquels la gratuité sur l’un des versants de l’activité est une condition nécessaire pour générer des revenus, par exemple publicitaires, sur le second ? Un moteur de recherche en ligne correspond à ce modèle. Certains services proposés gratuitement peuvent avoir pour effet d’évincer des offres payantes. Au moins partiellement, la décision de la Commission européenne dans l’affaire Android met en jeu une telle problématique. En effet, la pré-installation du navigateur Internet, du moteur de recherche et du magasin d’applications peut être vue comme la contrepartie de la fourniture gratuite du système d’exploitation mobile. La gratuité peut donc tout à la fois être analysée comme la manifestation d’un modèle biface ou la marque d’une stratégie de levier anticoncurrentiel pour étendre ou consolider une position dominante sur une autre base que celle des mérites.

L’abus d’éviction peut également procéder d’algorithmes de recherche ou d’appariement. Le cas Google Shopping (décision de la Commission européenne du 27 juin 2017) est également emblématique de ces risques. Comment rendre un algorithme de recherche redevable quant à ses résultats ? Peut-il faire l’objet de manipulations pour favoriser indûment un service par rapport à un autre ? Google Shopping illustre d’autant mieux les difficultés rencontrées dans la caractérisation des comportements anticoncurrentiels dans le domaine que la pratique met en jeu non seulement un algorithme de classement mais également les corrections qui sont apportées à ses résultats. La démonstration de la pratique anticoncurrentielle s’avère dès lors difficile et la définition des remèdes concurrentiels particulièrement ardue.
 

Algorithmes et abus d’exploitation

 
Au-delà du cas des abus d’éviction, les algorithmes peuvent être les vecteurs d’abus d’exploitation. Un premier exemple, que nous présentons dans l’encadré infra, concerne le cas de la discrimination tarifaire ; un second exemple porte sur les phénomènes de dépendance de marché sur les plateformes numériques que la Commission européenne a pu mettre en évidence et qui ont suscité de sa proposition de règlement d’avril 2018 promouvant l’équité et la transparence pour les entreprises utilisatrices des services d’intermédiation en ligne (règlement dit platform to business).

Les prédictions des économistes quant à l’évolution des prix en ligne allaient dans le sens d’une baisse et d’une convergence de ces derniers, principalement du fait de la transparence propre aux marchés en ligne et à la facilité d’entrée accrue sur le marché pour de nouveaux offreurs. Il apparaît cependant que les capacités de traitement des données massives collectées ou déduites sur les marchés numériques permettent de façon inédite aux entreprises de s’engager dans une micro-segmentation de leurs clientèles pouvant aller jusqu’à une personnalisation des prix voire des offres elles-mêmes (pratiques de versioning).
 

Une discrimination parfaite des prix en ligne ?

 
Trois types de discriminations par les prix sont distingués par les économistes. La discrimination de premier rang a longtemps fait image d’un idéal-type inatteignable en termes pratiques (à l’instar de la collusion tacite présentée supra). La firme pourrait individualiser parfaitement ses conditions et faire payer à chaque consommateur un prix égal à sa propension maximale à payer. Le pouvoir de marché de l’entreprise, lié à son avantage informationnel, lui permettrait de s’écarter du prix de concurrence parfaite et de s’accaparer l’intégralité du surplus du consommateur. A priori, il s’agit ni plus ni moins que de la forme parfaite de l’abus d’exploitation.

Cependant, plusieurs types de difficultés sont à relever pour un traitement concurrentiel de ces pratiques. Tout d’abord, elles sont susceptibles d’accroître le bien-être total. En effet, la discrimination permet d’accroître les volumes échangés à l’équilibre. Elle permet en outre de subventionner des consommateurs qui n’auraient pas eu accès aux biens ou aux services concernés. Ensuite, comment faire la part des choses sur les marchés en ligne entre mouvements des prix résultants de stratégies de tarification dynamique (ex. Uber Surge) et discrimination parfaite ? Enfin, il peut être intéressant de relever que cette discrimination de premier ou plu- tôt de troisième degré reposant sur une granularité particulièrement fine n’a pas besoin de reposer sur des données personnelles. Elle peut s’appuyer sur les ressources fournies par l’intelligence artificielle pour comprendre le marché et ses acteurs et prédire la stratégie optimale à adopter vis-à-vis d’un consommateur dont quelques caractéristiques permettent de le rattacher à tel ou tel segment.

Points clés de la relation Platform to Business (P2B)

 

Algorithme et abus de dépendance économique

 
Le dernier type d’abus pourrait se rattacher à l’abus de dépendance économique. L’enquête sectorielle de la Commission sur le commerce en ligne a mis en exergue la situation de marchands indépendants par rapport aux principales plateformes en ligne. Celle-ci n’est pas si éloignée, comme le montre le schéma ci-contre, de la situation de celle de producteurs par rapports aux centrales d’achat dans la grande distribution. Ceux-ci peuvent faire face à des abus d’éviction dès lors qu’ils font face à une concurrence de produits ou service vendus directement par la plateforme (qui peut être à la fois une place de marché et un opérateur verticalement intégré). La situation est proche de celle de la concurrence entre marques nationales et marques de distributeurs. Ils peuvent également faire l’objet d’abus d’exploitation. L’opacité des algorithmes peut les amener à accepter de souscrire à des mécanismes de type pay-for-ranking. L’impossibilité d’accéder aux données sur les transactions et les consommateurs peut les conduire à utiliser les services (payants) de la plateforme en termes d’analyse des données.

La dépendance des marchands vis-à-vis des plateformes est renforcée par la concentration de ces dernières et la tendance des consommateurs à opter pour un mono-hébergement, c’est-à-dire à n’utiliser qu’une plateforme pour un type d’achat donné. Pour un marchand, chaque plateforme est un verrou d’accès au consommateur. Le déséquilibre contractuel est d’autant plus fort que la plateforme propose des contrats de type take it or leave it aux marchands. Les clauses ne sont pas négociables, sont soumises à des règles de modifications unilatérales et limitent leurs capacités de recours en cas de différends. De plus, la plateforme s’approprie souvent les données. Le marchand ne peut contacter directement ses consommateurs (ni les connaître précisément pour affiner sa stratégie) et compter sur une portabilité de ses données en cas de changement de plateforme.

Ce dernier risque concurrentiel explique le souci croissant exprimé par la Commission européenne vis-à-vis des stratégies des places de commerce en ligne, comme en témoigne, en septembre 2018, l’ouverture d’une enquête préliminaire sur Amazon. Les déséquilibres de pouvoirs économiques dans la sphère numérique conduisent donc à (ré) acclimater en droit eu- ropéen des préoccupations inédites (l’abus de dépendance économique) ou de longue date négligées (l’abus d’exploitation).



1. https://www.bundeskartellamt.de/SharedDocs/Publikation/EN/Jahresbericht/Jahresbericht_2017.html (Retour au texte 1)

partager cet article

Qui gouverne les algorithmes?

EDITO

 

Avec cette question inquisitoire, la revue THIRD invite le lecteur à s’interroger sur cette réalité technologique qui envahit toutes les dimensions de notre vie. Derrière ce titre, l’objectif de ce numéro est de permettre à chacun « d’apprivoiser » les algorithmes dans les opportunités qu’ils créent mais aussi dans les défis qu’ils posent et dans les dangers qu’ils cachent.

Pour sortir des limites des approches mono-disciplinaires, nous avons choisi d’appréhender le sujet en réunissant des experts de différents domaines afin de donner aux algorithmes une attention à la hauteur de la dimension qu’ils ont pris dans nos sociétés.

Il faut commencer par le début en donnant la parole à Daniel Le Métayer (directeur de recherches à l’institut national de recherche en informatique et en automatique) qui nous expliquera pourquoi il est possible et nécessaire de gouverner les algorithmes.

Ce propos est suivi du témoignage de Tristan Nitot (VP Advocacy chez Qwant) sur les dangers des algorithmes pour le respect de la vie privée et sur l’impératif que représente la sauvegarde d’internet comme zone de liberté.

Cette incitation à la vigilance donne un éclairage intéressant aux propos de Nicolas Bustamante (CEO et co-fondateur de Doctrine) qui nous livre sa vision d’entrepreneur à la tête d’une société éditant des algorithmes qui visent à transformer le rapport « Homme / Machine » en décuplant les facultés humaines sur le marché du Droit.

Pour apporter un éclairage différent sur la place des algorithmes dans l’entrepreneuriat, Laurène Tran (enseignante au sein de l’École des Affaires Publiques de Sciences Po Paris) viendra déconstruire le « mythe de l’algorithme tout puissant » en expliquant qu’on ne construit pas une stratégie d’entreprise uniquement sur un algorithme.

Nous explorerons alors l’impact réel, potentiel ou supposé – des algorithmes sur certains cas particuliers. Les vues de Matthieu Cornette (grand maître international d’échecs depuis 2008 et champion de France 2016) sur le bouleversement de son sport précéderont les analyses de Frédéric Marty (CNRS – GREDEG – Université Côte d’Azur) sur les possibles pratiques anti-concurrentielles découlant de l’utilisation d’algorithmes et le décryptage du fonctionnement de l’algorithme public « Parcoursup » par Guillaume Ouattara (journaliste Campus-Channel).

Grâce à Eric Bothorel (député des Côtes d’Armor), et Carole Vachet (adjointe au chef du bureau Épargne et Marchés financiers – Direction Générale du Trésor) nous comprendrons comment, respectivement, le législateur et l’administration appréhendent l’innovation et entendent réguler des phénomènes technologiques complexes.

Les pouvoirs publics sont au cœur d’initatives visant à comprendre la révolution des algorithmes. Cette approche sera décrite par Jacques Serris et Ilarion Pavel (ingénieurs des Mines et membres du Conseil général de l’économie) dans un article consacré à la régulation et aux actions pratiques récemment prises pour gouverner les algorithmes.

Enfin, Parallel Avocats sera ravi de partager ses vues sur la naissance d’un droit des algorithmes, discipline nouvelle en pleine croissance et dont l’avenir s’annonce passionnant.

Nous remercions chaleureusement chacun des contributeurs à ce numéro de THIRD et souhaitons aux lecteurs d’y trouver matière à réflexion et débats.

Nous serons ravis de poursuivre les échanges sur ce numéro de Third (welcome@parallel.law).

Arthur Millerand & Michel Leclerc
Associés fondateurs

Parallel Avocats
www.parallel.law

partager cet article

INTERVIEW

 

Entretien avec Daniel Le Métayer, directeur de recherches à l’institut national de recherche en informatique et en automatique (INRIA)

 

Third (T) : Nous aimerions connaître votre définition de l’algorithme. Une fois cet objet circonscrit, pensez-vous qu’il faille le gouverner ?

 
Daniel Le Métayer (DLM) : Un algorithme est un enchaînement d’opérations et d’instructions qui permet de produire un résultat à partir de données qui lui ont été initialement fournies. Derrière cette définition générale, se cachent des situations très différentes.

Pour être plus précis, on peut distinguer (1) les algorithmes procéduraux qui procèdent de manière séquentielle pour résoudre un problème, à la manière d’une recette de cuisine, et (2) les algorithmes d’aide à la décision qui reposent sur l’intelligence artificielle pour assister l’homme dans une tâche.

Je pense qu’il faut surtout se concentrer sur les algorithmes d’aide à la décision car ce sont les plus complexes. Pour les construire, il faut soumettre au programme informatique des exemples avec le résultat attendu pour qu’il apprenne.

Ensuite, une fois qu’il aura digéré suffisamment de cas, il pourra produire des résultats à partir d’entrées identiques, similaires voire nouvelles selon le degré de complexité du programme. Pour résumer, l’algorithme d’aide à la décision traite des données et produit des résultats qui vont ensuite être utilisés par un humain pour prendre des décisions.

Il faut instaurer des règles pour éviter certaines dérives dans l’utilisation de ces algorithmes. Se protéger contre les dérives est une préoccupation fondamentale pour la protection des personnes physiques (il faut éviter les biais et les discriminations dans la prise de décisions) mais également des entreprises (l’utilisation d’outils informatiques ne doit pas être source de déséquilibres sur le marché).

Les juridictions ont déjà été confrontées à ces enjeux, comme en témoigne la sanction de 2,42 milliards d’euros prononcée par la Commission Européenne contre Google en 2017 pour avoir fa- vorisé Google Shopping dans les résultats des requêtes réalisées par son moteur de recherche. Il y a donc un impact sur le marché car les acteurs peuvent être manipulés pour servir d’autres intérêts que le leur (par exemple, un consommateur peut être privé de choix, enfermé dans une alternative servant les intérêts d’une entreprise ou guidé dans un comportement qui n’aurait pas spontanément été le sien).
 

T : Si on part du principe qu’il est nécessaire d’instaurer des règles, s’agit-il de gouverner l’algorithme en lui-même, son concepteur, son utilisateur ou encore un autre acteur ?

 
DLM : Pour préciser votre question, je parlerai plus volontiers de « système algorithmique » car l’algorithme est inséré dans un ensemble plus large qui lui permet de fonctionner et de produire ses effets. De plus, lorsqu’on parle d’algorithmes d’aide à la décision, on a tendance à oublier la phase de conception et d’apprentissage qui peut être à l’origine de nombreux dysfonctionnements.

De mon point de vue, les règles doivent avant tout porter sur celui qui met sur le marché et/ou qui opère le système algorithmique. Naturellement, l’algorithme n’est pas un sujet de droit mais il doit être un objet de régulation.

Les contraintes doivent donc peser sur les entités juridiques qui mettent l’algorithme sur le marché. Naturellement, en contraignant ceux qui tirent un bénéfice de l’algorithme, on reportera également des contraintes sur l’entité qui conçoit le système puis, indirectement, sur l’outil technologique lui-même. Par ailleurs, on pourrait renforcer les règles de gouvernance en fournissant des explications et des détails sur le fonctionnement du système algorithmique. Cependant, le cœur de la gouvernance doit se concentrer sur la personne centrale qui maitrise le système, c’est- à-dire la société qui le met ou l’opère sur le marché.
 

T : La loi du 6 octobre 2016 « pour une République Numérique » (dite « Lemaire ») met à la charge des opérateurs de plateformes en ligne des obligations d’information et de transparence sur les modalités de référencement, de classement et de déréférencement des contenus sur leur site internet : quel regard portez-vous sur ces obligations ? Faudrait-il étendre la règle à d’autres acteurs ?

 
DLM : Je pense que cette loi va dans le bon sens et que les mécanismes qu’elle prévoit sont vertueux. Parmi les obligations à la charge des opérateurs de plateformes en ligne, il y a celle d’intelligibilité qui impose que les informations concernant le fonctionnement de l’algorithme soient communiquées de manière lisible et intelligible. Cet aspect est déterminant car les utilisateurs ne sont pas des experts et il faut les protéger.

Peut-on être plus précis dans la loi ? À vrai dire, je ne sais pas car les modèles de plateformes sont très variés et il me semble difficile d’instaurer une règle générale.

Expliquer les algorithmes est également toujours compliqué car il y a une grande diversité de mécanismes et certains sont obscurs par construction. Cela ne veut pas dire qu’on ne peut pas fournir des informations plus claires, par exemple sur les « paramètres » qui déterminent la décision de l’algorithme, c’est-à-dire en détaillant davantage les critères décisifs pour les choix de l’algorithme.

On peut aussi imaginer de fournir des informations plus ou moins détaillées selon le public visé (ex : les consommateurs, les autorités, les comités d’éthique…).

Pour aller plus loin, il pourrait être intéressant de travailler sur les critères relatifs au classement : faudrait-il imposer une exigence d’exhaustivité ? Faudrait-il fournir les informations sur la pondération des critères ?

La loi Lemaire fait référence à la notion de « paramètres » sans insister sur celle de « pondération » alors même que cela est déterminant dans le fonctionnement de ces technologies.

D’ailleurs, je souligne que les obligations à la charge des administrations sont définies de manière beaucoup plus précise. Je comprends qu’il soit nécessaire de protéger les citoyens vis-à-vis des décisions de l’administration les concernant mais il n’en demeure pas moins que les obligations à la charge des plateformes pourraient être plus précises en introduisant cette exigence de pondération des critères.

À mon sens, les acteurs soumis à ces règles doivent être prudents dans la manière dont ils se mettent en conformité car les ingénieurs font du rétro engineering (pratique qui consiste à étudier un algorithme pour en déterminer le fonctionnement et la méthode de conception). Par exemple, des études ont été conduites sur Facebook et ont permis de démontrer que les informations fournies aux consommateurs étaient de nature à les induire en erreur car les critères de fonctionnement les plus importants n’étaient pas mis en avant et la liste n’était pas complète.

Il existe un risque que des sociétés fassent preuve d’une fausse transparence, ce qui ne manquera pas de se retourner contre elles.
 

T : Mais comment s’assurer d’une gouvernance effective des algorithmes ? Dans vos travaux, vous évoquez notamment la notion de « redevabilité » : de quoi s’agit-il ? Comment cette notion s’articule-t-elle avec celles de « transparence » et de « loyauté » ?

 
DLM : J’utilise le terme de « redevabilité » comme une traduction du terme anglais « accountability », lequel n’a pas de véritable équivalent en français. L’idée sous-jacente est de rendre des comptes et d’être responsable, ce qui peut prendre plusieurs formes. En effet, la transparence (par la fourniture d’informations sur la conception et le fonctionnement de l’algorithme), l’intelligibilité (par le biais d’explications et d’efforts de pédagogie) ou la loyauté (au sens de la « fairness » de la langue anglaise) sont autant de manières de rendre compte.

Cette notion de « redevabilité » me parait tout à fait appropriée car elle met au cœur des règles la capacité d’un acteur à être en mesure de justifier de la manière dont ses algorithmes sont conçus et que les finalités poursuivies sont précisément déterminées.

Pour mettre en œuvre cette notion, il me semble qu’il faille faire peser des exigences sur les personnes qui mettent les algorithmes sur le marché. On peut faire un parallèle avec le droit des données personnelles, en particulier le règlement européen du 27 avril 2016 (RGPD), qui utilise la même notion de « accountability » et de nécessité de démontrer sa conformité aux règles.
 

T : Et la notion de « neutralité », a-t-elle du sens pour un algorithme ?

 
DLM : Je serais méfiant vis-à-vis de l’usage de ce terme en relation avec les algorithmes. Par définition, un algorithme a vocation à hiérarchiser et classer, ce qui exclut la notion de « neutralité ». Je préfère dire qu’il ne doit pas être biaisé par rapport à certains critères et qu’il ne doit pas être discriminatoire.
 

T : Une fois qu’on a fixé les principes de redevabilité et de transparence à la charge de ceux qui mettent sur le marché des algorithmes, il faut vérifier que les opérateurs mettent en place des mesures pratiques pour respecter ces règles. Comment vérifier cela en pratique ?

 
DLM : C’est effectivement l’étape suivante du raisonnement. Si on dit que les opérateurs d’algorithmes sont redevables, il est légitime de s’interroger sur la mise en œuvre pratique de ce principe, en particulier en présence d’une réalité technologique complexe. À mon sens, cela passe par l’audit des algorithmes par des tiers indépendants et l’adoption de standards pour assurer une vérifiabilité des algorithmes.

Pour être complet, l’audit d’un système algorithmique doit porter sur (1) l’avant (c’est-à-dire la conception et les données d’apprentissage), (2) le pendant (c’est-à-dire l’analyse du fonctionnement effectif et du code en lui-même) et (3) l’après (c’est-à-dire l’analyse a posteriori des logs d’exécution).
 

T : Au-delà de cette méthodologie, pensez-vous que des standards seront adoptés ? Ne risquerait-on pas de brider l’innovation en limitant les possibilités des opérateurs économiques dans la manière de créer des algorithmes ? Si des standards étaient fixés, quelle serait l’autorité en charge de les déterminer ?

 
DLM : Sur ce point, je suis d’avis de séparer deux rôles : (i) d’un côté celui de garant des principes et (ii) de l’autre côté celui d’auteur des normes contraignantes. Pour le premier, il faut mettre sur pied un comité d’éthique qui a vocation à animer des débats et à établir une ou plusieurs chartes sur les questions clés relatives aux algorithmes. Pour le second, il faut adopter une logique d’audit et de certification.

Cependant, comme je le disais, il est très difficile de légiférer et de créer des standards généraux sur les algorithmes, de sorte que je ne crois pas qu’il soit possible, ni même souhaitable, d’avoir une autorité unique ou un certificateur de référence. En revanche, dans des secteurs très identifiés, il est possible d’imaginer des mécanismes de certification qui permettent de se rapprocher des pratiques existantes.

Par exemple, en matière médicale, il existe déjà une logique de certification pour les dispositifs médicaux et donc, pour les algorithmes, il serait intéressant que ces contrôles s’insèrent dans le cadre actuel. C’est également vrai dans le domaine de l’éducation où des logiciels déterminent l’affectation universitaire des étudiants à la sortie du lycée.

Il est nécessaire qu’une autorité indépendante de certification atteste du fonctionnement de ces algorithmes et du respect des règles en vigueur.
 

T : Si cela semble relativement facile à mettre en œuvre pour les algorithmes procéduraux (ceux qui sont une suite d’instructions), comment traiter ceux qui aident à la prise de décision : est-ce qu’il est nécessaire qu’un humain intervienne ? Peut-on laisser des algorithmes prendre des décisions seuls s’ils sont certifiés ?

 
DLM : C’est une question fondamentale mais la réponse ne relève pas tant de l’informaticien que du législateur. En effet, il s’agit d’un véritable choix de société : est-il légitime que des décisions importantes (comme l’octroi d’un prêt ou une décision de justice) soient rendues de manière 100% automatisée ?

Aujourd’hui, il n’y a pas de réponse pour les algorithmes. En revanche, nous pouvons faire un parallèle avec les données personnelles car il est désormais admis que toute personne a le droit de ne pas faire l’objet d’une décision automatisée lorsqu’elle a un impact significatif.

Pourtant, il existe déjà des algorithmes qui prennent, de manière totalement automatisée, des décisions qui nous affectent. Par exemple, les métros automatiques affectent de manière significative la vie des usagers mais on admet que ces algorithmes sont conçus avec suffisamment de précautions pour réduire le risque d’accidents. À ma connaissance, il n’y a jamais eu d’accidents en France avec des métros automatiques. Cela fonctionne très bien car, en amont, des moyens considérables ont été mobilisés pour s’assurer que les risques étaient minimisés.

C’est beaucoup plus compliqué lorsque la décision implique d’appréhender une personne humaine. Des exemples parlants sont la décision de justice et la décision médicale. Les choix à effectuer excèdent les capacités d’une machine qui ne peut pas apprécier la situation dans sa globalité et dans toute sa complexité. Pour ces cas spécifiques, il faut un humain dans la chaîne de décision car il serait trop dangereux de faire autrement.
 

T : Ce que vous dites nous inspire une question plus large : les systèmes automatiques modifient ils le comportement humain ? Nous rendent-ils moins intelligents ?

 
DLM: Cela dépasse mes compétences d’informaticien mais, à titre personnel, je considère que c’est un grand risque.

Pour s’en convaincre, il n’y a qu’à observer l’impact des logiciels d’aide à la navigation sur notre sens de l’orientation. En s’asseyant dans sa voiture, on ne se pose même plus la question de la destination et on rentre machinalement une adresse sans appréhender ou réfléchir à la géographie. Ce faisant, on se repose intégralement sur la technologie et, quelques fois, à tort…

Dans d’autres domaines, on peut imaginer des questions très sérieuses et graves concernant l’usage d’algorithmes d’aide à la décision. Prenons l’exemple d’un médecin qui utilise un outil d’aide au diagnostic ayant la réputation d’être très fiable. Qui osera prendre une décision contraire à la machine ? Plus l’humain utilisera l’algorithme, plus il sera conservateur dans sa prise de décision.

Il me semble déterminant que les professionnels qui utilisent ces outils soient informés des critères de fonctionnement pour les critiquer et, le cas échéant, s’en départir.

partager cet article

INTERVIEW

 

Third (T) : Pourriez-vous présenter les grandes étapes de votre parcours dans le numérique ?

 
Tristan Nitot (TN) : Je suis tombé très jeune dans le numérique, à l’époque on disait l’informatique. À 14 ans, j’ai commencé à programmer et j’ai voulu en faire mon métier.

En 1997, je suis rentré chez Netscape et, en 1998, le projet Mozilla a été annoncé. Ce projet consistait à ouvrir le code source du navigateur pour permettre son amélioration par la communauté des internautes. Ce fut un véritable bouleversement de l’ordre établi car cela donnait un accès libre à l’actif essentiel (le code source) et qu’on mettait en avant la collaboration, ces deux dimensions étant contraires à l’approche utilisée dans l’ensemble de l’industrie et de en particulier chez le leader du marché, Microsoft.

Si beaucoup de gens n’ont pas compris la démarche (y compris chez Netscape), cette approche m’a tout de suite séduit car j’utilisais déjà des logiciels libres et je côtoyais cette communauté. L’idée de Mozilla m’est apparue extraordinaire et, avec le recul, je dirais que c’était révolutionnaire.

C’était une nouvelle manière de créer de la valeur que je qualifierais « d’utopie en marche » : chaque personne qui améliore le logiciel contribue au bien commun de la communauté des utilisateurs. Ce projet était d’autant plus important qu’il s’agissait du navigateur, c’est-à-dire de la pierre angulaire permettant d’accéder au web.

J’ai trouvé cela fascinant et j’ai décidé de mettre mon énergie au service de ce projet. En 2003, le projet Mozilla s’est autonomisé de Netscape et le 9 novembre 2004, le navigateur Firefox est sorti. En quelques années, il y a eu plus de 500 millions d’utilisateurs et cela a validé le modèle du logiciel libre tout en donnant de nouvelles perspectives à la navigation sur le web.
 

T : Internet est une zone de liberté et d’épanouissement. Pourtant vous avez récemment dénoncé la surveillance de masse et insisté sur la nécessité de protéger la vie privée des utilisateurs : quel regard portez-vous sur les récentes évolutions d’internet ?

 
TN : Avant toute chose, je suis un enthousiaste d’internet car c’est une zone de liberté inouïe. J’aime beaucoup la notion de « cyber-espace » car elle transmet l’idée d’une zone infinie dont on peut faire la découverte.

C’est d’ailleurs ancré aux origines car Tim Berners-Lee, l’inventeur du web, a voulu créer un endroit où les gens pouvaient partager et publier leurs idées. Cependant, il n’avait pas anticipé le mouvement de monétisation des contenus et la nécessité, pour les entreprises, de financer le développement des applications et leur fonctionnement.

Aujourd’hui, les revenus proviennent essentiellement de la publicité ciblée qui implique une collecte massive de données personnelles.

Avec les révélations d’Edward Snowden, on s’est rendu compte que tous les utilisateurs laissent des traces sur internet et qu’elles pouvaient être exploitées pour surveiller les citoyens. La publication des documents de la National Security Agency (NSA) a mis à jour une forme de surveillance généralisée des citoyens basée sur la collecte de leurs données. De la même manière, les GAFA participent à la mise en place de cette surveillance et assurent l’hégémonie commerciale des États-Unis.

À mon sens, le problème majeur provient du fait que (i) les utilisateurs ne sont pas éduqués aux dangers du numérique et (ii) qu’il y a une injonction permanente d’avoir recours aux outils numériques. On encourage des usages massifs sans que les consommateurs ne soient en mesure de comprendre que leurs données sont collectées et utilisées. Par exemple, on vante le prix des téléphones Samsung par rapport à ceux d’Apple mais personne n’insiste sur la pré-installation de toutes les applications de Google sur les premiers, qui sont de véritables mouchards.

Les utilisateurs ont de plus en plus recours à des produits gratuits (ou moins chers) car la vraie valeur réside dans les données personnelles qui sont collectées à des fins publicitaires.
 

T : Ce que vous expliquez fait écho à l’adage « si c’est gratuit, c’est vous le produit ». Si tel est le cas, Qwant étant gratuit, doit-on en déduire que les utilisateurs sont le produit ?

 
TN : Étant donné la concurrence, Qwant fournit un service gratuit car les utilisateurs ne comprendraient pas de devoir payer pour un moteur de recherche. Par conséquent, il a fallu trouver un mode de financement car il s’agit une entreprise privée qui doit développer son infrastructure informatique et gagner de l’argent. Dans cette perspective, il a été décidé d’avoir de la publicité contextuelle mais pas de la publicité ciblée. Chez Qwant, la publicité dépend de la requête (le mot clé saisi) et pas de l’utilisateur, de sorte que ses données personnelles et sa vie privée sont protégées.

Par exemple, toute personne qui cherche le mot « vélo » sur Qwant verra la même publicité. Certes les revenus sont moins importants pour Qwant mais la vie privée des utilisateurs est protégée.

Cette approche est l’expression du principe de « neutralité des résultats », c’est-à-dire que les résultats et les publicités sont les mêmes pour tous les utilisateurs effectuant une requête similaire. Il ne faut pas le confondre avec la « neutralité du net » qui se situe au niveau des fournisseurs d’accès à internet. Ce principe fondateur signifie que toute personne peut avoir accès au contenu sans être discriminé et sans demander l’autorisation en amont.

L’abolition de ce principe aux États-Unis me fait froid dans le dos car il n’y a plus d’égalité d’accès au réseau entre les utilisateurs et les libertés s’estompent. Je prends un exemple pour qu’on se rende compte de ce que cela signifie en pratique. En août dernier, alors que d’immenses incendies ravageaient la Californie, la société Verizon (un opérateur téléphonique) a réduit le débit internet des pompiers car ils utilisaient plus de data que leur forfait ne le permettait. Or la limitation de la bande passante a eu un impact direct sur les outils informatiques des soldats du feu, ce qui les a rendus moins performants dans la gestion de la crise.

La vigilance s’impose face aux nouvelles technologies car les dérives sont vite arrivées.
 

T : La vigilance incombe à chacun mais comment faire cette vérification sans se contenter de l’apparence ? Est-ce en explorant et contrôlant l’algorithme pour savoir exactement ce que font les opérateurs ?

 
TN : Effectivement, il me semble important d’être attentif à cela.

En informatique, un algorithme est une méthode, une séquence d’actions qui donne un résultat. Analyser l’algorithme d’un produit revient à prendre connaissance du mode d’emploi et à comprendre son fonctionnement.

Cependant, aujourd’hui, dans le langage commun, lorsqu’on utilise le terme « algorithme » j’ai l’impression qu’on fait plutôt référence au machine learning. Il s’agit du mécanisme par lequel la machine prend des décisions à partir d’un protocole pré-déterminé et d’un apprentissage à partir d’un ensemble de données. Dans cette configuration, il n’est pas possible d’expliquer comment la décision a été prise car on passe tout de suite au résultat sans que la machine ne détaille les étapes du raisonnement.

C’est un véritable sujet car on ne peut pas expliquer pourquoi ou comment les décisions sont prises. C’est d’autant plus problématique que ces algorithmes complexes peuvent être porteurs de biais dans leur conception ou leur fonctionnement.

Prenons l’exemple d’un algorithme qui étudie les dossiers de patients atteints d’un cancer du poumon et qui conclut que les asthmatiques ont de meilleures chances de guérison que les autres. C’est très bien mais l’algorithme qui analyse le critère « asthme » par rapport au résultat « guérison/non guérison » ignore que les asthmatiques sont structurellement plus suivis que le reste de la population, de sorte que les cancers sont statistiquement détectés plus tôt. Il pourrait donc y avoir un effet pervers à l’utilisation de cet algorithme car une mutuelle pourrait être vendue plus chère à des non asthmatiques.

Les algorithmes sont créés par des entreprises qui ont leurs propres intérêts, lesquels divergent avec ceux du public.

Pour éviter des situations non désirées, il me semble impératif d’introduire le maximum de transparence dans les algorithmes, en particulier le code source, tout en investissant dans la recherche visant à faire du machine learning explicable.
 

T : Vous évoquez la transparence : que mettez-vous derrière ce terme ? Est-ce toujours désirable d’être transparent ? Pourquoi pourrait-on l’exiger des entreprises (transparence de leurs codes informatiques) et pas des individus (droit à la dissimulation) ?

 
TN : Tout d’abord, je pense que plus il y a de transparence, mieux c’est. Ensuite, il faut bien distinguer le domaine étatique (régalien) du domaine privé (les entreprises).

En ce qui concerne le premier, le citoyen a le droit de savoir comment sont prises les décisions le concernant (en particulier lorsqu’elles concernent ses droits et libertés). Autrement, cela signifie qu’on est dans l’arbitraire et que l’État n’est plus redevable vis-à-vis des citoyens, ce qui revient à dire qu’on n’est plus en démocratie. La publication du code source de « Parcoursup » est un excellent exemple de la nécessité d’expliquer les décisions étatiques prises à l’aide d’algorithmes.

Pour la sphère privée, il faut faire la distinction entre « transparence » et « rendre public ». Il est impératif que les fournisseurs de technologies soient en mesure de détailler la logique et le fonctionnement de leurs algorithmes, notamment pour pouvoir être audités et contrôlés.

Cependant, cela ne veut pas dire qu’il faut que ce soit public car on pourrait arriver à un résultat différent du but recherché.

À titre d’illustration, le code du moteur de recherche de Qwant n’est pas open source. Ce n’est pas une contradiction mais une précaution. En effet, si tout le monde connaissait les critères de classement alors il serait possible de contourner les règles. En d’autres termes, en rendant public le code source nous échouerions dans la délivrance du service de qualité que nous voulons pour nos utilisateurs (en particulier, des listes de résultats pertinents et une recherche respectueuse des données personnelles). Cette part d’obscurité des algorithmes nous sert chez Qwant mais nous sommes capables de répondre du fonctionnement de notre produit si une autorité nous le demande.
 

T : Ces décisions sont prises par des opérateurs privés et le citoyen est souvent désemparé face aux puissances algorithmiques. Peut-on réellement faire la balance des intérêts lorsqu’on est utilisateur ?

 
TN : L’éducation au numérique est la clé pour éviter les effets pervers des algorithmes.

Aujourd’hui les utilisateurs ne se rendent pas compte des conséquences de leurs actions.

Il faut leur apprendre (en particulier, les enfants) à faire la part des choses concernant les outils numériques. Il faut prendre du recul afin de prendre conscience que les intérêts des entreprises éditant ces solutions ne sont pas forcément alignés avec ceux des utilisateurs.

Par conséquent, je crois qu’il faut instaurer une véritable « hygiène » pour le numérique, comme cela existe à des fins sanitaires. On peut faire le parallèle avec les microbes : il y a plusieurs siècles on ne les voyait pas et ils n’existaient pas pour les hommes. Avec le développement de la science et de la médecine, on s’est rendus compte qu’il était bon de faire certains gestes (par exemple, se laver les mains).

C’est pareil pour le numérique et je pense que l’humanité va intégrer des réflexes d’hygiène. On pourrait imaginer qu’un jour, les internautes ne se serviront plus de Google car c’est « sale » en raison de la collecte massive de données personnelles.

Les utilisateurs doivent être formés en vue d’être responsabilisés.
 

T : Mais les utilisateurs sont intégrés à un monde global qui a sa propre inertie, de sorte qu’il peut être vain d’espérer que les usages vont permettre d’« assainir » l’utilisation d’internet. Voyez-vous d’autres actions possibles ?

 
TN : Bien sûr, je vais en citer deux.

La première est de développer des algorithmes performants et respectueux des intérêts des utilisateurs. On peut donc développer des alternatives comme Qwant (qui ne captent pas les données personnelles) ou Firefox (qui fonctionnent sur le modèle du logiciel libre). Cependant, ces modèles sont moins complets pour l’instant car ils sont moins rentables et qu’ils coûtent cher à construire.

La seconde réside dans les choix que les ingénieurs peuvent faire dans leurs carrières. Puisqu’ils sont la cheville ouvrière du numérique, les ingénieurs doivent avoir une conscience et participer à des initiatives éthiques. Il est possible de créer des outils respectueux et il faut être acteur de la construction d’un web meilleur qui met au cœur de son projet les précautions de respect des droits des utilisateurs.

Chacun a un rôle à jouer et internet est un actif commun qu’il faut construire ensemble.
 

T : Dans cette perspective, la régulation a un rôle à jouer. Quel regard portez-vous sur la régulation du numérique ? Les choses vont-elles dans le bon sens ?

 
TN : Voilà une question difficile ! À vrai dire, je n’ai pas de réponse précise.

Réguler le numérique n’est pas simple car les opérateurs sont beaucoup plus rapides que le législateur. Il a fallu 10 ans pour que le RGPD entre en application alors que les smartphones existent déjà depuis 11 ans… le monde change tellement vite qu’il est difficile d’imaginer des règles et, lorsqu’on le fait, il est parfois vain de penser que ces normes seront adaptées à la réalité opérationnelle.

Je pense que le régulateur part avec des boulets aux pieds vis-à-vis des industriels du numérique et que la dimension mondiale de ces sociétés introduit d’importantes disparités qui rendent les choses plus compliquées encore.

Malgré ce handicap structurel difficile à compenser, je pense que le niveau pertinent pour la régulation est celui de l’Union Européenne, et le RGPD est un bon début. Cela prendra du temps mais on y arrivera. Dans l’intervalle, c’est l’éducation qui doit prendre le relais.

partager cet article

Article

 

Par Nicolas Bustamante, CEO et co-fondateur de Doctrine (www.doctrine.fr)

 

L’enjeu principal des professionnels du droit, hier, aujourd’hui comme demain est d’obtenir les informations les plus pertinentes pour défendre et conseiller leurs clients, et prendre les bonnes décisions. Dans un contexte d’inflation législative où de nouvelles lois apparaissent, et où le volume de décisions et commentaires explose, cet enjeu peut devenir problématique. Les algorithmes sont là pour résoudre cette difficulté.

 
L’intelligence artificielle, qui repose sur du code informatique, apporte toute sa valeur en transformant un problème en une opportunité sans précédent. En traitant d’importants volumes de données bien plus rapidement que ne le peut le cerveau humain – l’intelligence artificielle facilite le quotidien car c’est un outil précieux d’aide à la recherche d’informations, à la définition de stratégies grâce à l’exploitation massive de données ou encore à la prise de décisions.

La justice est en train de connaître le même bouleversement que l’information a vécu à l’échelle mondiale il y a 20 ans, lorsque deux chercheurs de Stanford découvraient que l’information disponible sur internet pouvait être rendue plus accessible. La recherche des informations disponibles sur le web était alors dominée par les moteurs AltaVista et Yahoo!, dont le fonctionnement reposait principalement sur l’analyse de mots-clés : la page contenant le plus d’occurrences de la requête était la première dans la page de résultats.

La grande réussite de Larry Page et Sergey Brin, les deux cofondateurs de Google, fut de mettre de l’ordre dans la masse de données disponibles sur Internet et de permettre aux résultats les plus pertinents d’être identifiés.

L’algorithme de Google consiste à déterminer la réputation d’un site en prenant en compte une multitude de critères, parmi lesquels figurent principalement les liens vers ce site provenant de sites tiers, associés à la réputation de ces sites tiers eux-mêmes. Google définit ainsi un maillage réputationnel qui permet d’afficher non pas le résultat comprenant le plus d’occurrences du mot-clé recherché, mais celui qui est le plus reconnu par le public comme étant pertinent pour ce mot-clé.

L’arrivée de Google a bouleversé la façon dont internet fonctionnait, puisque la quantité d’informations disponibles sur le web, gigantesque et en perpétuelle croissance, était désormais triée et organisée pour que le public puisse y accéder simplement.
 

L’impact positif de l’intelligence artificielle sur l’information juridique

 
De la même manière que les algorithmes de Google comprennent les liens sous-jacents entre différentes informations, l’objectif des algorithmes de Doctrine est de comprendre les textes de lois et les décisions de justice pour pouvoir les indexer de manière pertinente.

Le droit est une matière particulièrement propice à la mise en œuvre d’un tel système de recherche car, comme sur Internet, les textes de lois et les décisions de justice reposent sur un maillage étroit de liens et de références. Cependant, au contraire d’internet, ces entrelacements ne sont pas des liens cliquables visibles aisément dans le code d’un site web : il s’agit de citations, de références, de renvois incorporés dans le corps des textes de loi ou dans les décisions de justice. Même lorsque ces liens sont explicites, comme un renvoi à un autre article du même code ou le visa d’une décision de justice, ils n’en restent pas moins rédigés en langage dit « naturel », et non pas dans le langage informatique (le code), de sorte qu’il faut le faire déchiffrer à la machine. Ce qui rend la tâche plus complexe est que, très souvent, les références les plus essentielles sont implicites ou du moins peu évidentes pour un œil non initié.

Par ailleurs, il ne suffit pas seulement d’identifier la référence à un autre texte ou une autre décision : il faut également comprendre cette référence et le contexte dans lequel elle s’inscrit. De nombreuses décisions vont ainsi citer un texte pour en exclure l’application ou faire référence à une jurisprudence pour mettre en exergue des différences. Dans de tels cas, il serait malvenu de lier les textes en question par un lien de connexité, or c’est précisément ce qui arriverait lors d’une analyse par un moteur de recherche classique par mot-clé. Le développement d’un moteur véritablement pertinent pour la recherche juridique dépend donc non seulement de l’identification des liens entre les textes et décisions de justice, mais également de la compréhension du contexte par la machine.

Champ de recherche infini, l’intelligence artificielle va plus loin que le simple algorithme qui suit une série d’instructions « simples » pour arriver à un résultat moyen comme c’est le cas pour une recherche par mot clé par exemple. Les algorithmes « intelligents » consistent à traiter des problèmes mathématiques non pas par une série de conditions comme traditionnellement en informatique mais avec des méthodes tentant d’imiter un raisonnement humain, comme le traitement du langage naturel (Natural Language Processing dit « NLP »). En particulier, les méthodes dites d’apprentissage machine (machine learning) et d’apprentissage profond (deep learning) ont permis des avancées sans précédent, en permettant à des algorithmes « apprenants » de s’améliorer au fur et à mesure des itérations. Ils sont capables de s’imprégner d’exemples et de construire des règles de corrélation implicites, déduites lors d’un apprentissage supervisé par l’humain (machine learning) ou non (deep learning).

Il est important de différencier deux types d’intelligence artificielle qui reposent sur des mécanismes algorithmiques très différents.

Tout d’abord, l’intelligence artificielle dite « faible » qui imite un comportement intelligent dans un domaine précis et peut résoudre des problèmes, voire apprendre, mais ne fait que « délivrer » sur la base d’instructions précises données par l’humain en amont. Ce premier type d’intelligence artificielle n’est pas conçue pour évoluer seule.

En revanche, l’intelligence artificielle dite « forte » implique que la machine fasse preuve de créativité et d’adaptation, qu’elle ait une conscience de ses propres raisonnements. Si vous avez vu le film Matrix, vous avez une idée plus précise de ce qu’est la version diabolique de ce type d’intelligence artificielle !

Les progrès algorithmiques réalisés ces dernières années dans l’intelligence artificielle permettent désormais d’appréhender le langage juridique et le maillage de liens et de références issu de la lecture attentive des textes et des décisions de justice. L’objectif est d’imiter autant que possible le raisonnement d’un juriste face à des textes afin que la machine produise un résultat similaire en toute autonomie.

De tels outils ne peuvent cependant exister sans accès à d’importants volumes de données juridiques, et ce pour principalement deux raisons.

Tout d’abord, il est nécessaire que ces outils disposent des données les plus exhaustives possibles, afin de ne pas induire les utilisateurs en erreur : il est donc essentiel que toutes les données soient disponibles et accessibles afin que le service ne desserve pas ses utilisateurs en leur fournissant une information incomplète.

Par ailleurs, l’amélioration des modèles d’intelligence artificielle nécessite d’avoir à disposition une base de données aussi large que possible, afin de confronter le modèle d’intelligence artificielle à un très grand nombre de cas et pouvoir ainsi le peaufiner en fonction de la diversité des situations.
 

Construire le futur du droit avec l’intelligence artificielle

 
Dans le domaine juridique, l’intelligence artificielle deviendra donc de plus en plus performante grâce à l’open law mouvement qui consiste à permettre la diffusion et la réutilisation gratuites des décisions de justice (principalement celles rendues par les tribunaux d’instance et de grande instance, des conseils de prud’hommes et des tribunaux de commerce) qui a été consacré par la loi du 7 octobre 2016 pour une République numérique (dite « loi Lemaire »). Grâce à cette ouverture du droit, le volume de données à traiter va passer de plusieurs centaines de milliers de nouvelles décisions de justice par an à plusieurs millions !

Et lorsque l’on sait qu’un moteur de recherche traite des millions de décisions par seconde pour remonter les plus pertinentes à l’avocat, on peut sereinement penser que le futur promet de beaux jours à la recherche juridique. À titre d’exemple, l’algorithme de Doctrine permet actuellement de traiter environ 3 millions de décisions par seconde.

Cependant, les applications de l’intelligence artificielle ne se limitent pas à la simple recherche d’informations. Elle peut également servir à personnaliser les outils juridiques à la pratique de chaque personne, comme par exemple par le biais d’alertes personnalisées lors de nouveaux développements sur des points de Droit précis, identifiés en fonction des recherches d’une personne.

L’ambition de l’application de l’intelligence artificielle n’est donc pas de prédire la justice, ce qui ne paraît ni souhaitable, ni pos- sible car l’homme doit rester la clé de voûte du système judiciaire. L’ambition est de faciliter le quotidien des professionnels du droit en leur donnant accès rapidement à de l’information pertinente, fiable, analysée afin de conseiller et défendre au mieux leurs clients et interlocuteurs.
 

Qu’est-ce que cela signifie réellement pour le futur des avocats ?

 
La réponse est simple : les algorithmes ne remplaceront pas les avocats, ils travailleront pour eux. S’il fallait le résumer en une approche mathématique, elle serait : Homme + Machine > Homme. En ce sens, on peut parler plus volontiers d’intelligence augmentée que d’intelligence artificielle.

En résumé, l’intelligence artificielle organise l’information juridique pour la rendre rapidement accessible et pertinente. Les algorithmes centralisent et hiérarchisent l’information disponible, reconstruisant l’écosystème d’une décision de justice ou d’un texte de loi. Ce faisant, l’information juridique est à portée de main pour le professionnel du droit. En utilisant un moteur de recherche alimenté par l’intelligence artificielle, il est désormais capable de trouver l’information clé, à chaque fois et en un minimum de temps.

L’objectif doit être d’assurer une complémentarité entre l’humain et l’intelligence artificielle. C’est précisément le but de Doctrine qui développe un moteur de recherche basé sur le traitement du langage naturel et de l’intelligence artificielle, grâce à son système de recommandations auto-apprenant.

Il appartiendra cependant aux professionnels du droit de prendre les bonnes décisions sur la base des informations remontées par l’intelligence artificielle.
L’avocat est et restera responsable de ses actions et conseils.

Grâce à ce soutien technique, les professionnels du droit peuvent se concentrer sur des tâches à forte valeur ajoutée et renforcer les liens avec leurs clients. De plus, en améliorant l’accès aux services juridiques, l’intelligence artificielle permet à des dizaines de millions d’individus et de petites entreprises d’avoir accès au droit. Dans ce contexte le métier d’avocat sera au centre d’une demande de droit en croissance et bénéficiera d’une notoriété et d’une influence grandissante.

partager cet article

ARTICLE

 

Par Laurène Tran, enseignante au sein de l’Ecole des Affaires Publiques de Sciences Po Paris

 

Les hommes vivent et pour vivre il leur faut se raconter des histoires.
L’irruption sur la scène des algorithmes est du pain béni pour dérouler nos automatismes : Numérique = (R&D) + (barbarie / fin de la civilisation). Aux ingénieurs et aux intellectuels critiques le monopole du discours sur le numérique et les algorithmes !

 
Sans vouloir occulter l’importance de certaines discussions essentielles qui sont à l’honneur dans ce numéro, reconnaissons que le pouvoir des algorithmes est certainement le plus visible dans la manière dont nos imaginations ont été captées. Aujourd’hui, le risque est grand que les aspirants entrepreneurs et ceux qui observent les stratégies d’entreprises surestiment la puissance des algorithmes dans leur grille de lecture.

Le présent article ne cherche pas à vous dire si vous devez aimer ou haïr les algorithmes. Le but est de montrer, tant pour les investisseurs que pour les entrepreneurs, qu’on ne bâtit pas une stratégie d’entreprise sur l’algorithmique.
 

Entre algorithmes et données : la percée de l’intelligence artificielle

 
Les idées fondamentales sur l’intelligence artificielle remontent aux années 1950. Pourtant nous n’en voyons les conséquences pratiques que maintenant. Pourquoi ? Car, comme dans tout paradigme techno-économique1, il faut d’abord que la technologie se banalise pour se diffuser. Et, l’intelligence artificielle s’est banalisée grâce à une plus grande disponibilité de jeux de données de haute qualité et une puissance de calcul dont le prix baisse tout les ans 2.

Le cas Netflix montre que l’intensité algorithmique du service rendu est inversement proportionnelle à l’intensité de la collecte de données. En 2009, Netflix a offert un million de dollars à une équipe de développeurs ayant créé un algorithme augmentant de 10% la précision du moteur de recommandation.

Finalement, Netflix a choisi de ne pas utiliser ce code car, au même moment, le modèle était en train de pivoter vers le visionnage en streaming 3.

L’algorithme de recommandation avait cessé d’être une pièce centrale car le streaming permettait de collecter assez de données pour affiner la qualité des recommandations sans avoir à perfectionner l’algorithme lui-même 4.

Mais le potentiel de l’intelligence artificielle ne se limite pas aux grandes entreprises numériques déjà établies. Tout comme Marc Andreessen avait déclaré en 2011 que « le logiciel dévore le monde » 5, l’intelligence artificielle a vocation à s’immiscer dans tous les secteurs de l’économie et à se confondre avec les supports matériels (téléphone, ordinateur, objets connectés). En Europe, les investisseurs en « software as a service » (SaaS) raffinent leurs thèses d’investissement, comme par exemple Louis Coppey de Point Nine Capital 6.

Succès = Données * Données + Talent en Machine Learning + Algo

Source : Louis Coppey, 2017 7

Dans tous les cas, pour une entreprise numérique, il est capital d’avoir une stratégie explicite d’acquisition 8 de données car cela peut être un avantage concurrentiel. En théorie, tout repose sur les data network effects 9 (boucle de rétroaction positive) qui peuvent être résumés de la manière suivante :

Il faut donc une stratégie explicite pour amorcer ce cercle vertueux. Si le levier essentiel est d’obtenir plus de données et de développer des technologies intelligentes, le plus important est d’adresser un marché de manière pertinente.
 

Le mirage de la technologie : il faut avant toute chose résoudre un problème pour ses utilisateurs

 
Contrairement aux idées reçues, les start-ups ne se distinguent pas par l’intensité technologique. Comme l’exprime Paul Graham avec son célèbre « do things that don’t scale » 10, le rapport physique avec les premiers utilisateurs est essentiel. C’est cette même idée force que défend James Slavet de Greylock lorsqu’il écrit « algorithms can fail, patents can expire, but a reputation for great service endures » 11.

Certes, l’attention portée aux algorithmes et aux données est essentielle pour améliorer la connaissance du client et nouer du lien. Mais il faut être vigilant à ne pas perdre de vue que la mission de toute entreprise est de servir le client. Ne vous demandez pas si vous avez le meilleur algorithme ou les meilleurs ingénieurs derrière un produit ou un service, demandez-vous plutôt : « qu’est-ce que mon client veut accomplir ? Comment puis-je l’y aider ? ».

Ce n’est pas différent pour les entreprises numériques.

Quand ils démarrent leur activité, les entrepreneurs travaillent à identifier leurs utilisateurs, les canaux de distribution à privilégier et la manière la plus rapide de générer du chiffre d’affaires. Très vite, ils doivent valider ou rejeter leurs premières hypothèses 12, ce qui passe par le suivi de l’activité des utilisateurs et de leur intérêt réel pour le produit (c’est le product-market fit 13). Parce que, les utilisateurs ne se comportent jamais comme prévu, il faut s’adapter jusqu’à trouver la bonne cible. Ainsi, le but d’une entreprise fondée sur la technologie est de bien faire la tâche qui est identifiée comme ayant de le plus de valeur pour l’utilisateur.

Algorithme, intelligence artificielle, machine learning ou pas, l’enjeu est toujours le même : atteindre le product-market fit et résoudre les problèmes des utilisateurs.

En d’autres mots, les nouvelles technologies ne s’ajoutent pas, elles sont consubstantielles. On n’ajoute pas une pincée d’intelligence artificielle à un service désastreux, on débute avec la technologie et on crée le service autour. De même, on n’ajoute pas une louche blockchain à un service bancaire existant, on crée une nouvelle application décentralisée qui s’attaque à un problème concret.
 

La distribution : le nerf de la guerre pour la croissance

 
Lorsqu’une startup commence à trouver son product-market fit, l’approche produit n’est plus suffisante pour continuer à grandir. C’est là que la distribution se révèle être un rouage essentiel et un véritable défi pour les entrepreneurs. A ce stade de développement, redoubler d’efforts sur ce front est capital pour créer un avantage concurrentiel et poursuivre sa croissance.

Les chemins parcourus par Google hier aux États-Unis ou TikTok/DouYin aujourd’hui en Chine sont éclairants.

On connaît bien l’histoire des débuts de Google, que Sergey Brin et Larry Page ont conçu quand ils étaient encore étudiants à Stanford dans les années 90. De nombreux textes 14 ont aussi été consacré à disséquer la machine de valorisation et d’exploitation de l’attention qu’est PageRank (l’algorithme d’analyse des pages web utilisé par Google). En revanche, on a moins documenté les dessous de la croissance du moteur de recherche.

Contrairement au mythe d’une croissance organique soigneusement entretenu par Google elle-même, PageRank a grandi grâce à une politique volontariste axée sur la distribution. Pour prendre un exemple, Google a financé (à hauteur de centaines de millions de dollars) Firefox et des constructeurs d’ordinateurs pour que la barre Google apparaisse par défaut dans le navigateur. En fait, la recherche en ligne soutenue par PageRank (constamment modifié) n’est qu’un « cheval de Troie » pour nouer et renforcer un lien privilégié avec les utilisateurs. Une fois cette brèche ouverte, toute la stratégie de Google a été devenir un canal de distribution pour irriguer ses utilisateurs de produits développés en interne (Gmail, Agenda) ou par acquisitions (Maps, Writely).15

Plus récemment en Chine, TikTok/DouYin , est devenue l’application de partage de clips qui rassemble la plus grande communauté à travers le monde. Cet automne, on murmure même que ByteDance, l’entreprise derrière TikTok/DouYin, vise une valorisation de 75 milliards de dollars, ce qui en ferait l’entreprise non-cotée la plus valorisée de l’histoire. Comment expliquer le succès fulgurant de TikTok/DouYin ?

La puissance de l’algorithme est souvent mise en avant par les commentateurs 16 et il est vrai que les algorithmes de l’entreprise semblent essentiels pour proposer les vidéos les plus pertinentes à chaque utilisateur. Pourtant, à y regarder de plus près, on a du mal à voir en quoi l’algorithme de TikTok/DouYin serait si différenciant face à ses concurrents. En fait d’autres facteurs sont décisifs. La « longue traîne », expression popularisée par Chris Anderson 17, met en valeur l’importance de la distribution dans un modèle d’affaires, ce qui fonde la stratégie de TikTok/DouYin. La distribution de contenu vidéo se fait par un système de recommandations, basé sur une combinaison de sélection manuelle et d’algorithmes. D’emblée, vous perdez le contrôle sur qui vous suivez (contrairement à Facebook ou Twitter). TikTok/DouYin garde la main sur ce que la communauté voit, ce qui permet de répartir l’exposition entre les créateurs de la longue traîne. Par exemple, les nouveaux utilisateurs n’ont pas besoin de choisir eux-mêmes les comptes à suivre en démarrant. Par ailleurs, pour créer de la liquidité, tout est fait et pensé par l’équipe dirigeante pour faciliter et récompenser les créateurs de contenus à qui on promet une exposition inespérée.

La maîtrise de la distribution devient un atout formidable car elle permet de mobiliser la multitude 18 et amplifier les effets de réseaux 19. Cette caisse de résonance ne peut fonctionner que si le produit répond à des besoins du client, que l’exécution de la promesse commerciale est parfaite et que la distribution est efficace pour permettre au plus grand nombre d’accéder au produit/service.

La bataille entre une startup et un opérateur historique s’apparente à un jeu d’échecs. Chacun essaie d’avancer au plus vite vers la position sur laquelle son adversaire est déjà bien établi meilleur produit vs meilleure distribution. Le chemin du produit vers la distribution c’est le post Product-Market-Fit. Cette étape fait l’objet d’une grande attention de la part des investisseurs 20. Le chemin de la distribution au produit est bien illustré par ce qu’on a nommé à la suite de Clayton Christensen, le dilemme de l’innovateur 21.
 

Conclusion

 
En mettant en perspective quelques faits d’armes de grandes entreprises numériques et en évoquant le mode d’opératoire d’une start-up, j’ai montré qu’on ne bâtit pas une stratégie d’entreprise et qu’on ne construit pas un avantage concurrentiel durable sur l’algorithme pour au moins 3 raisons :

Strategic Fit : pour les entreprises numériques, l’expérience client, le design, la traction et le modèle d’affaires, sont tout aussi décisifs que la technologie en elle-même.
Multitude : il y a plus de puissance potentielle (à capter) à l’extérieur d’une organisation qu’à l’intérieur, de sorte qu’une distribution efficace permet de mobiliser cette valeur pour le succès de l’entreprise.
Technologie polyvalente / Banalisation : comme la plupart des technologies, la plupart des algorithmes ont vocation à devenir des commodités.

Ce qui distingue les meilleures entreprises numériques, c’est leur capacité à construire un produit pour résoudre un vrai problème et dominer les canaux de distribution adéquats. Pour toute nouvelle entreprise dans le numérique, il faut garder en tête ces principes pour bien se positionner vis-à-vis de 3 acteurs majeurs :

Les investisseurs privés : les entrepreneurs doivent démontrer par leurs actions l’intérêt commercial de l’algorithme dans leur produit/service. Aucun investisseur sérieux ne regardera les startups basées sur l’algorithmie de manière radicalement différente des autres. En effet, faire levier des algorithmes en 2018 sera aussi banal que d’avoir une application mobile en 2008.
Les grands groupes : les grandes entreprises numériques (Google, Facebook, Microsoft) mettent en open source leurs algorithmes pour capter la puissance extérieure selon les principes décrits dans l’Âge de la multitude 22, les nouveaux entrants ont tout de même une brèche pour concurrencer les grandes entreprises. Une clé du succès est de ne pas hésiter à mettre les bouchées doubles sur les fronts des plus faibles des géants comme le service/le rapport à l’utilisateur.
‒ Les pouvoirs publics : pour reprendre la terminologie de Carlota Perez 23 : sommes-nous dans une phase d’installation ou de déploiement de l’intelligence artificielle ? Être à l’avant- garde de l’intelligence artificielle et l’intégrer sous-tend des politiques radicalement différentes : dans un cas, c’est une problématique de rattrapage industriel, il faut de la R&D et des ingénieurs, tandis que dans l’autre cas, c’est une problématique d’usage et de diffusion, il s’agit de conquérir des marchés en faisant levier de technologies déjà banalisées.

Pour que la vision et l’exécution ne soient pas en décalage, il est essentiel que les pouvoirs publics, les investisseurs et les entrepreneurs construisent un cadre cognitif commun et que chacun reste dans son rôle !



1. Carlota Perez, Technological revolutions and financial capital, Edward Elgar Publishing, 2003.(Retour au texte 1)
2. Loi de Moore, wikipedia.com.(Retour au texte 2)
3. Casey Johnstone, « Netflix Never Used Its $1 Million Algorithm Due To Engineering Costs », Wired, 2012.(Retour au texte 3)
4. The bias-variance tradeoff, wikipedia.com.(Retour au texte 4)
5. Marc Andreessen, « Why software is eating the world », Wall Street Journal, 2011.(Retour au texte 5)
6. Louis Coppey, « The AI-first SaaS Funding Napkin », medium.com, 2018.(Retour au texte 6)
7. Louis Coppey, « How your AI startup can compete with bigger companies and their data », Tech in Asia, 2017.(Retour au texte 7)
8. Moritz Mueller-Freitag, « 10 Data Acquisition Strategies for Startups », medium.com, 2016.(Retour au texte 8)
9. Pourtant, certains investisseurs notamment Marc Andreessen et Elad Gil jugent que l’effet réel des data network effects est pour l’instant surestimé (Elad Gil, High Growth Handbook, Stripe Press, 2018).(Retour au texte 9)
10. Paul Graham, « Do things that don’t scale », 2013.(Retour au texte 10)
11. James Slavet, « Seven Signs of a Customer-Focused CEO », medium.com, 2014.(Retour au texte 11)
12. Steve Blank,« Building a Company with Customer Data – Why Metrics Are Not Enough », steveblank.com, 2009. (Retour au texte 12)
13. Tren Griffin, « 12 Things about Product-Market Fit », a16z.com, 2017. (Retour au texte 13)
14. Yves Citton, L’économie de l’attention, La Découverte, 2014. (Retour au texte 14)
15. Zheping Huang, « The world’s most popular iPhone app isn’t Facebook or WhatsApp », Quartz, 2018. (Retour au texte 15)
16. Emily Feng, « Bytedance to raise money from SoftBank at $75bn valuation », Financial Times, 2018. (Retour au texte 16)
17. Chris Anderson, « The Long Tail », Wired, 2004. (Retour au texte 17)
18. Nicolas Colin et Henri Verdier, L’Âge de la multitude, Armand Colin, 2012. (Retour au texte 18)
19. Reid Hoffman et Chris Yeh, Blitzscaling: The Lightning-Fast Path to Building Massively Valuable Companies, Harper Collins, 2018. (Retour au texte 19)
20. Marc Andreessen et Elad Gil, « Where to Go After Product-Market Fit », a16z.com, 2018. (Retour au texte 20)
21. Clayton Christensen, The Innovator’s Dilemma, Harvard Business Review Press, 2011. (Retour au texte 21)
22. Nicolas Colin et Henri Verdier, L’Âge de la multitude, Armand Colin, 2012. (Retour au texte 22)
23. Perez Carlota, Technological revolutions and financial capital, Edward Elgar Publishing, 2003. (Retour au texte 23)

partager cet article

INTERVIEW

 

Entretien avec M. Matthieu Cornette, grand maître international d’échecs depuis 2008 et champion de France 2016

 

Third (T) : Votre sport a historiquement été le premier impacté par la puissance de calcul des algorithmes. Quelles sont selon vous les grandes dates du jeu
d’échecs ?

 
Matthieu Cornette (MC) : C’est bien entendu un choix personnel et il est impossible de résumer un sport comme les échecs à quelques dates. Pour ce qui vous intéresse, je retiendrais quatre dates :

1972 – la partie entre Bobby Fischer et Boris Spassky en 1972 : c’est l’irruption des échecs à la télévision à l’occasion des championnats du monde, dans un contexte de guerre froide. Pour la première fois, le monde s’intéresse au jeu d’échecs.

1984 – la confrontation entre Anatoli Karpov et Garry Kasparov : le match absolu qui se joue aux championnats du monde d’échecs, d’un niveau incroyable, entre les deux meilleurs joueurs de tous les temps. Il s’agit d’une référence pour tous les joueurs.

1997 – le match entre Garry Kasparov et le programme informatique Deep Blue : c’est la première fois qu’un ordinateur a battu un grand champion humain aux échecs. À l’époque, il s’agissait vraiment d’une prouesse technologique. Vingt ans plus tard, les programmes informatiques sont incomparablement plus forts et en téléchargement libre sur internet.

2013 – le premier titre mondial du norvégien Magnus Carlsen à 23 ans : il s’agit du meilleur joueur actuel, numéro un mondial incontesté jusqu’à ce jour et véritable vedette dans son pays.
 

T : Vous avez évoqué les confrontations entre Garry Kasparov et Deep Blue : ces matchs ont-ils modifié en profondeur votre sport ?

 
MC : Pour la communauté des joueurs d’échecs, ce n’est pas un événement si marquant, car tous les joueurs d’échecs ont toujours su que tôt ou tard, une machine battrait un humain. La question était plutôt de savoir quand est-ce que cela arriverait. Très jeune, je jouais déjà contre un ordinateur, qui fonctionnait à l’époque avec des disquettes.

Je vois les choses plutôt différemment : il est remarquable, même en 1997, qu’un être humain puisse rivaliser avec un ordinateur qui calcule des millions de coups à la seconde. En ce sens, ce match est plutôt une fierté pour un joueur d’échecs. Il prouve aussi que le jeu n’est pas que du calcul et qu’il implique une grande part de stratégie, ce qu’un ordinateur a encore du mal à comprendre, même si par ses facultés de calcul, il pourra toujours battre l’humain.
 

T : Pouvez-vous nous en dire plus sur le rapport entre informatique et jeu d’échecs ? Est-ce la fin du jeu d’échecs ou bien le début d’une nouvelle période pour son développement/perfectionnement ?

 
MC : Il y a incontestablement un avant et un après. L’informatique a changé la donne.

D’une part, tout va plus vite : les parties et leurs analyses sont diffusées de manière très rapide à tous les joueurs. Les bases de données relatives aux parties jouées sont immenses, alimentées par des matchs entre humains et aussi par des matchs entre machines. La conséquence c’est naturellement une hausse globale du niveau de jeu.

D’autre part, il est aujourd’hui illusoire pour un joueur d’échecs de vouloir se mesurer à un programme informatique. Sur la base du classement Elo 1, le meilleur joueur du monde se situe aux alentours de 2.830 points environ (le statut de grand maître international étant acquis à partir de 2.500 points), alors que le meilleur ordinateur est évalué à 3.300 points (des tournois entre différents programmes informatiques sont organisés, leur permettant d’avoir des classements). Cette différence de quelques centaines de points est en pratique considérable. Il est inutile de jouer contre une machine en compétition.

Les machines restent tout de même au cœur du jeu, à l’entraînement. Désormais, chaque joueur dispose de sa propre base de données lui permettant de s’entraîner et de tester ses idées de jeu pour jouer contre d’autres joueurs. Cet usage des bases de données s’applique surtout aux ouvertures (premiers coups de la partie). L’ordinateur est utilisé pour trouver le meilleur coup pour attaquer l’adversaire. C’est un travail de recherche scientifique. Cet aspect est totalement nouveau et a vraiment révolutionné le jeu. C’est même un métier à part entière ! Certains joueurs appelés « secondants » travaillent pour d’autres et effectuent des recherches afin de leur trouver de nouvelles idées d’attaque.
 

T : Ce règne des programmes informatiques dans votre sport produit-il des effets négatifs ?

 
MC : L’inconvénient immédiat c’est la triche informatique, qui est l’équivalent du dopage dans d’autres sports. Le récent précédent est celui des jeux olympiques de Khanty-Mansïïsk en 2010 où trois français ont été accusés de triche. Le procédé reproché était le suivant : un complice en France regardait la partie en direct, envoyait le bon coup à jouer à un autre complice sur place, qui transmettait ensuite le bon coup au joueur en cours de match. L’humain peut donc se servir de la machine pour tricher.

Le recours aux algorithmes pour calculer le meilleur coup possible pose un autre problème fondamental : celui de l’explication d’un coup ou d’une stratégie. Si un ordinateur est capable d’effectuer le meilleur coup possible, il est incapable d’expliquer pourquoi. C’est pour cette raison qu’il y aura toujours des joueurs d’échecs et des entraîneurs, car l’ordinateur ne met pas de mots, il est cynique et n’explique pas car sa méthode repose sur le calcul pur. Il n’y a rien de meilleur qu’un entraîneur humain pour progresser et comprendre le jeu en donnant du corps aux variantes et aux stratégies.

Le dernier effet néfaste que je vois au règne des machines c’est la banalisation du niveau des grands champions. Les parties étant désormais diffusées en direct sur internet, il est possible de vérifier la pertinence de chaque coup grâce aux ordinateurs. Cela amène la communauté des joueurs à critiquer les grands joueurs, car ceux-ci font des erreurs. Mais c’est naturel, le jeu est si complexe qu’il est logique que même les grands champions fassent des erreurs. Les meilleurs en font seulement moins que les autres.
 

T : Pouvez-vous développer sur la stratégie et l’intuition face à la puissance de calcul des machines ?

 
MC : La stratégie, c’est ce qui permet d’analyser sans calculer, mettre des mots sur un plan, schématiser ce qu’on doit faire, trouver un plan. Il ne s’agit pas de tout calculer, mais de se dire, par exemple : dans les 10 prochains coups, je dois mettre cette pièce dans telle zone, car elle est mal placée et m’expose. Un ordinateur sera capable de faire ce genre de choses, mais de façon aléatoire. L’humain est encore en avance sur l’ordinateur sur cet aspect du jeu. C’est là que le rôle d’un entraîneur humain reste pertinent. Une machine n’a pas d’intuition.

L’intuition renvoie au sens du danger. Sur cet aspect, l’ordinateur a encore une marge de progression. Certaines positions, même si elles peuvent sembler correctes au premier abord et du strict point de vue du calcul, sont dangereuses et doivent être évitées. L’intuition dans le jeu est très importante, en particulier en raison du temps limité pour jouer. Là où il n’y a plus le temps de calculer, il faut alors suivre son intuition. C’est notamment sur cet aspect du jeu que Magnus Carlsen, le meilleur joueur du monde, est très fort. Il a une intuition incroyable.
 

T : Ce thème de l’intuition nous mène à une autre différence possible entre l’homme et l’algorithme dans les échecs : la capacité de bluffer. Existe-t-il une forme de bluff dans les échecs ?

 
MC : Il peut exister une forme de bluff dans la prise de décision, en particulier lorsqu’un joueur se trouve en difficulté. Une position difficile peut amener à prendre des risques insensés, mais dès lors que l’adversaire a un temps imparti pour jouer, il ne peut pas tout calculer et être surpris par une prise de position risquée. Mon joueur préféré, Mikhaïl Tal, champion du monde à 23 ans, était très connu pour adopter ce type de stratégies : faire des sacrifices un peu osés mais qui mettent en difficulté l’adversaire en raison du temps limité pour répondre. Cela fatigue l’adversaire et peut l’amener à com- mettre une erreur qui lui sera fatale pour l’issue de la partie.
 

T : L’introduction des machines a donc considérablement fait évoluer les méthodes d’entraînement. Est-ce qu’il y a encore du sens à s’entraîner et jouer avec les humains ?

 
MC : Selon moi, il n’y a clairement plus aucun intérêt à jouer contre des machines. Nous faisons plutôt jouer les machines entre elles afin d’essayer des coups. En revanche, l’entraînement avec l’humain reste important, car finalement, tout le monde a des machines pour s’entraîner. Les meilleurs entraîneurs du monde sont ceux qui arrivent à dompter la machine, c’est-à-dire à trouver l’approche proposée par la machine qui est la plus pratique, la plus exécutable en match face à un autre humain.
 

T : Cette informatisation des méthodes d’entraînement et la capacité de savoir quel est le meilleur coup à jouer dans une configuration de jeu donné grâce à un algorithme ont-ils modifié la manière de jouer des humains ? Pensez-vous que l’informatique détruit le jeu d’échecs ?

 
MC : Non je ne pense pas mais l’informatique a indéniablement un impact. Par exemple, ces dernières années, les algorithmes ont énormément fait progresser la théorie des ouvertures, ce qui a pour conséquence néfaste d’avoir rendu le jeu un peu plus ennuyeux qu’auparavant. Le jeu est plus standardisé, plus théorisé et peut, parfois, être réduit à un concours de mémoire. Je trouve que l’informatique pousse la théorie un peu trop loin. Mais le jeu évolue et certaines initiatives visent à lutter contre cette théorisation. Il existe, par exemple, de plus en plus de tournois rapides, où l’on accélère la cadence de jeu (20 minutes par partie). Ainsi, les ouvertures sont moins optimales et ont moins d’importance, et les joueurs prennent plus de plaisir sur le reste de la partie.
 

T : Dans le jeu de go, un domaine similaire au jeu d’échecs (le jeu de go), la récente victoire d’AlphaGo, un programme développé par DeepMind, une filiale du groupe Alphabet (Google) contre le meilleur joueur du monde Lee Sedol a été un évènement marquant. Cela a-t-il eu un impact sur le jeu d’échecs ?

 
MC : Peu après la création d’AlphaGo, DeepMind a développé AlphaZero, un logiciel encore plus puissant et différent, spécifique au jeu d’échecs. Les caractéristiques d’AlphaZero sont particulièrement intéressantes :

‒ Absence d’aide humaine dans l’apprentissage : contrairement à AlphaGo, AlphaZero n’a pas appris le jeu en analysant une base de données contenant des milliers de parties jouées par des humains. Le système est parti de rien, et a appris le jeu en faisant des milliers de matches contre lui-même.

‒ Une puissance bien supérieure : le système est bien plus puissant que n’importe quel autre logiciel classique d’échec. Il a ainsi rapidement battu Stockfish, le logiciel open source et gratuit de référence considéré comme le meilleur programme informatique du jeu d’échecs.

‒ Absence d’effet d’horizon : toutes les données d’AlphaZero ne sont pas accessibles mais c’est le style de jeu du programme qui est saisissant : alors qu’un logiciel comme Stockfish joue uniquement en effectuant le maximum de calculs possibles (70 millions de positions à la seconde), AlphaZero effectue beaucoup moins de calculs (environ 80.000 positions), mais est bien plus efficace. AlphaZero s’attaque ainsi à un problème bien connu en informatique : l’effet d’horizon. En effet, aux échecs, les possibilités sont tellement nombreuses que même un ordinateur ne peut pas calculer toutes les positions possibles. Tout logiciel s’arrête donc à un certain stade du calcul des possibilités. De même pour les joueurs d’échecs, qui en s’améliorant apprennent rapidement que certaines positions sont à exclure d’office. AlphaZero se comporte de la même manière : il écarte de lui-même des possibilités, effectue des sacrifices spéculatifs, qui ne sont pas compréhensibles pour un logiciel « normal » comme Stockfish. Ces parties étaient donc très impressionnantes.

AlphaZero est à mon sens le programme informatique qui se rapproche le plus d’un humain. (NDLR : Matthieu Cornette utilise l’expression « Un joueur comme AlphaZero » pour désigner ce programme informatique. C’est dire s’il est proche des humains dans l’esprit du champion !).
 

T : En tant que joueur de très haut niveau, êtes-vous capable de reconnaître que vous jouez contre un programme informatique en observant son style de jeu ?

 
MC : Oui, il y’a des indices qui me permettent de déceler que j’ai en face de moi un programme informatique. Ces indices sont d’ailleurs utilisés par les algorithmes de détection de la fraude dans les tournois sur internet :

‒ L’absence d’erreurs: un humain fait forcément des erreurs aux échecs. Si je constate que dans une partie un joueur ne commet aucune erreur je suspecterai que j’ai en face de moi un algorithme.

‒ Le temps passé sur un coup : il est normal de passer plus de temps sur certaines positions que sur d’autres. Si le joueur joue rapidement sur un coup complexe, j’aurai des doutes car la capacité de calcul d’un humain fait qu’il devrait prendre plus de temps.

L’informatique permet aux humains de se perfectionner et de repousser les limites de mon sport. C’est passionnant.



1. Système d’évaluation du niveau de capacités relatif d’un joueur d’échecs.(Retour au texte 1)

partager cet article

ARTICLE

 

Par Frédéric Marty, CNRS – GREDEG – Université Côte d’Azur

 

La publication de l’ouvrage Virtual Competition d’Ariel Ezrachi et Maurice Stucke en 2016 a renouvelé les questionnements sur la possibilité de voir des algorithmes devenir des vecteurs de pratiques anticoncurrentielles voire, dans certains cas, de véritables inducteurs de celles-ci.

Après la publication de nombreux rapports ou enquêtes sectorielles de la part de la Commission européenne, de l’Autorité de la concurrence, du Bundeskartellamt ou encore de l’OCDE, les algorithmes sont mis en cause dans de nombreuses procédures concurrentielles.

Nous proposons de jauger ces cas et d’envisager d’autres pratiques possibles à l’aune de l’économie industrielle. Si certains des risques concurrentiels peuvent apparaître comme inédits, ils apparaissent en grande partie comme déjà connus en droit et économie de la concurrence.

 

Quelles sont et quelles pourraient être les pratiques anti- concurrentielles qui peuvent reposer sur des algorithmes de prix, de recherche ou d’appariement et de quelle façon peut-on les saisir par la littérature économique ? Notre propos vise à montrer que si les pratiques anticoncurrentielles en cause étaient connues avant le développement d’une économie fondée sur les algorithmes, l’ampleur et l’acuité des problèmes qu’elles peuvent soulever méritent une attention particulière.

Cette contribution se structure comme suit. Nous présentons une vue d’ensemble des pratiques anticoncurrentielles qui peuvent résulter des algorithmes en considérant successivement les pratiques coordonnées et les pratiques unilatérales, en d’autres termes les ententes et les abus de position dominante. Dans chacune de ces deux sections, nous faisons un focus sur une question spécifique : celle de la capacité d’algorithmes à colluder spontanément et celle de la discrimination tarifaire parfaite.

Un panorama des pratiques anticoncurrentielles pouvant s’appuyer sur des algorithmes
 

Les pratiques coordonnées

 
Les pratiques coordonnées visent à neutraliser la concurrence au travers d’un accord entre des opérateurs en concurrence sur le même marché pertinent (collusion horizontale) ou intégrés le long d’une même chaîne de valeur (collusion verticale). Cet accord peut être explicite, il s’agit, selon la configuration, d’un schéma de cartel ou de prix de revente imposés. La collusion peut également être tacite. Ce dernier cas correspond à un schéma d’abus de position dominante collective.

En matière d’ententes horizontales, trois cas de figure peuvent être distingués.

Le premier cas correspond à une entente qui repose sur un algorithme pour sa mise en œuvre (par exemple un algorithme de prix). Ce fut par exemple, le cas dans l’affaire Topkins aux États-Unis en 2015. Des vendeurs concurrents sur la plateforme Amazon utilisaient un même logiciel pour fixer, surveiller et ajuster leurs prix respectifs.

Le deuxième cas répond au concept de hub and spoke conspiracy. Des concurrents évitent de communiquer entre eux sur une base horizontale mais transmettent les informations sensibles nécessaires pour se coordonner à une entité située en surplomb qui les agrège et les transmet à chacun d’entre eux. Ce type de mécanisme pouvait être mis en place bien avant le développement de l’économie numérique. De telles ententes pouvaient passer par des offices statistiques d’organisations professionnelles. Cependant des plateformes d’intermédiation, telles Uber, ont pu faire l’objet de telles accusations aux États-Unis. Sur le principe, une plateforme en position de monopole pourrait fixer le prix des transactions et répartir les marchés.

La dernière modalité d’entente est la plus intéressante. Il s’agit de la possibilité d’atteindre un équilibre de collusion tacite via le jeu spontané des différents algorithmes mis en œuvre par des firmes concurrentes. Dans des marchés traditionnels, la collusion tacite peut émerger dans des marchés étroitement oligopolistiques dans lesquels les concurrents sont très proches en termes de structures de coûts ou de capacités de production. Si les entreprises prennent conscience que toute stratégie visant à maximiser le profit individuel est appelée à être contrecarrée par les concurrents, il se peut qu’elles optent pour la solution « raisonnable » d’une paix armée permettant sinon de maximiser le profit collectif du moins de bénéficier d’« une vie paisible ». Ces équilibres sont difficiles à caractériser et à sanctionner dans le cadre de procédures concurrentielles. Le parallélisme de comportement peut ne participer que d’un ajustement rationnel à des contraintes communes. De surcroît, les concurrents n’ont pas à communiquer d’une façon ou d’une autre dans un tel cas de figure. Des algorithmes capables d’un apprentissage machine auto-renforçant pourraient identifier rapidement le pattern du marché : ( i.e. comprendre ses caractéristiques et les fonctions de réaction des concurrents et converger spontanément vers un équilibre mutuellement profitable sur le long terme ?).
 

La collusion peut-elle procéder spontanément du jeu des algorithmes ?

 
L’avant-propos du rapport d’activité 2017 du Bundeskartellamt 1 témoigne de la crainte des autorités de concurrence de voir se développer des collusions tacites entre algorithmes d’autant plus difficiles à sanctionner qu’elles sont spontanément mises en œuvre par ces derniers sans qu’une intention de colluder n’apparaisse dans le code.

Une abondante littérature a été développée après la présentation d’une possible botled collusion par Ariel Ezrachi et Maurice Stucke. Leur scénario repose sur un ensemble d’hypothèses quant aux capacités des algorithmes à rapidement identifier une stratégie mutuellement profitable et à éviter les biais de coordination qui rendent l’atteinte de ces équilibres difficiles dans le monde réel (et qui les condamnent à une instabilité intrinsèque).

Comme le montre la figure infra, les critiques faites à ce scénario insistent sur la possibilité de voir des intelligences artificielles reproduire des biais humains mais également sur la faible plausibilité même d’atteindre de tels équilibres au travers des algorithmes aujourd’hui utilisés par les entreprises. Une communication entre les algorithmes demeurerait nécessaire sous une forme ou une autre. Reste également à concilier ce scénario avec le foisonnement des prix en ligne sous l’effet des algorithmes de tarification dynamique et des possibilités croissantes de différenciation des prix selon les consommateurs.

Il convient également de s’attacher aux collusions verticales. L’enquête sectorielle de la Commission européenne sur le e-commerce, publiée en 2017, a montré qu’une part très significative des firmes utilise des algorithmes pour surveiller en permanence les prix en ligne et ajuster automatiquement leur stratégie à ces derniers. Ces possibilités peuvent être utilisées dans le cadre de contrôle des canaux de distribution pour éviter des risques de concurrence intra-marque. Dans de telle situation les firmes amont mettent en place des prix de vente imposés (resale price maintenance – RPM). La Commission européenne a infligé le 24 juillet 2018 des amendes à des fabricants de matériels électroniques grand public (Asus, Denon & Marantz, Philips et Pioneer) pour de telles pratiques.
 

Les pratiques unilatérales

 
Les abus de position dominante peuvent également reposer sur des algorithmes. Nous pouvant distinguer en la matière abus d’éviction, abus d’exploitation et même abus de dépendance économique.
 

Algorithmes et abus d’éviction

 
Les abus d’éviction peuvent tout d’abord procéder de la mise en œuvre d’algorithmes de prix. L’identification fine de chaque segment de consommateurs et des stratégies des concurrents peuvent permettre à des opérateurs dominants de s’engager dans des stratégies de prédation d’autant plus efficaces et d’autant moins coûteuses qu’elles sont finement ciblées comme le présente par exemple Lina Khan (2017) dans son article Amazon’s Antitrust Paradox. Le traitement des abus d’éviction passant par les prix est d’autant plus difficile à traiter sur les marchés numériques que les tests de coûts communément appliqués pour déterminer si une pratique de prix est de nature à exclure du marché un concurrent aussi efficace que l’opérateur dominant y sont souvent inopérants.

En effet, comment évaluer au travers de tels critères les stratégies freemium ou les modèles biface dans lesquels la gratuité sur l’un des versants de l’activité est une condition nécessaire pour générer des revenus, par exemple publicitaires, sur le second ? Un moteur de recherche en ligne correspond à ce modèle. Certains services proposés gratuitement peuvent avoir pour effet d’évincer des offres payantes. Au moins partiellement, la décision de la Commission européenne dans l’affaire Android met en jeu une telle problématique. En effet, la pré-installation du navigateur Internet, du moteur de recherche et du magasin d’applications peut être vue comme la contrepartie de la fourniture gratuite du système d’exploitation mobile. La gratuité peut donc tout à la fois être analysée comme la manifestation d’un modèle biface ou la marque d’une stratégie de levier anticoncurrentiel pour étendre ou consolider une position dominante sur une autre base que celle des mérites.

L’abus d’éviction peut également procéder d’algorithmes de recherche ou d’appariement. Le cas Google Shopping (décision de la Commission européenne du 27 juin 2017) est également emblématique de ces risques. Comment rendre un algorithme de recherche redevable quant à ses résultats ? Peut-il faire l’objet de manipulations pour favoriser indûment un service par rapport à un autre ? Google Shopping illustre d’autant mieux les difficultés rencontrées dans la caractérisation des comportements anticoncurrentiels dans le domaine que la pratique met en jeu non seulement un algorithme de classement mais également les corrections qui sont apportées à ses résultats. La démonstration de la pratique anticoncurrentielle s’avère dès lors difficile et la définition des remèdes concurrentiels particulièrement ardue.
 

Algorithmes et abus d’exploitation

 
Au-delà du cas des abus d’éviction, les algorithmes peuvent être les vecteurs d’abus d’exploitation. Un premier exemple, que nous présentons dans l’encadré infra, concerne le cas de la discrimination tarifaire ; un second exemple porte sur les phénomènes de dépendance de marché sur les plateformes numériques que la Commission européenne a pu mettre en évidence et qui ont suscité de sa proposition de règlement d’avril 2018 promouvant l’équité et la transparence pour les entreprises utilisatrices des services d’intermédiation en ligne (règlement dit platform to business).

Les prédictions des économistes quant à l’évolution des prix en ligne allaient dans le sens d’une baisse et d’une convergence de ces derniers, principalement du fait de la transparence propre aux marchés en ligne et à la facilité d’entrée accrue sur le marché pour de nouveaux offreurs. Il apparaît cependant que les capacités de traitement des données massives collectées ou déduites sur les marchés numériques permettent de façon inédite aux entreprises de s’engager dans une micro-segmentation de leurs clientèles pouvant aller jusqu’à une personnalisation des prix voire des offres elles-mêmes (pratiques de versioning).
 

Une discrimination parfaite des prix en ligne ?

 
Trois types de discriminations par les prix sont distingués par les économistes. La discrimination de premier rang a longtemps fait image d’un idéal-type inatteignable en termes pratiques (à l’instar de la collusion tacite présentée supra). La firme pourrait individualiser parfaitement ses conditions et faire payer à chaque consommateur un prix égal à sa propension maximale à payer. Le pouvoir de marché de l’entreprise, lié à son avantage informationnel, lui permettrait de s’écarter du prix de concurrence parfaite et de s’accaparer l’intégralité du surplus du consommateur. A priori, il s’agit ni plus ni moins que de la forme parfaite de l’abus d’exploitation.

Cependant, plusieurs types de difficultés sont à relever pour un traitement concurrentiel de ces pratiques. Tout d’abord, elles sont susceptibles d’accroître le bien-être total. En effet, la discrimination permet d’accroître les volumes échangés à l’équilibre. Elle permet en outre de subventionner des consommateurs qui n’auraient pas eu accès aux biens ou aux services concernés. Ensuite, comment faire la part des choses sur les marchés en ligne entre mouvements des prix résultants de stratégies de tarification dynamique (ex. Uber Surge) et discrimination parfaite ? Enfin, il peut être intéressant de relever que cette discrimination de premier ou plu- tôt de troisième degré reposant sur une granularité particulièrement fine n’a pas besoin de reposer sur des données personnelles. Elle peut s’appuyer sur les ressources fournies par l’intelligence artificielle pour comprendre le marché et ses acteurs et prédire la stratégie optimale à adopter vis-à-vis d’un consommateur dont quelques caractéristiques permettent de le rattacher à tel ou tel segment.

Points clés de la relation Platform to Business (P2B)

 

Algorithme et abus de dépendance économique

 
Le dernier type d’abus pourrait se rattacher à l’abus de dépendance économique. L’enquête sectorielle de la Commission sur le commerce en ligne a mis en exergue la situation de marchands indépendants par rapport aux principales plateformes en ligne. Celle-ci n’est pas si éloignée, comme le montre le schéma ci-contre, de la situation de celle de producteurs par rapports aux centrales d’achat dans la grande distribution. Ceux-ci peuvent faire face à des abus d’éviction dès lors qu’ils font face à une concurrence de produits ou service vendus directement par la plateforme (qui peut être à la fois une place de marché et un opérateur verticalement intégré). La situation est proche de celle de la concurrence entre marques nationales et marques de distributeurs. Ils peuvent également faire l’objet d’abus d’exploitation. L’opacité des algorithmes peut les amener à accepter de souscrire à des mécanismes de type pay-for-ranking. L’impossibilité d’accéder aux données sur les transactions et les consommateurs peut les conduire à utiliser les services (payants) de la plateforme en termes d’analyse des données.

La dépendance des marchands vis-à-vis des plateformes est renforcée par la concentration de ces dernières et la tendance des consommateurs à opter pour un mono-hébergement, c’est-à-dire à n’utiliser qu’une plateforme pour un type d’achat donné. Pour un marchand, chaque plateforme est un verrou d’accès au consommateur. Le déséquilibre contractuel est d’autant plus fort que la plateforme propose des contrats de type take it or leave it aux marchands. Les clauses ne sont pas négociables, sont soumises à des règles de modifications unilatérales et limitent leurs capacités de recours en cas de différends. De plus, la plateforme s’approprie souvent les données. Le marchand ne peut contacter directement ses consommateurs (ni les connaître précisément pour affiner sa stratégie) et compter sur une portabilité de ses données en cas de changement de plateforme.

Ce dernier risque concurrentiel explique le souci croissant exprimé par la Commission européenne vis-à-vis des stratégies des places de commerce en ligne, comme en témoigne, en septembre 2018, l’ouverture d’une enquête préliminaire sur Amazon. Les déséquilibres de pouvoirs économiques dans la sphère numérique conduisent donc à (ré) acclimater en droit eu- ropéen des préoccupations inédites (l’abus de dépendance économique) ou de longue date négligées (l’abus d’exploitation).



1. https://www.bundeskartellamt.de/SharedDocs/Publikation/EN/Jahresbericht/Jahresbericht_2017.html (Retour au texte 1)

partager cet article

Article

 

Par Guillaume Ouattara, journaliste Campus-Channel

 

Depuis 2016, j’ai suivi les différents rebondissements autour des algorithmes de Admission Post Bac puis de Parcoursup en mobilisant mes compétences en informatique au service de mon travail de journaliste. Ce qui ressort des échanges que j’ai pu avoir avec différents interlocuteurs (professeurs, candidats, journalistes, représentants du ministère) c’est que les débats souffrent d’une incompréhension du fonctionnement des algorithmes, qui devraient pourtant être au coeur des débats.

À travers cet article, j’entends apporter un éclairage sur certains aspects de ces algorithmes qui gouvernent l’avenir des jeunes français.

 
Le 30 octobre 2017, Frédérique Vidal, ministre de l’enseignement supérieur de la recherche et de l’innovation et Jean-Michel Blanquer, ministre de l’Éducation Nationale, présentaient les grandes lignes du « Plan Étudiant ». Au coeur de ce nouveau dispositif, une mesure phare allait faire l’effet d’une mini-révolution : la suppression du système d’affectation Admission Post-bac (APB) au profit d’une nouvelle plateforme appelée « Parcoursup ». Derrière ces décisions politiques c’est une véritable refonte du système technique que venait d’annoncer le Ministère. APB et Parcoursup sont deux exemples concrets et aux conséquences cruciales de l’impact que prennent les algorithmes dans notre quotidien.

Retour sur ce feuilleton de l’enseignement supérieur aux multiples rebondissements.
 

APB : un algorithme au fonctionnement opaque

 
Soyons clair dès le début : APB fonctionnait mal. Très mal. Son défaut principal était le manque total de transparence lié aux algorithmes régissant la plateforme. Créé en 2007, APB proposait un système d’affectation fondé sur l’algorithme des mariages stables de Gale-Shapley.

D’un côté, les candidats formulent un certain nombre de voeux hiérarchisés dans des formations : ils trient leurs choix selon un ordre de préférence. De l’autre, les formations trient les candidatures selon des critères qui leur sont propres. L’algorithme reçoit ensuite ces deux listes (celles des candidats et celles des formations) et réalise l’affectation des candidats à la meilleure des formations qu’ils peuvent obtenir. Ce processus s’appelle un « algorithme d’affectation ».

Très vite, deux catégories de formations virent le jour. D’un côté, les formations sélectives (prépas, BTS, DUT) et, de l’autre, les formations non-sélectives (les licences universitaires). Au début des années 2010, ce processus fonctionne plutôt bien et permet de faciliter considérablement le travail de toutes les universités/ écoles. Mais bien vite la plateforme se heurte à un problème de taille : le manque de place dans les établissements de formation supérieure.

Si du côté des lycéens et de l’opinion publique, il est tout à fait admis que des candidats puissent être refusés par des formations sélectives, on comprend moins pourquoi certaines facultés, en sureffectif, se mettent aussi à refuser des candidats.

En réalité, pour les facultés ne pouvant accueillir l’intégralité des candidats, un nouvel algorithme dit « algorithme de tri » a été mis en place pour classer les candidats. Pour les formations ayant les capacités d’accueillir tout le monde, cet algorithme est totalement invisible et n’a aucun impact. Mais pour les formations en surcapacité il opère une véritable sélection des candidats sur des critères non transparents.

Bien vite, on apprend qu’un tirage au sort est implémenté au sein de cet algorithme et permet de départager les candidats. Pour tenter d’en savoir plus sur les critères utilisés par l’algorithme d’APB, l’association « Droit des lycéens » lance plusieurs actions en justice pour obtenir la publication des algorithmes. Dans un premier temps, le ministère oppose une fin de non recevoir et refuse formellement la publication de ces algorithmes. Mais en octobre 2016, une décision de justice contraint le gouvernement à la publication de ces algorithmes.

C’est donc un document de 20 pages qui est envoyé à l’association. Commence alors un travail de fourmi pour tenter de décrypter le fonctionnement de cet algorithme de tri. De cette analyse, trois critères de tris sont extraits : (i) la proximité géographique des candidats avec la formation à laquelle ils candidatent, (ii) l’ordre dans lequel ils ont classé leurs voeux (plus ils classent une formation non-sélective haut dans leur liste, plus ils ont de chances d’y être acceptés) et (iii) en ultime recours, d’un chiffre aléatoire qui leur est attribué et qui fait office de tirage au sort.
 

D’APB à Parcoursup, chronique d’un chamboulement majeur

 
Mais d’autres critères bien plus opaques apparaissent. Par exemple, les élèves issus de lycées français de l’étranger sont considérés par le système comme des « VIP » et sont directement classés en tête de liste sur APB. Autre critère contestable, les élèves en réorientation sont, eux, directement classés en bas de liste.

Par ailleurs, le fait de prendre en compte l’ordre des voeux des candidats pour les classer dans la liste biaise totalement le rapport des candidats avec le classement qu’ils opèrent. Sur APB, il ne faut pas classer ses voeux selon ses aspirations mais selon une stratégie pour « plaire à l’algorithme ».

Ces quelques éléments suffisent à jeter un discrédit total sur la plateforme et ils seront employés à loisir par le gouvernement Macron qui vient d’accéder au pouvoir en mai 2017. Le tirage au sort est d’ailleurs agité comme un chiffon rouge pour discréditer la plateforme APB. On découvrira plus tard via un rapport de la Cour des comptes qu’il n’avait en fait pénalisé que 2.000 candidats durant la session 2017 d’APB (soit 0,8% du nombre de candidats total).

Qu’importe. Il restera l’un des arguments majeurs des opposants à APB.

Héritant d’une plateforme au fonctionnement controversé, Frédérique Vidal doit faire face à l’été 2017 au « scandale des candidats sans fac » qui fait la une de la presse : dans les médias, de nombreuses victimes d’APB défilent pour dénoncer l’injustice de l’algorithme.

En octobre 2017, la mort d’APB est annoncée et un nouveau système fait son apparition : Parcoursup.

Deux éléments majeurs distinguent cette nouvelle plateforme de l’ancienne. D’une part, toutes les formations, qu’elles soient sélectives ou non-sélectives, s’occupent désormais de trier ellesmêmes les candidats. C’est la fin des algorithmes de tri et du tirage au sort. D’autre part, les candidats ne doivent plus hiérarchiser leurs voeux, ce qui entraine la fin des algorithmes d’affectation. Là où auparavant les candidats ne pouvaient obtenir qu’une proposition d’admission par tour, ils pourront désormais obtenir jusqu’à 10 propositions d’admission et disposeront d’un délai pour accepter l’une des propositions.

Le sujet de la non transparence de Parcoursup demeure néanmoins au coeur des débats. Une semaine encore avant l’ouverture de Parcoursup, personne ne sait ni comment les candidats ont été triés, ni comment le système fonctionne.
 

Parcoursup : une transparence en trompe l’oeil

 
Le 21 mai 2018, le ministère publie à la veille de l’ouverture de Parcoursup le « code informatique des algorithmes de Parcoursup ». Il s’agit d’une quarantaine de fichiers informatiques et d’une documentation technique de 18 pages qui permettent de plonger au coeur du fonctionnement de Parcoursup.

Ces algorithmes permettent de mieux comprendre le fonctionnement de Parcoursup. Dans un premier temps, les candidats effectuent un certain nombre de voeux dans des filières sélectives et non-sélectives sans les hiérarchiser. Dans un second temps, les formations reçoivent les candidatures de ces élèves et, qu’elles soient sélectives ou non-sélectives, les trient à l’aide d’un outil d’aide à la décision (nous y reviendrons). Dans une dernière étape, Parcoursup reçoit ces listes de candidats triés et envoie les propositions d’admission.

Les algorithmes publiés par le Ministère correspondent à cette dernière partie. Ce que l’analyse du code révèle, c’est que Parcoursup effectue un re-tri des listes fournies par les formations selon deux critères. Le premier critère concerne uniquement les formations non-sélectives. Il s’agit d’un taux maximum d’élèves hors de la zone académique de la formation qui peuvent être acceptés. Concrètement, chaque formation ne peut recevoir plus d’un certain pourcentage de candidats non-issus de sa zonegéographique. Au-delà de cette capacité maximale, Parcoursup classe automatiquement les candidats en bas de liste.

Arrêtons-nous un instant sur ces pourcentages. Dans ses communications officielles, le Ministère assurait que ces pourcentages seraient publiés sur le site pour chaque formation. Pourtant, rien n’a été communiqué aux candidats et aux observateurs.

L’autre critère de re-tri des listes concerne, lui, à la fois les formations sélectives et les formations non-sélectives. Il s’agit d’un taux minimum de boursiers à respecter dans chaque formation. Concrètement, les formations ne respectant pas ce taux minimum ont vu remonter dans leur liste des candidats boursiers. Si cette fois les taux de boursiers étaient bien affichés sur le site de Parcoursup, une opacité totale demeure quant à la manière dont ils ont été fixés.

Reste que cet algorithme, s’il permet d’en savoir plus sur le fonctionnement général de la plateforme, ne dévoile en fait qu’une minuscule gouttelette de la plateforme. Ce qui n’a pas été publié, ce sont les critères locaux utilisés par les formations pour trier les candidats. Souvenons-nous que la nouveauté de Parcoursup était la suppression de l’algorithme de tris au profit d’un classement effectué formation par formation.

Et c’est là l’un des gros points noirs de Parcoursup. Le Ministère a mis à disposition de chaque formation un outil d’aide à la décision, sorte de grand fichier excel permettant d’insérer un certain nombre de critères pour distinguer les candidats les uns des autres. Mais dans les faits, les formations étaient libres d’utiliser, ou non, cet outil et de trier les candidats comme elles le souhaitaient. Frédérique Vidal a précisé, tout au long de la procédure et au moment du bilan, que ces critères locaux, appelés parfois à tort « algorithmes locaux », ne seraient pas publiés et ce malgré les requêtes de syndicats, de politiques, de professeurs et d’élèves.

C’est donc une transparence en trompe-l’oeil qu’opère Parcoursup. Divulguer certaines données ne présentant aucun intérêt stratégique mais laisser un voile opaque sur le fonctionnement critique de la plateforme.
 

Les conséquences de la fin de la hiérarchisation des voeux

 
L’autre enjeu majeur et point de débat de cette nouvelle plateforme, c’est la décision de supprimer la hiérarchisation des voeux de la plateforme. Pour justifier cette décision, le ministère emploie un argument majeur : le classement des voeux était trop compliqué sur APB. Selon la Ministre, les élèves ne faisaient pas des classements selon leur préférence et s’autocensuraient pour être sûrs d’obtenir une formation.

Avec Parcoursup, le paradigme a totalement évolué. Désormais, ce sont les formations elles-mêmes qui trient les candidats et il n’y a plus d’algorithme qui prend pour donnée d’entrée l’ordre des voeux des candidats. Une hiérarchisation des voeux serait donc totalement envisageable sans qu’elle n’ait aucun impact sur les chances des candidats d’être admis dans une formation.

Mais pourquoi, au fond, cette question de la hiérarchisation des voeux cristallise-t-elle autant les débats ? C’est parce que la fin de la hiérarchisation des voeux a signifié la fin de l’algorithme d’affectation qui permettait d’affecter rapidement et automatiquement les candidats au meilleur des voeux qu’ils pouvaient obtenir.

Dans son rapport d’octobre 2017, la cour des comptes précise que tout système d’affectation dans le supérieur qui ne se baserait pas sur une hiérarchisation des voeux serait « sous-optimal ». Et c’est effectivement cette sous-optimalité que l’on a pu observer tout au long de l’été. Au premier jour de Parcoursup, 50% des candidats étaient sur liste d’attente. Car les candidats avec les meilleurs dossiers ont pu obtenir jusqu’à 10 propositions d’admission dès le premier jour quand tous les autres candidats patientaient en-dessous. Le système s’est décanté lentement tout au long de l’été, mais il a engendré un certain nombre de comportements irrationnels de la part des candidats. Certains gardaient des voeux en attente alors qu’ils avaient déjà obtenu une formation qui les intéressait. D’autres candidats n’ont pas eu le temps ou la patience d’attendre suffisamment longtemps et sont donc passés à côté de leur formation préférée qu’ils auraient pu obtenir au mois d’août.
 

Un bilan mitigé et difficile à construire

 
Le bilan de Parcoursup reste encore très difficile à décrire. Quelques éléments chiffrés peuvent tout de même éclairer. Au jour de la rentrée étudiante, 3.500 bacheliers étaient toujours en attente selon le Ministère. Mais quand on se plonge davantage dans les chiffres, on se rend compte que ce bilan minore la réalité. A côté de ces 3.500 candidats, près de 4.000 candidats actifs en réorientation et 29.000 candidats inactifs demeuraient. Soit au total 46.000 candidats toujours en attente partout en fin de procédure.

Les pistes d’amélioration évoquées par le Ministère ne semblent pas remettre en cause les dogmes algorithmiques qu’il s’était imposé. Malgré quelques protestations de chercheurs, universitaires et politiques, un retour à une hiérarchisation des voeux est totalement exclu par le Ministère. Il y aura donc toujours autant de candidats en attente dès le premier jour de la nouvelle mouture de Parcoursup. À moins… à moins que toutes les formations ne commencent à pratiquer de manière intense le surbooking ; accepter plus de candidats que de places disponibles, pour accélérer les réponses des candidats. Une solution qui paraît peu souhaitable pour les effectifs des formations.

En guise de conclusion, je vous propose une ouverture réflexive. La première devrait titiller l’esprit des juristes lisant ces pages. Cette année, le Ministère a donné plus de détails sur les recours possibles face aux décisions de Parcoursup. Les élèves refusés par une formation peuvent, dans un délai d’un mois, demander à une formation les raisons ayant conduit à son élimination. Les établissements sont obligés d’y répondre dans les meilleurs délais. Si la réponse ne satisfait pas les candidats, ils peuvent saisir un tribunal pour tenter d’obtenir, par voie judiciaire, une inscription en faisant condamner un établissement.

Mais si vous avez tout suivi jusqu’ici, vous devriez désormais savoir que Parcoursup effectue un tri supplémentaire des listes selon deux critères : un taux minimum de boursiers à avoir dans toutes les formations et un taux maximum d’élèves hors de la zone géographique. Ces deux critères induisent un retri des listes précédemment fournies par les établissements. Dès lors, les listes des écoles ne sont pas les mêmes que celles que Parcoursup prend en compte dans l’envoi des propositions d’admission aux candidats. D’où cette question : en cas de condamnation d’un établissement suite à une plainte d’un candidat qui sera vraiment responsable ? L’établissement, qui a fait un pré-tri ? Ou le Ministère, dont l’algorithme effectue le tri final et bouleverse la liste des candidats ?

partager cet article

ARTICLE

 

Par Éric Bothorel, député des Côtes d’Armor

 

Loi Lemaire, RGPD, Fake news, Directive secret des affaires… Ces 2 dernières années, les législateurs français et européens ont dû repenser leurs outils d’encadrement juridique pour accompagner le développement de l’économie numérique. L’objectif reste inchangé : conserver une maîtrise technologique, garantir les droits fondamentaux, soutenir l’innovation, le tout pour un numérique au service de l’humain.

 

Le numérique : à la fois remède et poison

 
S’il fallait désigner les deux principaux déterminants de la révolution numérique, je nommerais la plateforme et l’algorithme. La première car elle entraîne une recomposition des chaînes de valeur et sert d’interface unique entre l’offre et la demande, devenant à terme le principal lieu de chaque acte de consommation, qu’il concerne un bien matériel ou immatériel. Le second car il joue un rôle essentiel dans le développement de nouveaux services personnalisés, dont l’ordonnancement de l’information présentée sur internet, ce qui ne manque pas d’influer sur les décisions de chaque individu dans des domaines toujours croissants de l’activité humaine.

Mis ensemble, plateforme et algorithme exercent des effets qui suffisent à caractériser le numérique comme un pharmakon, à la fois remède et poison pour nos concitoyens. D’une part, le profilage algorithmique constitue un certain enfermement qui peut nourrir des discriminations, engendrer des traitements déloyaux, favoriser les tentatives de manipulation ou contribuer à l’érosion du libre arbitre. D’autre part, le numérique apporte son lot d’innovation qui enrichit indéniablement notre existence, qu’on pense au véhicule autonome, aux smart cities, au diagnostic médical assisté par ordinateur ou à la gestion optimisée des ressources énergétiques.

Face à ce constat ambivalent, le législateur ne peut rester indifférent. Il s’agit pour lui de faire levier sur les opportunités offertes par le numérique, tout en conjurant ses menaces.
 

Pour une régulation intelligente, un triptyque d’outils désormais indissociables : la loi, le droit souple, l’auto-régulation

 
La complexité des technologies en cause lui impose toutefois de conserver une attitude précautionneuse. Pour ce faire, il est nécessaire de garder à l’esprit une donnée fondamentale : l’innovation progresse à un rythme effréné et bien supérieur à la capacité, pour nos sociétés démocratiques, de s’accorder sur les orientations à lui donner. Dès lors que l’on admet comme illusoire la position qui consiste à élaborer une loi pour chaque problème posé par le numérique, une seule option raisonnable reste sur la table : viser le moyen-long terme et dessiner un cadre dont les grands principes conserveront leur pertinence, et ce malgré l’incertitude liée à l’avenir et aux évolutions technologiques potentielles. À ce titre, le modèle serait par exemple la loi informatique et libertés de 1978, qui a nécessité plusieurs ajustements depuis sa naissance mais sans que son corps principiel n’en sorte profondément altéré.

Une fois que les grands principes sont posés, la tâche est-elle achevée pour autant ? À l’évidence, non. Car lesdits principes auront été fixés de façon à encadrer les initiatives de façon souple et générale. Ils donnent une direction, mais ne fournissent pas les moyens pour l’atteindre. D’ailleurs, tant mieux, car le risque est grand de brider l’innovation et d’étouffer un secteur avant même qu’il soit parvenu à maturité. À côté de la loi, restaurée dans sa finalité première, il nous faut donc adjoindre deux outils supplémentaires, le droit souple et l’auto-régulation, seuls à même de responsabiliser suffisamment les acteurs tout en accompagnant leur développement économique.

Des exemples récents d’une telle architecture réglementaire permettent d’en apprécier la pertinence. Il en va en premier lieu des équilibres retenus par le RGPD, qui fait la part belle au droit souple et à l’auto-régulation. D’un côté, il pose des principes clairs et stricts : consentement libre et éclairé de l’utilisateur et privacy by design des dispositifs de traitement des données personnelles. De l’autre, il allège les formalités préalables au déploiement des outils de collecte et de traitement des données, renforce les pouvoirs de régulation ex post des autorités de contrôle, et leur confie la tâche d’accompagner la mise en conformité des acteurs par un rôle de conseil et l’édiction de guides de bonnes pratiques. L’ensemble est parachevé par des sanctions suffisamment dissuasives pour assurer une véritable crédibilité au cadre juridique.

Un deuxième exemple figure au sein de la loi ELAN, et concerne plus particulièrement l’encadrement des pratiques de locations de meublés touristiques par des plateformes de type Airbnb. Le principe est posé dans la loi : une limite légale de 120 jours de location par an, toutes plateformes confondues. Et les moyens d’en assurer le respect passe par l’engagement volontaire des plateformes, qui rappelleront aux loueurs l’existence de la limite, mettront à leur disposition un compteur du nombre de jours de location, et déploieront un système de blocage automatique une fois la limite atteinte. En contrepartie, les contrôles et les sanctions sont renforcées, tant à l’encontre des loueurs que des plateformes.
 

De la conception des algorithmes à leur application, des équilibres subtils à rechercher pour servir une conviction : remettre l’humain au centre de la décision

 
Si cette logique de régulation co-construite trouve son efficacité dans de nombreuses configurations, elle ne saurait pourtant tout régler, et notamment s’agissant de l’appréhension des algorithmes eux-mêmes. Dans cette matière, il nous faudra faire preuve de créativité. Les obstacles sont multiples, parfois légitimes, et les situations très disparates.

Le réflexe premier qui survient lorsqu’il est question de régulation des algorithmes serait de leur appliquer un principe systématique de transparence et de loyauté. Cette approche entend satisfaire une finalité essentielle : ouvrir la « boîte noire » de l’algorithme, auditer son fonctionnement, cerner ses biais, et ainsi restaurer une analyse critique de ses décisions et une capacité de les contester. La finalité est louable, et le procédé trouve sa justification lorsque la décision algorithmique est susceptible d’entraîner des conséquences très importantes sur la vie d’un individu (attribution d’un crédit bancaire, justice assistée par IA, calcul de l’impôt, sélection à l’université). Il perd en revanche de sa pertinence lorsque l’influence de l’algorithme est plus diffuse, voire mineure comme sur de la recommandation de contenu, et surtout lorsque l’algorithme lui-même est la propriété d’une personne privée.

Dans ce dernier cas, le secret des affaires s’oppose à la transparence systématique des algorithmes, ne serait-ce que parce qu’ils constituent bien souvent le principal actif à côté des volumineux jeux de données collectées sur lequel repose la prospérité des entreprises du numérique. Ouvrir l’algorithme à la concurrence, c’est condamner l’entreprise propriétaire au dépôt de bilan. Même la satisfaction d’un objectif d’intérêt général justifie difficilement un tel sacrifice.

Dans ces conditions, comment garantir aux citoyens qu’ils conservent malgré tout une certaine maîtrise sur leur environnement technologique ? Lorsque le fonctionnement de l’algorithme est sanctuarisé, une réponse utile consiste à appréhender ses conséquences. C’est tout le sens d’un amendement n°136 présentée par ma collègue Paula Forteza, auquel j’ai souhaité m’associer, et qui a été adopté lors de l’examen en première lecture des propositions de loi visant à lutter contre la diffusion de fausses informations. Cette mesure prévoit une obligation, pour les plate-formes vidéo et les réseaux sociaux, de produire des statistiques publiques sur la part des contenus suggérés par algorithmes, et sur la part des contenus ayant fait l’objet d’un accès direct (par URL ou moteur de recherche externe). De la sorte, il s’agit de rendre visible la présence des algorithmes lors de la navigation de l’internaute afin qu’il puisse décider en toute connaissance de cause de consommer ou non tel ou tel contenu. La publication des effets d’un algorithme ne menant pas à la possibilité de le reproduire, il n’y a pas d’atteinte au secret des affaires et à la liberté d’entreprendre.

Pour autant, le bénéfice demeure plein et entier : la neutralité apparente de la machine s’efface, et le libre arbitre de l’utilisateur en sort renforcé. Sur ce point, comme sur les autres, c’est la fidélité aux valeurs humanistes qui doivent guider notre action. Entre un numérique tourné vers le profit, et un numérique tourné vers la surveillance, il existe bel et bien une troisième voie profondément européenne : celle d’un numérique au service de l’humain.

partager cet article

ARTICLE

 

Par Carole Vachet, Adjointe au chef du bureau Epargne et Marchés financiers Direction Générale du Trésor

 

Algorithmes et finance de marché sont aujourd’hui consubstantiels. Depuis 40 ans, la place de la technologie, en particulier les algorithmes, ne cesse de croître dans ce secteur. Le dernier avatar de ces bouleversements est la blockchain, une technologie d’horodatage et de transmission d’informations, transparente et sécurisée, qui fonctionne sans organe central de contrôle.

Face à des innovations technologiques toujours plus complexes et un monde dont l’évolution s’accélère, le régulateur est confronté à un défi d’envergure : comment appréhender ces nouvelles réalités ? Pourquoi et comment créer des règles juridiques, alors que ces nouvelles pratiques ne sont pas nécessairement matures ou compréhensibles par le plus grand nombre ?

Ces questions fondamentales, qui posent la question du rôle et des moyens d’action du régulateur face à l’innovation, sont particulièrement bien illustrées par le cadre juridique naissant concernant les algorithmes et les marchés financiers.

 
Selon les estimations, 60 à 80% des transactions exécutées sur les marchés réglementés sont aujourd’hui réalisées au moyen d’un algorithme, que ce soit pour la négociation ou l’exécution des ordres. Cette tendance n’est que le prolongement naturel de la modernisation progressive des pratiques de marché, amorcée par la dématérialisation des années 1980 et qui se traduit désormais par une automatisation croissante du passage d’ordres et de leur suivi. Elle s’est néanmoins amplifiée dans des proportions telles à la fin des années 2000 sur les marchés financiers qu’elle a justifié une intervention du régulateur : l’ESMA, autorité européenne de supervision des marchés financiers, a ainsi édicté des règles à compter de 2012 1 en matière de trading algorithmique, notamment le trading à haute fréquence.

La directive MIF 2, entrée en vigueur le 3 janvier 2018, est allée au-delà : elle a ainsi harmonisé les « pas de cotation » (tick size) afin d’éviter la captation abusive des flux d’ordres automatisés et de stabiliser les prix, posé des exigences organisationnelles pour les acteurs recourant à la négociation algorithmique et introduit une obligation de notification aux autorités de supervision des algorithmes utilisés, qui doivent faire l’objet de tests.

Mais l’utilisation de la blockchain et de l’intelligence artificielle en matière financière démultiplie les enjeux pour le régulateur : les algorithmes ne sont plus uniquement utilisés en matière de trading mais également pour fluidifier le « post-marché » des titres financiers, en matière de conseil (le robo-advice) et désormais également dans le secteur de l’assurance. Ils remettent en question non seulement le temps et le volume des transactions financières mais également le rôle des différents acteurs réglementés et les responsabilités qui leur incombent. L’innovation technologique, objet original de réglementation financière Encadrer la technologie ne va pourtant pas de soi, y compris dans le secteur très régulé des marchés financiers. Les autorités de régulation visent en effet, dans la mesure du possible, une certaine « neutralité technologique ». Ce positionnement permet en principe d’assurer une égalité de traitement entre acteurs et de leur ménager le choix des moyens. En théorie, la règlementation se borne à fixer des objectifs et des principes, les acteurs demeurant libres d’innover pourvu qu’ils continuent de satisfaire ces contraintes de résultats.
 

L’innovation technologique, objet original de réglementation financière

 
Encadrer la technologie ne va pourtant pas de soi, y compris dans le secteur très régulé des marchés financiers. Les autorités de régulation visent en effet, dans la mesure du possible, une certaine « neutralité technologique ». Ce positionnement permet en principe d’assurer une égalité de traitement entre acteurs et de leur ménager le choix des moyens. En théorie, la règlementation se borne à fixer des objectifs et des principes, les acteurs demeurant libres d’innover pourvu qu’ils continuent de satisfaire ces contraintes de résultats.

Cette logique se heurte néanmoins à des limites.

D’abord parce que l’innovation technologique fait émerger de nouveaux risques, qui justifient un traitement spécifique. C’était le cas ces dernières années en matière de trading algorithmique, aux conséquences parfois déstabilisatrices pour les marchés : en témoignent les flash crashes, krachs éclairs de quelques minutes induits par des mouvements d’ampleur et de rapidité inédites, dont le premier s’est produit le 6 mai 2010 sur le marché américain (entraînant une chute de 9% des trois principaux indices boursiers de Wall Street en quelques minutes) et qui se sont multipliés au cours des années récentes.

C’est le cas aujourd’hui en matière de « crypto-actifs », qui sont émis par des systèmes décentralisés et distribués (la technologie blockchain) et font l’objet de transactions validées par des algorithmes de consensus aujourd’hui encore très évolutifs. Ce mode de fonctionnement les rend complexes à appréhender pour le régulateur, habitué à s’appuyer sur des intermédiaires régulés et responsables. Le même besoin se manifestera peut-être dans les années à venir en matière d’intelligence artificielle et de big data. L’innovation technologique engendre des lacunes réglementaires que le régulateur financier s’efforce de combler pour satisfaire ses préoccupations constantes : stabilité financière, protection des investisseurs, lutte contre le blanchiment d’argent et le financement du terrorisme.
 

Quel rôle pour le régulateur ?

 
L’approche par les seuls risques serait simpliste : lorsque l’innovation offre des opportunités significatives, pour le fonctionnement des marchés ou pour les utilisateurs, alors le rôle du régulateur est aussi d’assurer les conditions de cette innovation. C’est dans cet équilibre que réside le principal défi pour les autorités publiques : doivent-elles aménager les contraintes existantes au motif qu’elles pèsent lourd sur de petits acteurs innovants ? Faut-il encourager une technologie qui sera peut-être elle-même rapidement dépassée ? Une première piste consiste à distinguer les barrières réglementaires justifiées par des objectifs fondamentaux de régulation financière de celles dont l’objectif pourrait être satisfait par d’autres moyens.

Car, en réalité, la réglementation en place n’est jamais complètement neutre technologiquement : elle repose sur des acteurs et des processus préexistants, inscrits dans un contexte technologique parfois dépassé. C’est pourquoi il n’est pas toujours possible, à cadre réglementaire constant, d’appréhender des pratiques radicalement nouvelles, voire des changements de paradigme. Le cas est manifeste s’agissant de la blockchain : la réglementation a imposé des intermédiaires pour sécuriser les transactions et n’est pas immédiatement perméable à une technologie qui promet de se passer de tiers de confiance.
 

La nécessité d’une approche réglementaire innovante

 
Lorsque la promesse est suffisante et l’inadéquation manifeste, alors une première réponse peut être d’assurer que les acteurs aient véritablement le choix des moyens, à exigences constantes. C’est l’ambition, en France, de l’ordonnance adoptée le 8 décembre 2017, qui permet d’utiliser la blockchain pour transmettre certains titres financiers. Sur le fond, ce texte se borne à assimiler l’inscription des titres dans une blockchain à une inscription dans un compte-titres, sans ménager de dérogation significative pour l’innovation technologique, au-delà de cette reconnaissance de principe.

Une autre solution, plus transitoire, est de permettre l’expérimentation, qui peut prendre diverses formes. C’est dans cette logique que le régulateur britannique, la Financial Conduct Authority (FCA) a mis en place depuis 2014 une sandbox (littéralement « bac à sable ») en matière de Fintech. L’objectif du dispositif est de sélectionner des start-ups innovantes et de leur permettre de développer leurs projets dans un cadre réglementaire assoupli. L’idée est séduisante mais présente des limites : elle conduit à favoriser un petit nombre d’acteurs, au détriment des acteurs établis (qui peuvent eux-mêmes développer des pratiques innovantes) mais aussi des start-ups qui ne font pas partie du programme.

Une autre approche expérimentale a été retenue en France dans le cadre du projet de loi PACTE (plan d’action pour la croissance et la transformation des entreprises) : elle consiste à mettre en place une régulation au moins en partie optionnelle. Cette optionalité a notamment été privilégiée pour les « émetteurs de jetons », c’est-à-dire les acteurs procédant aujourd’hui à des levées de fonds sur blockchain, en contrepartie de l’émission de jetons ou tokens (Initial Coin Offerings en anglais) ; ces acteurs pourront solliciter un visa de l’Autorité des marchés financiers et se soumettre à sa supervision. Le constat est le même : la réglementation existante est inadaptée et lacunaire. L’horizon de moyen terme est similaire : il faudra peu à peu converger vers un cadre réglementaire « de droit commun », impliquant vraisemblablement des normes européennes, voire internationales. La démarche française est néanmoins plus ambitieuse : elle jette les bases d’une véritable règlementation et s’applique à tous les acteurs prêts à s’y soumettre.

Bien sûr, l’expérimentation ne suffit pas ; elle n’est qu’un jalon vers une véritable réglementation. Cette démarche progressive facilite néanmoins la familiarisation du superviseur avec l’objet technologique auquel il est confronté. La flexibilité permet en outre d’éprouver l’innovation et de lui permettre de mûrir. Enfin, le retour d’expérience est de nature à jeter les bases de véritables standards, appréciés in concreto.
 

Repenser les moyens de la supervision : la nécessaire montée en compétence du régulateur

 
La règlementation serait inefficace sans une supervision adaptée. Cette exigence justifie pour les superviseurs une montée en charge de leurs outils de surveillance et un renforcement des compétences sur les sujets d’innovation. Face à l’essor du trading algorithmique et à une volumétrie de données inédite sur les marchés, l’AMF a ainsi lancé un chantier modernisation de ses outils de surveillance dans le cadre du programme dit « ICY » 2, qui lui permettra notamment de détecter beaucoup plus aisément les abus de marché et de répondre aux exigences réglementaires posées par la directive européenne MiFID 2 et le règlement MiFIR.

Car l’algorithme n’est pas seulement un objet de supervision : il peut aussi constituer une arme d’une efficacité redoutable pour le superviseur. Le même outil ICY intègre ainsi, d’ores et déjà, des technologies d’intelligence artificielle pour détecter les manipulations de cours et il paraît désormais évident que le big data constituera un précieux gisement d’informations pour le superviseur, pourvu qu’il soit armé d’outils technologiques suffisamment robustes pour les exploiter. De même, d’ici quelques années, il est vraisemblable que les autorités auront tiré parti de la transparence promise par la technologie blockchain pour faciliter leur contrôle sur les transactions financières qui y recourent et seront inscrites dans ces fameux « registres distribués ». A l’avenir, il est également possible d’imaginer que les règles applicables à un smart contract sur blockchain ou à un robot soient intégrées dans leur code, permettant une régulation automatique – par construction, très efficace !

Les autorités ne sont donc pas démunies face à la montée en puissance des algorithmes en matière financière. Ce défi justifie néanmoins de soutenir les efforts engagés pour permettre la montée en gamme technologique des outils de régulation et garantir ainsi que l’innovation sera canalisée au service d’un secteur financier plus efficient, plus transparent – sans compromis en termes de stabilité ou de robustesse.



1. Orientations de l’ESMA (2012/122) du 24 février 2012 relatives aux « Systèmes et contrôles dans un environnement de négociation automatisé pour les plates-formes de négociation, les entreprises d’investissement et les autorités compétentes ».(Retour au texte 1)
2. Communiqué de presse de l’Autorité des marchés financiers du 25 janvier 2017, « L’AMF modernise son outil de surveillance pour des marchés sûrs et transparents ».(Retour au texte 2)

partager cet article

ARTICLE

 

Par Ilarion Pavel & Jacques Serris, auteurs du rapport « Modalités de régulation des algorithmes de traitement des contenus » (mai 2016), ingénieurs des Mines et membres du Conseil général de l’économie (CGE)

 

Trouver des solutions aux problèmes émergents posés par l’utilisation des algorithmes est une dimension capitale pour créer les conditions de la confiance dans l’économie numérique.

La régulation peut également contribuer à préserver une image positive des technologies d’intelligence artificielle, et donc des femmes et des hommes qui travaillent dans ce domaine.

C’est essentiel pour attirer les jeunes générations dans les filières de formation correspondantes (mathématiques, ingénieurs ou data scientists) et pour créer des emplois. Car il ne faut pas se tromper de priorités : ce sont d’abord les talents, l’engagement et les projets qui naissent en Europe qui sont nos armes dans la compétition mondiale. Nous aurions tort de nous reposer sur le seul cadre réglementaire pour rétablir ou préserver notre compétitivité.

 

Introduction

 
Fin 2015, la consultation publique sur le projet de loi pour une République Numérique fait apparaître une demande pour la transparence des algorithmes et des plateformes. Elle se traduit dans la loi n° 2016-1321 du 7 octobre 2016 :

‒ pour les administrations (article 4), mention des décisions individuelles prises sur le fondement d’un traitement algorithmique et publication des règles définissant ces traitements (décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique) ;

‒ pour les opérateurs de plateformes en ligne (article 49), obligation de délivrer au consommateur une information loyale, claire et transparente (3 décrets n° 2017-1434/1435/1436 du 29 septembre 2017 sur la transparence de l’information pour les consommateurs et la régulation des avis en ligne).

La ministre Axelle Lemaire nous a en parallèle confié une mission sur la régulation des algorithmes de traitement des contenus. Les algorithmes sont utilisés sur le web pour filtrer des contenus, ordonner des réponses à une recherche, sélectionner les informations pertinentes, faire des recommandations ou calculer un score. Le rapport de la mission 1 a été présenté par la ministre lors d’une conférence de presse en décembre 2016. Le rapport du CGE a accompagné une prise de conscience des enjeux économiques, sociaux et juridiques liés l’émergence d’algorithmes d’apprentissage machine et a été suivi par la mise en oeuvre de mesures pratiques.

Mais avant de parler de régulation, nous souhaitons revenir sur ce que recouvrent les termes de transparence et d’algorithme car la bonne compréhension de ces notions est indispensable pour appréhender les enjeux.
 

Que peut-on attendre d’un algorithme ?

 
Un algorithme est une suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre un problème ou d’obtenir un résultat. En pratique, on appelle aujourd’hui algorithme un ensemble complexe, composé de multiples briques logicielles fonctionnant ensemble. Ces algorithmes sont devenus des outils indispensables de l’internet.

Le plus connu est le moteur de recherche de Google, fondé sur l’évaluation de la notoriété d’un site web (PageRank). Plus un site reçoit de liens issus d’autres sites, plus sa notoriété est forte. Pour lutter contre le SEO (Search Engine Optimisation) dont le but est d’améliorer, parfois de manière malhonnête, le classement de certains sites, Google a changé l’algorithme à plusieurs reprises (Panda, Pingouin). Aujourd’hui, plus de deux cents paramètres sont pris en compte, tels que le comportement des visiteurs, l’évolution du contenu, etc. Certaines modifications ont conduit à déclasser des sites de commerce électronique, dont l’activité s’est trouvée affectée. Condamné en 2017 par la Commission européenne pour abus de position dominante, Google a fait appel de cette décision, cependant déjà saluée comme témoignant de la vigilance des autorités de régulation face aux géants du web.

Amazon utilise quant à lui le filtrage collaboratif par objets : on calcule la similitude entre divers produits à partir des notes d’appréciation attribuées par les clients. Quand un client s’intéresse à un produit, on lui en suggère d’autres, présentant les similitudes les plus élevées avec le premier. Ce type d’algorithme pose la question des critères de choix : outre les similitudes, prend-il en compte des critères commerciaux ?

Dès le départ, le volume des informations traitées (des milliards d’internautes et de transactions) impose d’expliquer le fonctionnement des algorithmes en termes très généraux. Depuis six ans, c’est encore plus difficile avec le développement de l’apprentissage machine 2, où l’algorithme apprend à partir d’une grande quantité d’exemples et gagne en autonomie. En particulier, les réseaux de neurones convolutifs ont trouvé de nombreuses applications : reconnaissance d’images, robots, conduite automatisée de véhicules, reconnaissance de la parole, traduction automatique. Par la nature de leur architecture et de leur fonctionnement, il est très difficile de comprendre le processus de raisonnement interne de ces algorithmes et d’expliquer leurs résultats.
 

Plusieurs concepts ont été successivement mis en avant :

 
‒ La neutralité. On a longtemps parlé, à propos des moteurs de recherche, du référencement naturel. Plus généralement, c’est l’idée qu’il existe une réponse objective à une requête. En réalité, les algorithmes pour prioriser, classer, filtrer ne sont pas neutres ;

‒ La transparence. Le terme est utilisé dans la loi République numérique. Il répond à une attente très large : en octobre 2016, A. Merkel déclare « algorithms must be made more transparent ». En pratique, ce principe trouve rapidement des limites : comme dans le cas cité du moteur de recherche de Google et des SEO, des opérateurs peuvent abuser de cette transparence ;

‒ La loyauté. La notion existe en droit commercial. Mais si elle s’applique aux plateformes (cf. loi pour une République numérique) ou aux services, comment l’appliquer aux algorithmes ?

Rendre compte (accountability 3). L’opérateur doit expliquer l’algorithme, déclarer certains paramètres ou traitements et les rendre auditables, le cas échéant par un tiers de confiance. L’obligation de rendre compte s’applique à l’algorithme et aux données qu’il traite.

Ce dernier point se révèle fondamental, car les algorithmes sont inséparables des données qu’ils traitent et des plateformes qui les utilisent pour proposer un service.
 

Faut-il contrôler ou réguler les algorithmes ?

 
Nous considérons qu’il ne faut pas créer une régulation spécifique des algorithmes eux-mêmes mais qu’il est nécessaire de mieux les contrôler, afin de préserver les conditions d’un épanouissement des technologies tout en limitant les risques.

Les pouvoirs publics doivent vérifier la conformité aux lois et règlements et détecter les discriminations illicites. Or, les méthodes actuelles ne « passent pas à l’échelle », elles sont trop lentes et nécessitent trop de moyens. En cas de présomption de non-conformité se pose aussi la question de la valeur probante des contrôles.

Lors de la remise de notre rapport en mai 2016, nous avions proposé 5 pistes d’action, lesquelles ont donné lieu à des actions pratiques.

1 – La création d’une plateforme collaborative scientifique

C’est TransAlgo 4, plateforme collaborative scientifique de développement d’outils logiciels et de méthodes de test d’algorithmes. Elle est opérée par l’INRIA, en partenariat avec le CNRS, l’Institut Mines-Télécom et d’autres acteurs académiques. TransAlgo développe l’auditabilité des algorithmes, et de nouvelles générations d’algorithmes « transparents par construction » qui facilitent la mesure de leur transparence, leur explication et la traçabilité de leur raisonnement. TransAlgo veut également jouer un rôle pédagogique pour expliciter les concepts utilisés et offrir un espace de ressources et d’échanges participatifs à la communauté scientifique et au-delà.

2 – La montée en puissance des autorités de contrôle

Aux Etats-Unis, l’Office of Technology Research and Investigation (OTRI) a été créé au sein de la Federal Trade Commission (FTC), notamment pour promouvoir des travaux de tests d’algorithmes.

En France, les autorités de contrôle s’y intéressent de plus en plus.

C’était déjà le cas de l’Autorité des Marchés Financiers (AMF), pour le trading algorithmique, de l’autorité de régulation des jeux en ligne (ARJEL) et de la Commission nationale informatique et libertés (CNIL). La direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a renforcé son service spécialisé de contrôle du commerce électronique avec le recrutement d’une data scientist. L’autorité de la concurrence a publié en mars 2018 un avis sur l’exploitation des données dans le secteur de la publicité sur internet et vient de lancer une initiative conjointe avec son homologue allemande (Bundeskartellamt) pour étudier l’impact des algorithmes sur le droit de la concurrence.

3 – La communication des entreprises

Qui est derrière l’algorithme ? Des textes encadrent la possibilité de prendre une décision individuelle sur le seul fondement d’un traitement automatisé et imposent dans certains cas le recours à une intervention humaine. Plus largement, nous avons proposé d’identifier l’équipe ou la personne responsable (chief algorithm officer) et de communiquer pour rendre visible l’action humaine, aux commandes dans les organisations qui utilisent des algorithmes. Mais le règlement général sur la protection des données personnelles (RGPD) identifie déjà le responsable du traitement, personne physique ou morale qui détermine les finalités et les moyens du traitement, et le délégué à la protection des données (DPO) chargé de la conformité au règlement. S’y ajoute parfois un directeur du numérique (chief digital officer), en sus du directeur des systèmes d’information (DSI). L’idée de désigner en outre un responsable des traitements algorithmiques est donc tombée à plat ! Cependant, « humaniser » les algorithmes prend un relief nouveau avec l’intelligence artificielle.

4 – Développer des réflexions sectorielles

Le numérique – parfois présenté comme une menace de disruption ou d’ubérisation, plus que comme une opportunité – provoque des réflexions dans tous les secteurs. Sur le plan technique, les algorithmes sont replacés dans le cadre de l’intelligence artificielle.

Le rapport de Cédric Villani sur l’intelligence artificielle 5 de mars 2018 prélude au lancement d’un plan de développement de l’IA pour faire de la France un pays leader de l’intelligence artificielle. Il met l’accent sur 4 secteurs stratégiques : santé, transport, environnement, défense et sécurité. Publié en avril, le rapport « Renouveau de l’Intelligence artificielle et de l’Apprentissage Automatique 6 », de l’Académie des technologies, donne les clés du développement de l’IA dans les entreprises et recommande de développer simultanément les performances et l’acceptabilité éthique des algorithmes intelligents.

Les réflexions sectorielles permettent de développer des outils de droit souple : normes, règles et bonnes pratiques professionnelles, certification… Beaucoup reste à faire dans ce domaine.

5 – L’engagement citoyen

L’engament citoyen reste indispensable pour préserver la confiance dans l’économie numérique et lutter contre une inquiétude émergente vis-à-vis des algorithmes « boîtes noires » ou des fantasmes du type « Terminator », où des machines munies d’intelligence artificielle, devenues autonomes, pourraient remplacer l’homme. Un bon niveau de compréhension des problèmes par la société est nécessaire pour assurer la proportionnalité des règles de droit : ni trop de régulation qui tue l’innovation, ni laisser-faire.

Le débat sur le contrôle ou la régulation des algorithmes est aujourd’hui replacé dans le cadre plus large de l’intelligence artificielle, associant algorithmes, données (y compris les questions d’open data et d’accès aux données) et plateformes ou infrastructures de traitement. Mais comme le souligne la communication du gouvernement sur l’IA, il ne s’agit pas seulement de réguler : la France, qui compte déjà de nombreux talents, doit conforter cet écosystème prometteur.



1. https://www.economie.gouv.fr/files/files/directions_services/cge/Rapports/2016_05_13_Rapport_Algorithmes(1).pdf (Retour au texte 1)
2. « L’apprentissage profond : une révolution en intelligence artificielle », leçon inaugurale au collège de France par Yan LeCun, directeur de la recherche en intelligence artificielle de Facebook, février 2016. (Retour au texte 2)
3. « Principles for Algorithmic Transparency and Accountability », janvier 2017, US ACM. (Retour au texte 3)
4. https://www.inria.fr/actualite/actualites-inria/transalgo (Retour au texte 4)
5. https://www.aiforhumanity.fr (Retour au texte 5)
6.https://www.academie-technologies.fr/blog/categories/rapports/posts/renouveau-de-l-intelligence-artificielle-et-de-l-apprentissage-automatique (Retour au texte 6)

partager cet article

ARTICLE

 

Par Michel Leclerc & Arthur Millerand, associés fondateurs du cabinet Parallel Avocats

 

Le droit des algorithmes est né.

À la croisée de plusieurs matières, nécessairement incompatible avec une approche juridique traditionnelle organisée « par discipline », le droit des algorithmes pourrait se définir comme l’ensemble des règles s’appliquant à l’opérateur d’un outil algorithmique, à l’algorithme lui-même et aux garanties qui doivent entourer leur création, leur utilisation et leurs effets.

C’est dire si le sujet est large car il emprunte tout à la fois au droit des données personnelles, au droit de l’internet, au droit de la consommation, au droit civil, au droit administratif et au droit européen.

Cette contribution entend faire un état des lieux des règles relevant de ce « droit des algorithmes », souligner l’importance de cette nouvelle discipline pour le secteur numérique et dresser quelques perspectives pour les prochaines années à l’attention de tous ceux qui s’intéressent à cette fameuse « boîte noire » de notre imaginaire contemporain, laquelle n’a pas fini d’intéresser le juriste.

 
Parce qu’il suggère et, parfois, prend des décisions sur la base d’ensemble de données qui lui sont fournies, l’algorithme produit naturellement des effets juridiques qui méritent une attention particulière. C’est dans cette perspective que s’est inscrit le Conseil d’État en 2014 en proposant, dans son étude annuelle consacrée au numérique et aux droits fondamentaux 1, de définir un droit des algorithmes prédictifs.

Puissant outil d’organisation et d’automatisation, l’algorithme n’est pas un joyau de technologie réservé à quelques géants numériques aux moyens financiers illimités : son usage dépasse largement la distinction public-privé et ignore les distinctions de taille entre acteurs économiques. L’usage d’algorithmes est si normalisé que certains auteurs parlent déjà d’ « algocratie » (algocracy) pour souligner le pouvoir que cela représente 2. Aujourd’hui, le recours à des algorithmes est aussi banal que de disposer d’une application mobile pour fournir son service et, demain, il le sera autant que l’électricité.

Pour s’en convaincre, il suffit d’observer, d’une part, que l’État fait un usage de plus en plus important d’algorithmes pour l’administration. D’autre part, toutes les entreprises numériques reposant sur l’organisation, la recommandation ou le référencement de contenus mais également celles permettant l’intermédiation entre une offre et une demande sont fondées sur des algorithmes qui assurent l’adéquation entre ce qui est proposé à l’utilisateur et ses comportements passés ou présents.

Le Droit, au sens des « règles de conduite socialement édictées et sanctionnées, qui s’imposent aux membres de la société » 3, se saisit de ce phénomène dans toute sa diversité. En gestation depuis une trentaine d’années, le droit des algorithmes connaît aujourd’hui une poussée de croissance mais demeure loin d’avoir atteint l’âge de raison.
 

L’encadrement des prises de décisions impliquant des algorithmes : ne pas laisser la machine décider seule

 
Un algorithme a besoin de données pour effectuer les opérations qui lui ont été apprises et pour produire un résultat. C’est donc naturellement dans le droit des données personnelles que se sont logées les premières règles relevant, selon nous, du « droit des algorithmes ».

Dès la première version de la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (dite « Loi Informatique et Libertés »), il a été édicté une interdiction de prendre des décisions produisant des effets juridiques à l’égard d’une personne sur le seul fondement d’un traitement automatisé de données 4. À titre d’illustration, cette interdiction a servi de base à la CNIL pour mettre en demeure le ministère de l’Enseignement supérieure de cesser d’utiliser exclusivement l’algorithme « Admission Post Bac » pour l’orientation des bacheliers 5. De même, ce principe se retrouve dans le projet de loi de programmation 2018-2022 et de réforme pour la justice qui prévoit que les services en ligne de médiation, conciliation et arbitrage ne peuvent résulter exclusivement d’un traitement par algorithme ou d’un traitement automatisé 6.

Le Règlement (UE) 2016/679 du Parlement Européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (dit « RGPD »), qui est entré en application le 24 mai 2018, a poursuivi ce mouvement en créant le droit pour la personne qui fait l’objet d’un traitement de données à « ne pas faire l’objet d’une décision fondée uniquement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire » 7.

Par exception, le RGPD prévoit la possibilité d’utiliser des algorithmes notamment lorsque le traitement est nécessaire à la conclusion du contrat entre la personne et le responsable de traitement ou lorsque la personne a donné son consentement explicite. Dans ces deux cas, l’opérateur de l’algorithme est tenu de donner à la personne concernée par le traitement (i) des informations sur la logique sous-jacente, (ii) l’importance et les conséquences du traitement 8, (iii) la possibilité d’obtenir une intervention humaine, (iv) d’exprimer son point de vue et (v) de contester la décision prise 9.

Cette approche des algorithmes centrée sur l’obligation d’informer la personne préalablement au traitement et de lui donner des garanties après le traitement est similaire à l’ensemble du droit des données personnelles en vigueur depuis l’entrée en application du RGPD et de la Loi Informatique et Libertés modifiée. La dynamique est double : informer ex ante et assurer l’effectivité des droits et une transparence ex post.
 

L’introduction de la transparence dans l’usage des algorithmes par les opérateurs privés

 
La loi n°2016-1321 du 7 octobre 2016 pour une République numérique (dite « Loi Lemaire ») a été l’occasion pour les algorithmes de faire leur entrée dans le Code de la consommation. En vertu des articles L. 111-7 et L. 111-7-1 du Code de la consommation ainsi que des décrets d’application 10, les « opérateurs de plateformes en ligne » ont l’obligation de communiquer au consommateur des informations quant aux modalités de classement, de référencement et de déréférencement de contenus, biens ou services auxquels ils permettent d’accéder. Ces obligations imposent aux sociétés privées une transparence sur les critères utilisés par les algorithmes qui classent, référencent, trient et/ou suggèrent des contenus, biens ou services.

Il s’agit là d’un premier pas dans la direction d’une exigence faite à l’opérateur privé d’expliquer au consommateur comment fonctionne son algorithme, ou du moins quelles en sont les principales modalités, afin d’apprécier les décisions prises sur un tel fondement technologique et d’éviter les manipulations.

La même dynamique s’observe au niveau de l’Union Européenne avec la récente publication du projet de règlement européen n°2018/0112 pour la promotion de l’équité et de la transparence pour les utilisateurs de services d’intermédiation en ligne (dit « Règlement Platform to Business »). Un des objectifs de ce texte est de mettre à la charge des opérateurs de plateformes numériques des obligations de transparence sur les critères de classement utilisés afin de permettre aux professionnels d’adapter leurs offres en pleine connaissance des critères utilisés par la plateforme pour leur ouvrir l’accès au marché 11. Il est notamment fait état de l’importance de la notion de « paramètre principal » de l’algorithme 12 pour réellement comprendre le fonctionnement technologique et dépasser une approche formelle, donc stérile. Ce mouvement vers plus de transparence ira-t-il jusqu’à imposer la publication des algorithmes par les sociétés privées ? On peut en douter, notamment à la lecture de l’avis de la commission des affaires juridiques du Parlement Européen rendu le 27 septembre 2018 qui se prononce en faveur de la divulgation des paramètres déterminant le classement des contenus mais pas des algorithmes en eux-mêmes.
 

La création de garanties pour les citoyens face à la puissance publique algorithmique

 
Parce qu’il est un outil puissant pour une gestion efficace et moins onéreuse, l’algorithme est un outil déjà utilisé depuis longtemps par l’administration dans ses relations avec les citoyens.

En 2016, la Loi Lemaire a introduit dans le Code des relations entre le public et l’administration un certain nombre de garanties pour la personne qui fait l’objet d’une « décision individuelle » fondé sur un traitement algorithmique (par exemple un choix d’orientation après le baccalauréat). D’une part, la personne doit être informée que ce mécanisme est mis en oeuvre 13. D’autre part, elle doit pouvoir obtenir communication des règles du traitement algorithmique, ce qui implique que les principales caractéristiques de l’algorithme puissent être communiquées et détaillées 14. Enfin, elle doit pouvoir saisir la commission d’accès aux documents administratifs pour en obtenir la communication 15.

Ce dispositif juridique encadrant l’usage d’algorithmes par les institutions publiques mérite d’être souligné car il est une synthèse de la triple logique de régulation qui est à l’oeuvre dans le droit des algorithmes :

La logique d’information préalable : on n’utilise pas un algorithme produisant des effets sur une personne sans l’avoir informée en amont.

La logique de transparence : la personne qui fait l’objet du traitement ou de la décision a le droit de savoir « à quelle sauce elle a été mangée ».

La logique d’équité procédurale : les choix effectués au moyen d’un algorithme doivent pouvoir être contestés.

Parce qu’il s’agit de la puissance publique, la loi est plus exigeante que vis-à-vis des opérateurs privés. En effet, l’administration doit communiquer à la personne qui en fait la demande les « paramètres de traitement » mais aussi « leur pondération » 16, là où le Code de la consommation se contente d’exigence de l’opérateur privé qu’il informe le consommateur sur « les modalités » de référencement et de classement.
 

L’élargissement de la responsabilité des acteurs numériques avec les algorithmes

 
Le droit des algorithmes ne s’arrête pas aux règles qui régissent leur fonctionnement et leur composition car leur utilisation par les acteurs numériques a un impact direct sur leur régime de responsabilité, lequel découle principalement de la directive 2000/31/CE du 8 juin 2000 sur le commerce électronique (dite « Directive E-Commerce ») et de la loi du 21 juin 2004 pour la confiance en l’économie numérique (dite « LCEN »).

De manière synthétique, on peut distinguer le fournisseur d’accès à internet (la personne dont l’activité est d’offrir l’accès à des services de communication au public en ligne), l’hébergeur (la personne dont l’activité est d’assurer la mise à disposition du public, par des services de communication au public en ligne, le stockage de contenu fournis par d’autres) et l’éditeur (la personne dont l’activité est de réunir, sélectionner, mettre en ordre, contrôler et publier du contenu diffusé par des services de communication au public en ligne). Chaque acteur a son propre régime de responsabilité encadré par le droit positif.

Si les fournisseurs d’accès à internet sont clairement identifiables, la distinction entre hébergeur et éditeur se fait de plus en plus difficile à concevoir au fur et à mesure que le numérique se développe.

Juridiquement, le critère principal de la qualification d’éditeur réside principalement dans l’existence ou non d’un « rôle actif de nature à [confier] une connaissance ou un contrôle des données stockées » 17.

Or, l’objectif même d’un algorithme est d’agréger, sélectionner, discriminer et classer des contenus auxquels les internautes ont accès. Ce faisant, plus les opérateurs se servent d’algorithmes plus ils s’éloignent du simple hébergement de données. La « vieille » grille de lecture des années 2000 ne nous semble plus du tout pertinente pour appréhender l’internet d’aujourd’hui.

Cette tendance est confirmée par les récents projets du législateur français 18 et européen 19 qui responsabilisent de plus en plus les « plateformes » vis-à-vis des contenus qu’elles publient, relaient ou référencent. Le pouvoir exercé par les opérateurs d’algorithmes souligne l’importance de rouvrir les débats sur le régime de responsabilité applicables aux acteurs numériques.

La refonte de la Directive E-Commerce nous semble être un impératif pour perfectionner le droit des algorithmes en lui adjoignant un régime de responsabilité pertinent et conforme au fonctionnement opérationnel des acteurs économiques dans le but de leur apporter de la sécurité juridique pour favoriser leur développement 20. Malgré la poursuite du Marché Unique Numérique (Digital Single Market), de nombreux États membres s’opposent à la réouverture des débats sur cette directive. En l’état, la Commission européenne a indiqué qu’aucune initiative ne serait prise sur le sujet avant 2020.
 

Quelles perspectives ?

 
Sous-jacent fondamental des plateformes aujourd’hui, soutien indispensable de toute entreprise numérique de demain, l’algorithme va devenir le coeur de règles de plus en plus nombreuses et diverses, selon les usages et les évolutions techniques.

Une chose est sûre : une nouvelle discipline juridique est née.

Le droit des algorithmes est en pleine croissance car il impose de faire le pont entre des spécialités juridiques diverses. Pour bien le comprendre et le maîtriser, il est indispensable d’adopter une approche pluridisciplinaire au sein des matières juridiques et d’être familier avec fonctionnements de ceux qui opèrent ces algorithmes.

C’est le chemin que nous entendons poursuivre pour accompagner les acteurs innovants du secteur numérique.



1. Conseil d’État, étude annuelle 2014, Le numérique et les droits fondamentaux.(Retour au texte 1)
2. V. Hatzopoulos, The Collaborative Economy and EU Law, Bloomsbury, 2018; A. Aneesh, Global Labour; Algogratic Modes of Organization, Sociological Theory, 2009. (Retour au texte 2)
3. G. Cornu, Vocabulaire Juridique, p. 333. (Retour au texte 3)
4. Loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, article 2 (dans sa rédaction initiale). (Retour au texte 4)
5. Commission Nationale Informatique et Libertés, décision n°MED-2017-053 du 30 août 2017. (Retour au texte 5)
6. Projet de loi envisageant de modifier l’article 4 d la loi n°2016-1547 du 18 novembre 2016 de modernisation de la justice du XXIème siècle.(Retour au texte 6)
7. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, article 22. (Retour au texte 7)
8. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, article 13, paragraphe 2. f et article 14 paragraphe 2. g. (Retour au texte 8)
9. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016, article 22, paragraphe 3. (Retour au texte 9)
10. Décrets du 29 septembre 2017 n°2017-1434 relatif aux obligations d’information des opérateurs de plateformes numériques et n°2017-1435 relatif à la fixation d’un seuil de connexions à partir duquel les opérateurs de plateformes en ligne élaborent et diffusent des bonnes pratiques pour renforcer la loyauté, la clarté et la transparence des informations transmises aux consommateurs. (Retour au texte 10)
11. Projet de règlement européen n°2018/0112 pour la promotion de l’équité et de la transparence pour les utilisateurs de services d’intermédiation en ligne, article 5. (Retour au texte 11)
12. Projet de règlement européen n°2018/0112 pour la promotion de l’équité et de la transparence pour les utilisateurs de services d’intermédiation en ligne, considérant 17. (Retour au texte 12)
13. Article L. 311-3-1 du Code des relations entre le public et l’administration. (Retour au texte 13)
14. Articles R. 311-3-1-1 et R. 311-3-1-2 du Code des relations entre le public et l’administration. (Retour au texte 14)
15. Article R. 311-3-1-1 du Code des relations entre le public et l’administration. (Retour au texte 15)
16. Article R. 311-3-1-2 du Code des relations entre le public et l’administration. (Retour au texte 16)
17. V. p. ex. CJUE, 23 mars 2010, Google France SARL et Google Inc. c/ Louis Vuitton Malletier SA, aff. C-236/08 à C-238/08. Ce critère a été appliqué par les juridictions françaises (v. p. ex. Cass. Com. 13 juillet 2010, Bull. civ. IV n°123, n°06-15.136). (Retour au texte 17)
18. En dernier lieu, la proposition de loi relative à la lutte contre les fausses informations et plus récemment le rapport « Renforcer la lutte contre le racisme et l’antisémitisme sur Internet » du 20 septembre 2018. (Retour au texte 18)
19. En dernier lieu, les discussions concernant la proposition de directive sur les droits d’auteur (notamment, en ce qui concerne la responsabilité des sites internet vis-à-vis du « value gap » créé par la publication en ligne d’oeuvres d’artistes sans rémunération). (Retour au texte 19)
20. La proposition de résolution européenne déposée le 27 septembre 2018 à la présidence du Sénat invite le gouvernement à soutenir l’évolution du régime de responsabilité des acteurs de l’internet à l’échelle de l’Union Européenne. (Retour au texte 20)

partager cet article