third
Novembre 2018

Numéro Un

Retrouvez le numéro un de
Third : qui gouverne les
algorithmes ?

Third | Novembre 2018

Faut-il réguler les algorithmes ?

ARTICLE

 

Par Ilarion Pavel & Jacques Serris, auteurs du rapport « Modalités de régulation des algorithmes de traitement des contenus » (mai 2016), ingénieurs des Mines et membres du Conseil général de l’économie (CGE)

 

Trouver des solutions aux problèmes émergents posés par l’utilisation des algorithmes est une dimension capitale pour créer les conditions de la confiance dans l’économie numérique.

 

La régulation peut également contribuer à préserver une image positive des technologies d’intelligence artificielle, et donc des femmes et des hommes qui travaillent dans ce domaine.

 

C’est essentiel pour attirer les jeunes générations dans les filières de formation correspondantes (mathématiques, ingénieurs ou data scientists) et pour créer des emplois. Car il ne faut pas se tromper de priorités : ce sont d’abord les talents, l’engagement et les projets qui naissent en Europe qui sont nos armes dans la compétition mondiale. Nous aurions tort de nous reposer sur le seul cadre réglementaire pour rétablir ou préserver notre compétitivité.

 

Introduction

Fin 2015, la consultation publique sur le projet de loi pour une République Numérique fait apparaître une demande pour la transparence des algorithmes et des plateformes. Elle se traduit dans la loi n° 2016-1321 du 7 octobre 2016 :

‒ pour les administrations (article 4), mention des décisions individuelles prises sur le fondement d’un traitement algorithmique et publication des règles définissant ces traitements (décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique) ;

‒ pour les opérateurs de plateformes en ligne (article 49), obligation de délivrer au consommateur une information loyale, claire et transparente (3 décrets n° 2017-1434/1435/1436 du 29 septembre 2017 sur la transparence de l’information pour les consommateurs et la régulation des avis en ligne).

La ministre Axelle Lemaire nous a en parallèle confié une mission sur la régulation des algorithmes de traitement des contenus. Les algorithmes sont utilisés sur le web pour filtrer des contenus, ordonner des réponses à une recherche, sélectionner les informations pertinentes, faire des recommandations ou calculer un score. Le rapport de la mission 1 a été présenté par la ministre lors d’une conférence de presse en décembre 2016. Le rapport du CGE a accompagné une prise de conscience des enjeux économiques, sociaux et juridiques liés l’émergence d’algorithmes d’apprentissage machine et a été suivi par la mise en oeuvre de mesures pratiques.

Mais avant de parler de régulation, nous souhaitons revenir sur ce que recouvrent les termes de transparence et d’algorithme car la bonne compréhension de ces notions est indispensable pour appréhender les enjeux.

Que peut-on attendre d’un algorithme ?

Un algorithme est une suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre un problème ou d’obtenir un résultat. En pratique, on appelle aujourd’hui algorithme un ensemble complexe, composé de multiples briques logicielles fonctionnant ensemble. Ces algorithmes sont devenus des outils indispensables de l’internet.

Le plus connu est le moteur de recherche de Google, fondé sur l’évaluation de la notoriété d’un site web (PageRank). Plus un site reçoit de liens issus d’autres sites, plus sa notoriété est forte. Pour lutter contre le SEO (Search Engine Optimisation) dont le but est d’améliorer, parfois de manière malhonnête, le classement de certains sites, Google a changé l’algorithme à plusieurs reprises (Panda, Pingouin). Aujourd’hui, plus de deux cents paramètres sont pris en compte, tels que le comportement des visiteurs, l’évolution du contenu, etc. Certaines modifications ont conduit à déclasser des sites de commerce électronique, dont l’activité s’est trouvée affectée. Condamné en 2017 par la Commission européenne pour abus de position dominante, Google a fait appel de cette décision, cependant déjà saluée comme témoignant de la vigilance des autorités de régulation face aux géants du web.

Amazon utilise quant à lui le filtrage collaboratif par objets : on calcule la similitude entre divers produits à partir des notes d’appréciation attribuées par les clients. Quand un client s’intéresse à un produit, on lui en suggère d’autres, présentant les similitudes les plus élevées avec le premier. Ce type d’algorithme pose la question des critères de choix : outre les similitudes, prend-il en compte des critères commerciaux ?

Dès le départ, le volume des informations traitées (des milliards d’internautes et de transactions) impose d’expliquer le fonctionnement des algorithmes en termes très généraux. Depuis six ans, c’est encore plus difficile avec le développement de l’apprentissage machine 2, où l’algorithme apprend à partir d’une grande quantité d’exemples et gagne en autonomie. En particulier, les réseaux de neurones convolutifs ont trouvé de nombreuses applications : reconnaissance d’images, robots, conduite automatisée de véhicules, reconnaissance de la parole, traduction automatique. Par la nature de leur architecture et de leur fonctionnement, il est très difficile de comprendre le processus de raisonnement interne de ces algorithmes et d’expliquer leurs résultats.

Plusieurs concepts ont été successivement mis en avant :

‒ La neutralité. On a longtemps parlé, à propos des moteurs de recherche, du référencement naturel. Plus généralement, c’est l’idée qu’il existe une réponse objective à une requête. En réalité, les algorithmes pour prioriser, classer, filtrer ne sont pas neutres ;

‒ La transparence. Le terme est utilisé dans la loi République numérique. Il répond à une attente très large : en octobre 2016, A. Merkel déclare « algorithms must be made more transparent ». En pratique, ce principe trouve rapidement des limites : comme dans le cas cité du moteur de recherche de Google et des SEO, des opérateurs peuvent abuser de cette transparence ;

‒ La loyauté. La notion existe en droit commercial. Mais si elle s’applique aux plateformes (cf. loi pour une République numérique) ou aux services, comment l’appliquer aux algorithmes ?

Rendre compte (accountability 3). L’opérateur doit expliquer l’algorithme, déclarer certains paramètres ou traitements et les rendre auditables, le cas échéant par un tiers de confiance. L’obligation de rendre compte s’applique à l’algorithme et aux données qu’il traite.

Ce dernier point se révèle fondamental, car les algorithmes sont inséparables des données qu’ils traitent et des plateformes qui les utilisent pour proposer un service.

Faut-il contrôler ou réguler les algorithmes ?

Nous considérons qu’il ne faut pas créer une régulation spécifique des algorithmes eux-mêmes mais qu’il est nécessaire de mieux les contrôler, afin de préserver les conditions d’un épanouissement des technologies tout en limitant les risques.

Les pouvoirs publics doivent vérifier la conformité aux lois et règlements et détecter les discriminations illicites. Or, les méthodes actuelles ne « passent pas à l’échelle », elles sont trop lentes et nécessitent trop de moyens. En cas de présomption de non-conformité se pose aussi la question de la valeur probante des contrôles.

Lors de la remise de notre rapport en mai 2016, nous avions proposé 5 pistes d’action, lesquelles ont donné lieu à des actions pratiques.

1 – La création d’une plateforme collaborative scientifique

C’est TransAlgo 4, plateforme collaborative scientifique de développement d’outils logiciels et de méthodes de test d’algorithmes. Elle est opérée par l’INRIA, en partenariat avec le CNRS, l’Institut Mines-Télécom et d’autres acteurs académiques. TransAlgo développe l’auditabilité des algorithmes, et de nouvelles générations d’algorithmes « transparents par construction » qui facilitent la mesure de leur transparence, leur explication et la traçabilité de leur raisonnement. TransAlgo veut également jouer un rôle pédagogique pour expliciter les concepts utilisés et offrir un espace de ressources et d’échanges participatifs à la communauté scientifique et au-delà.

2 – La montée en puissance des autorités de contrôle

Aux Etats-Unis, l’Office of Technology Research and Investigation (OTRI) a été créé au sein de la Federal Trade Commission (FTC), notamment pour promouvoir des travaux de tests d’algorithmes.

En France, les autorités de contrôle s’y intéressent de plus en plus.

C’était déjà le cas de l’Autorité des Marchés Financiers (AMF), pour le trading algorithmique, de l’autorité de régulation des jeux en ligne (ARJEL) et de la Commission nationale informatique et libertés (CNIL). La direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a renforcé son service spécialisé de contrôle du commerce électronique avec le recrutement d’une data scientist. L’autorité de la concurrence a publié en mars 2018 un avis sur l’exploitation des données dans le secteur de la publicité sur internet et vient de lancer une initiative conjointe avec son homologue allemande (Bundeskartellamt) pour étudier l’impact des algorithmes sur le droit de la concurrence.

3 – La communication des entreprises

Qui est derrière l’algorithme ? Des textes encadrent la possibilité de prendre une décision individuelle sur le seul fondement d’un traitement automatisé et imposent dans certains cas le recours à une intervention humaine. Plus largement, nous avons proposé d’identifier l’équipe ou la personne responsable (chief algorithm officer) et de communiquer pour rendre visible l’action humaine, aux commandes dans les organisations qui utilisent des algorithmes. Mais le règlement général sur la protection des données personnelles (RGPD) identifie déjà le responsable du traitement, personne physique ou morale qui détermine les finalités et les moyens du traitement, et le délégué à la protection des données (DPO) chargé de la conformité au règlement. S’y ajoute parfois un directeur du numérique (chief digital officer), en sus du directeur des systèmes d’information (DSI). L’idée de désigner en outre un responsable des traitements algorithmiques est donc tombée à plat ! Cependant, « humaniser » les algorithmes prend un relief nouveau avec l’intelligence artificielle.

4 – Développer des réflexions sectorielles

Le numérique – parfois présenté comme une menace de disruption ou d’ubérisation, plus que comme une opportunité – provoque des réflexions dans tous les secteurs. Sur le plan technique, les algorithmes sont replacés dans le cadre de l’intelligence artificielle.

Le rapport de Cédric Villani sur l’intelligence artificielle 5 de mars 2018 prélude au lancement d’un plan de développement de l’IA pour faire de la France un pays leader de l’intelligence artificielle. Il met l’accent sur 4 secteurs stratégiques : santé, transport, environnement, défense et sécurité. Publié en avril, le rapport « Renouveau de l’Intelligence artificielle et de l’Apprentissage Automatique 6 », de l’Académie des technologies, donne les clés du développement de l’IA dans les entreprises et recommande de développer simultanément les performances et l’acceptabilité éthique des algorithmes intelligents.

Les réflexions sectorielles permettent de développer des outils de droit souple : normes, règles et bonnes pratiques professionnelles, certification… Beaucoup reste à faire dans ce domaine.

5 – L’engagement citoyen

L’engament citoyen reste indispensable pour préserver la confiance dans l’économie numérique et lutter contre une inquiétude émergente vis-à-vis des algorithmes « boîtes noires » ou des fantasmes du type « Terminator », où des machines munies d’intelligence artificielle, devenues autonomes, pourraient remplacer l’homme. Un bon niveau de compréhension des problèmes par la société est nécessaire pour assurer la proportionnalité des règles de droit : ni trop de régulation qui tue l’innovation, ni laisser-faire.

Le débat sur le contrôle ou la régulation des algorithmes est aujourd’hui replacé dans le cadre plus large de l’intelligence artificielle, associant algorithmes, données (y compris les questions d’open data et d’accès aux données) et plateformes ou infrastructures de traitement. Mais comme le souligne la communication du gouvernement sur l’IA, il ne s’agit pas seulement de réguler : la France, qui compte déjà de nombreux talents, doit conforter cet écosystème prometteur.



1. https://www.economie.gouv.fr/files/files/directions_services/cge/Rapports/2016_05_13_Rapport_Algorithmes(1).pdf (Retour au texte 1)
2. « L’apprentissage profond : une révolution en intelligence artificielle », leçon inaugurale au collège de France par Yan LeCun, directeur de la recherche en intelligence artificielle de Facebook, février 2016. (Retour au texte 2)
3. « Principles for Algorithmic Transparency and Accountability », janvier 2017, US ACM. (Retour au texte 3)
4. https://www.inria.fr/actualite/actualites-inria/transalgo (Retour au texte 4)
5. https://www.aiforhumanity.fr (Retour au texte 5)
6.https://www.academie-technologies.fr/blog/categories/rapports/posts/renouveau-de-l-intelligence-artificielle-et-de-l-apprentissage-automatique (Retour au texte 6)

partager cet article
Partager sur

Ce site utilise des cookies d'audience afin d'améliorer la navigation et les fonctionnalités.