third
Novembre 2018

Numéro Un

Retrouvez le numéro un de
Third : qui gouverne les
algorithmes ?

Third | Novembre 2018

Légiférer sur les algorithmes : libérer l’innovation et protéger le citoyen

ARTICLE

 

Par Éric Bothorel, député des Côtes d’Armor

 

Loi Lemaire, RGPD, Fake news, Directive secret des affaires… Ces 2 dernières années, les législateurs français et européens ont dû repenser leurs outils d’encadrement juridique pour accompagner le développement de l’économie numérique. L’objectif reste inchangé : conserver une maîtrise technologique, garantir les droits fondamentaux, soutenir l’innovation, le tout pour un numérique au service de l’humain.

 

Le numérique : à la fois remède et poison

S’il fallait désigner les deux principaux déterminants de la révolution numérique, je nommerais la plateforme et l’algorithme. La première car elle entraîne une recomposition des chaînes de valeur et sert d’interface unique entre l’offre et la demande, devenant à terme le principal lieu de chaque acte de consommation, qu’il concerne un bien matériel ou immatériel. Le second car il joue un rôle essentiel dans le développement de nouveaux services personnalisés, dont l’ordonnancement de l’information présentée sur internet, ce qui ne manque pas d’influer sur les décisions de chaque individu dans des domaines toujours croissants de l’activité humaine.

Mis ensemble, plateforme et algorithme exercent des effets qui suffisent à caractériser le numérique comme un pharmakon, à la fois remède et poison pour nos concitoyens. D’une part, le profilage algorithmique constitue un certain enfermement qui peut nourrir des discriminations, engendrer des traitements déloyaux, favoriser les tentatives de manipulation ou contribuer à l’érosion du libre arbitre. D’autre part, le numérique apporte son lot d’innovation qui enrichit indéniablement notre existence, qu’on pense au véhicule autonome, aux smart cities, au diagnostic médical assisté par ordinateur ou à la gestion optimisée des ressources énergétiques.

Face à ce constat ambivalent, le législateur ne peut rester indifférent. Il s’agit pour lui de faire levier sur les opportunités offertes par le numérique, tout en conjurant ses menaces.

Pour une régulation intelligente, un triptyque d’outils désormais indissociables : la loi, le droit souple, l’auto-régulation

La complexité des technologies en cause lui impose toutefois de conserver une attitude précautionneuse. Pour ce faire, il est nécessaire de garder à l’esprit une donnée fondamentale : l’innovation progresse à un rythme effréné et bien supérieur à la capacité, pour nos sociétés démocratiques, de s’accorder sur les orientations à lui donner. Dès lors que l’on admet comme illusoire la position qui consiste à élaborer une loi pour chaque problème posé par le numérique, une seule option raisonnable reste sur la table : viser le moyen-long terme et dessiner un cadre dont les grands principes conserveront leur pertinence, et ce malgré l’incertitude liée à l’avenir et aux évolutions technologiques potentielles. À ce titre, le modèle serait par exemple la loi informatique et libertés de 1978, qui a nécessité plusieurs ajustements depuis sa naissance mais sans que son corps principiel n’en sorte profondément altéré.

Une fois que les grands principes sont posés, la tâche est-elle achevée pour autant ? À l’évidence, non. Car lesdits principes auront été fixés de façon à encadrer les initiatives de façon souple et générale. Ils donnent une direction, mais ne fournissent pas les moyens pour l’atteindre. D’ailleurs, tant mieux, car le risque est grand de brider l’innovation et d’étouffer un secteur avant même qu’il soit parvenu à maturité. À côté de la loi, restaurée dans sa finalité première, il nous faut donc adjoindre deux outils supplémentaires, le droit souple et l’auto-régulation, seuls à même de responsabiliser suffisamment les acteurs tout en accompagnant leur développement économique.

Des exemples récents d’une telle architecture réglementaire permettent d’en apprécier la pertinence. Il en va en premier lieu des équilibres retenus par le RGPD, qui fait la part belle au droit souple et à l’auto-régulation. D’un côté, il pose des principes clairs et stricts : consentement libre et éclairé de l’utilisateur et privacy by design des dispositifs de traitement des données personnelles. De l’autre, il allège les formalités préalables au déploiement des outils de collecte et de traitement des données, renforce les pouvoirs de régulation ex post des autorités de contrôle, et leur confie la tâche d’accompagner la mise en conformité des acteurs par un rôle de conseil et l’édiction de guides de bonnes pratiques. L’ensemble est parachevé par des sanctions suffisamment dissuasives pour assurer une véritable crédibilité au cadre juridique.

Un deuxième exemple figure au sein de la loi ELAN, et concerne plus particulièrement l’encadrement des pratiques de locations de meublés touristiques par des plateformes de type Airbnb. Le principe est posé dans la loi : une limite légale de 120 jours de location par an, toutes plateformes confondues. Et les moyens d’en assurer le respect passe par l’engagement volontaire des plateformes, qui rappelleront aux loueurs l’existence de la limite, mettront à leur disposition un compteur du nombre de jours de location, et déploieront un système de blocage automatique une fois la limite atteinte. En contrepartie, les contrôles et les sanctions sont renforcées, tant à l’encontre des loueurs que des plateformes.

De la conception des algorithmes à leur application, des équilibres subtils à rechercher pour servir une conviction : remettre l’humain au centre de la décision

Si cette logique de régulation co-construite trouve son efficacité dans de nombreuses configurations, elle ne saurait pourtant tout régler, et notamment s’agissant de l’appréhension des algorithmes eux-mêmes. Dans cette matière, il nous faudra faire preuve de créativité. Les obstacles sont multiples, parfois légitimes, et les situations très disparates.

Le réflexe premier qui survient lorsqu’il est question de régulation des algorithmes serait de leur appliquer un principe systématique de transparence et de loyauté. Cette approche entend satisfaire une finalité essentielle : ouvrir la « boîte noire » de l’algorithme, auditer son fonctionnement, cerner ses biais, et ainsi restaurer une analyse critique de ses décisions et une capacité de les contester. La finalité est louable, et le procédé trouve sa justification lorsque la décision algorithmique est susceptible d’entraîner des conséquences très importantes sur la vie d’un individu (attribution d’un crédit bancaire, justice assistée par IA, calcul de l’impôt, sélection à l’université). Il perd en revanche de sa pertinence lorsque l’influence de l’algorithme est plus diffuse, voire mineure comme sur de la recommandation de contenu, et surtout lorsque l’algorithme lui-même est la propriété d’une personne privée.

Dans ce dernier cas, le secret des affaires s’oppose à la transparence systématique des algorithmes, ne serait-ce que parce qu’ils constituent bien souvent le principal actif à côté des volumineux jeux de données collectées sur lequel repose la prospérité des entreprises du numérique. Ouvrir l’algorithme à la concurrence, c’est condamner l’entreprise propriétaire au dépôt de bilan. Même la satisfaction d’un objectif d’intérêt général justifie difficilement un tel sacrifice.

Dans ces conditions, comment garantir aux citoyens qu’ils conservent malgré tout une certaine maîtrise sur leur environnement technologique ? Lorsque le fonctionnement de l’algorithme est sanctuarisé, une réponse utile consiste à appréhender ses conséquences. C’est tout le sens d’un amendement n°136 présentée par ma collègue Paula Forteza, auquel j’ai souhaité m’associer, et qui a été adopté lors de l’examen en première lecture des propositions de loi visant à lutter contre la diffusion de fausses informations. Cette mesure prévoit une obligation, pour les plate-formes vidéo et les réseaux sociaux, de produire des statistiques publiques sur la part des contenus suggérés par algorithmes, et sur la part des contenus ayant fait l’objet d’un accès direct (par URL ou moteur de recherche externe). De la sorte, il s’agit de rendre visible la présence des algorithmes lors de la navigation de l’internaute afin qu’il puisse décider en toute connaissance de cause de consommer ou non tel ou tel contenu. La publication des effets d’un algorithme ne menant pas à la possibilité de le reproduire, il n’y a pas d’atteinte au secret des affaires et à la liberté d’entreprendre.

Pour autant, le bénéfice demeure plein et entier : la neutralité apparente de la machine s’efface, et le libre arbitre de l’utilisateur en sort renforcé. Sur ce point, comme sur les autres, c’est la fidélité aux valeurs humanistes qui doivent guider notre action. Entre un numérique tourné vers le profit, et un numérique tourné vers la surveillance, il existe bel et bien une troisième voie profondément européenne : celle d’un numérique au service de l’humain.

partager cet article
Partager sur

Ce site utilise des cookies d'audience afin d'améliorer la navigation et les fonctionnalités.