Numéro six
Retrouvez le numéro six de
Third : Le numérique peut-il sauver la démocratie ?
Retrouvez le numéro six de
Third : Le numérique peut-il sauver la démocratie ?
S’intéresser au cadre juridique applicable au débat démocratique en ligne nécessite de commencer par un travail sémantique sur les éléments qui le constituent :
– le débat : qui peut être défini comme une « discussion, souvent organisée, autour d’un thème » (source : Larousse) ; et
– la démocratie : qui est « un régime politique dans lequel le pouvoir suprême est attribué au peuple qui l’exerce lui-même, ou par l’intermédiaire des représentants qu’il élit » (source : Cornu, Vocabulaire juridique).
Par débat démocratique, on entend ainsi faire référence aux discussions qui ont lieu entre les élus (démocratie représentative) et/ou les citoyens (démocratie directe) pour l’exercice du pouvoir. Or, le numérique a un impact significatif sur notre manière de débattre et d’échanger.
Avant l’émergence de la révolution numérique, le débat démocratique répondait aux caractéristiques suivantes : (i) intermédiation (les participants du débat démocratique étaient essentiellement les représentants politiques, les citoyens ayant peu de moyens pour participer directement au débat démocratique), (ii) forums limités (le débat démocratique prenait place dans les médias traditionnels (presse écrite, radio, télévision)) et (iii) filtration (conséquence des deux précédentes caractéristiques, le rôle de filtration joué par les représentants politiques et les rédactions au sein des médias).
Avec le numérique, on assiste à une libéralisation du débat démocratique où – notamment au travers des réseaux sociaux – chacun peut donner de la publicité à ses propos et communiquer directement avec les autres, des élus ou des décideurs. On assiste à une migration des médias traditionnels vers les médias numériques, ce qui modifie les caractéristiques du débat : (i) participation directe (il y a désormais une participation active et directe des citoyens au débat démocratique), (ii) forums divers (les lieux se multiplient et s’autonomisent) et (iii) absence de filtration (chacun peut librement choisir les propos qu’il diffuse sans que cela ne passe par l’approbation préalable d’un journaliste).
Le droit s’intéresse depuis longtemps au débat démocratique et cherche à encadrer les conditions dans lesquelles celui-ci se déroule, afin de faciliter l’émergence d’un débat sain. Comme souvent, la règle juridique est en retard par rapport aux évolutions de la société et, en conséquence, le cadre juridique applicable au débat public reste fondé sur des postulats qui sont désormais dépassés. En effet, la régulation du débat public passait essentiellement par des contraintes sur les médias traditionnels1 que sont la télévision, la radio et la presse écrite.
Aujourd’hui, confrontés à un nouveau paradigme, la règlementation est en partie obsolète. En particulier, les fake news (ou fausses informations) ont connu une poussée exponentielle du fait de la diffusion massive permise par les médias numériques (notamment les réseaux sociaux) et de l’absence de filtrage. D’un point de vue juridique, le Conseil constitutionnel a eu l’occasion d’apporter certaines précisions sur la définition des fake news : « [la] définition donnée par le législateur des fausses informations (« allégations ou imputations inexactes ou trompeuses d’un fait ») implique qu’il ne peut s’agir […] ni d’opinions, ni de parodies, ni d’inexactitudes partielles ou de simples exagérations2 » . Nous pensons que c’est un objet d’étude particulièrement intéressant pour appréhender le débat démocratique dans une société numérique.
Après avoir étudié la loi n°2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information et sa mise en œuvre (1), nous tenterons d’expliquer pourquoi, au-delà de l’adoption de réglementations spécifiques, il est nécessaire de repenser l’encadrement juridique du débat public à l’aune des changements structurels qui accompagnent la digitalisation de la société, pour favoriser un débat démocratique sain en ligne (2).
Le dispositif de lutte contre la manipulation de l’information
L’objet de la loi n°2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information est de « s’attaquer à la diffusion massive et extrêmement rapide des fausses informations via les outils numériques, notamment les tuyaux de propagation que sont les réseaux sociaux et les médias sous l’influence d’un État étranger »3 .
Cette loi n’est pas une nouveauté puisque l’article 27 de la loi du 28 juillet 1881 sur la presse4 (rendue applicable par la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, aux fausses nouvelles diffusées sur internet) et l’article 97 du Code électoral5 réprimaient tous les deux la diffusion de fausses informations. Cependant, compte tenu des modes de diffusion des informations sur les médias numériques, de leur pouvoir de diffusion massive et de leur caractère viral, le constat a été fait de la nécessité de compléter le cadre répressif existant afin de pouvoir prévenir et freiner la diffusion secondaire d’informations contrefaites et malveillantes6 . C’est la raison qui a conduit le parlement à adopter cette nouvelle loi.
Le dispositif mis en place par la loi de lutte contre la manipulation de l’information distingue :
(a) les règles applicables spécifiquement pendant les périodes électorales, en particulier :
– les obligations particulières de transparence pour les opérateurs de plateformes en ligne7 : avant et durant les élections8 , les opérateurs de plateformes en ligne9 dont l’activité dépasse certains seuils, sont tenus : (i) de signaler les contenus sponsorisés (en révélant l’identité de la personne qui verse des sommes à l’opérateur pour promouvoir des contenus d’information se rattachant à un débat d’intérêt général) ; (ii) d’informer les utilisateurs de l’utilisation de leurs données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général ; (iii) de rendre public les montants qu’ils perçoivent (au-delà d’un certain seuil).
– l’instauration d’une procédure spéciale de référé 10 : avant et durant les élections, le juge des référés (la compétence étant dévolue au Tribunal de grande instance de Paris, aujourd’hui le Tribunal judiciaire) peut être saisi par le ministère public, tout candidat, tout parti ou groupement politique ou toute personne ayant intérêt à agir afin de prescrire « toutes mesures proportionnées et nécessaires » pour faire cesser la diffusion d’ « allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisés et massive par le biais d’un service de communication au public en ligne ». Le juge des référés se prononce dans un délai de 48 heures à compter de sa saisine.
(b) les règles applicables en dehors des périodes électorales, en particulier :
– le devoir de coopération des opérateurs de plateformes en ligne 11 : les opérateurs de plateforme en ligne doivent mettre « en œuvre des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité » des scrutins. Par exemple, ils doivent mettre en place un dispositif de signalement des fausses informations, notamment lorsqu’elles sont issues de contenus sponsorisés, ou mettre en œuvre des mesures complémentaires portant sur la transparence de leurs algorithmes.
– le rôle du CSA : la compétence du CSA a été étendue et a acquis des compétences vis-à-vis des opérateurs de plateformes en ligne auxquels il peut notamment adresser des recommandations au titre de la lutte contre les fake news. Le CSA est également chargé du suivi de la mise en œuvre par ces opérateurs de leur devoir de coopération.
Le bilan contrasté de l’application de la loi française sur les fake news
Malgré beaucoup de communication autour de cette loi et la conscience collective de l’importance du sujet, la loi de 2018 s’est avérée moins efficace qu’espéré.
Premier exemple, le devoir de coopération des plateformes en ligne. Conformément aux articles 11 et 12 de la loi du 22 décembre 2018, les plus gros opérateurs de plateformes en ligne sont tenus de transmettre au CSA une déclaration annuelle faisant état des moyens mis en œuvre. Sur cette base, le CSA est chargé d’établir un bilan de l’application et de l’effectivité des mesures. Le premier bilan du CSA a été publié au mois de juillet 2020 (s’agissant des mesures mises en œuvre en 2019) et note que si « les opérateurs se sont saisis de l’enjeu de la lutte contre la diffusion de fausses informations, en suivant plusieurs de ses recommandations ; néanmoins, ces mesures doivent encore être approfondies »12 . Le CSA a notamment relevé que l’ergonomie des dispositifs de signalement était variable, les procédures d’instructions des signalements et les moyens mis en œuvre par les plateformes restaient opaques et que la quantité d’informations fournie au CSA était faible.
Deuxième exemple, il y a eu une seule application du « référé anti fake news ». Sur le fondement de l’article L. 163-2 du Code électoral, deux élus ont sollicité le retrait d’un tweet de Christophe Castaner, alors Ministre de l’Intérieur, dénonçant une agression qui aurait eu lieu au sein de l’hôpital de la Pitié-Salpêtrière à Paris13 . Le Tribunal de grande instance de Paris a, dans une décision du 17 mai 201914 , rejeté cette demande, considérant qu’aucun des critères nécessaires pour retirer le contenu n’était réuni : (i) l’allégation n’était pas « manifestement inexacte ou trompeuse » (le tweet constituait une exagération de faits réels), (ii) la diffusion n’est pas « massive, artificielle ou automatisée, et délibérée » et (iii) le tweet litigieux ne présente pas un risque manifeste d’altération de la sincérité du scrutin puisqu’ « il n’a pas occulté le débat, puisqu’il a été immédiatement contesté », « permettant à chaque électeur de se faire une opinion éclairée, sans risque manifeste de manipulation ».
Troisième exemple, la crise du Covid-19 a également mis en lumière les limites et difficultés de la réglementation de la lutte contre les fake news car elle n’a pas empêché la diffusion virale de fausses informations relative à la pandémie. Cette crise a également souligné la grande difficulté pour caractériser ce qu’est une fake news. Face à une épidémie et un virus dont on ignorait tout, nous avons pu constater à quel point la lutte contre les fausses informations est un exercice périlleux, puisque cette notion renvoie immédiatement à l’idée qu’il existerait une vérité officielle (cf. l’initiative du gouvernement de mettre en place une page « désinfox coronavirus » dont l’objet était de recenser les informations fiables sur le coronavirus, initiative rapidement avortée face aux critiques dont elle a fait l’objet15 ).
Les conséquences de la révolution numérique sur le débat public dépassent les seules fake news
Plutôt que d’appréhender les mutations engendrées par le numérique d’un point de vue structurel, le législateur a tendance à se focaliser sur des totems et à se mobiliser sur des sujets ponctuels mais visibles en termes de communication. Ainsi, il y a eu une certaine polarisation sur les fake news alors que les conséquences du numérique sur le débat public vont au-delà de cette problématique.
On pense à la cyber-haine et au fait que l’espace numérique connaît une véritable prolifération des contenus haineux, notamment en raison du caractère viral de l’expression dans l’espace numérique et de l’anonymat dont peuvent bénéficier les auteurs. Tout comme les fake news, et sans remettre l’existence de ce phénomène qui est bien réel, la cyber-haine a été érigée par le législateur en symbole et fait l’objet d’une loi spécifique : la loi n°2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet (dite « loi Avia »). Cette initiative s’est soldée par un échec car les principales dispositions de cette loi ont été censurées par le Conseil constitutionnel16 .
La censure et la modération des contenus est une autre illustration des conséquences de l’usage grandissant des outils numériques. En effet, les opérateurs de plateformes en ligne, qui hébergent ou référencent des contenus, jouent un rôle central puisqu’ils déterminent, dans leurs conditions d’utilisation, les conditions devant être respectées par les utilisateurs qui publient du contenu et se réservent le droit de pouvoir supprimer des contenus et de censurer les contenus non conformes à ces règles. Ces opérateurs ont donc un rôle primordial dans l’encadrement du débat public en ligne puisqu’ils ont le pouvoir de décider quels contenus peuvent ou non être relayés. L’actualité récente (que ce soit les règles de YouTube concernant les contenus sur le Covid-19, la suppression du compte Twitter de Donald Trump ou la récente plainte déposée par Reporters sans Frontières contre Facebook pour sa politique de modération) a mis en lumière une forme de censure de la part de ces acteurs privés17 .
Un débat démocratique sain en ligne ne peut être garanti que par une réglementation globale et pragmatique aux côtés des acteurs structurants
Comme nous l’avons démontré, les bouleversements engendrés par la révolution numérique sont aussi structurels que nombreux. En conséquence, toute tentative de réglementation par à coup, en réaction et en se focalisant sur des totems est tôt ou tard vouée à l’échec ou à l’inadaptation.
S’agissant plus spécifiquement du débat public en ligne, cela implique de se poser les questions fondamentales suivantes : quel débat public en ligne souhaitons-nous ? Quelles garanties sont essentielles pour les citoyens qui participent du débat public en ligne ? Quel doit être le rôle de l’État et des acteurs privés dans la régulation du débat public en ligne ?
Sur cette dernière question, on ne peut ignorer le rôle central joué par les « opérateurs de plateformes en ligne » (dont les réseaux sociaux). Compte tenu de leur rôle structurant, il est évidemment nécessaire de les réguler mais il faut que les obligations soient en adéquation avec leur fonctionnement opérationnel, de sorte que le régulateur doit avoir une connaissance précise de ces modèles économiques innovants. En ce sens, l’approche structurelle de redéfinition du droit des acteurs numériques adoptée par l’Union européenne, en particulier avec le Digital Services Act et le Digital Market Act, nous semble aller dans le sens d’une meilleure régulation de l’espace numérique.
Mais pour que tout effort de régulation soit réellement efficace, il faut également voir ces acteurs non pas comme de seuls objets de régulation mais également comme des alliés des États dans la régulation de l’espace numérique (de la même manière que les banques jouent un rôle dans la mise en œuvre de la régulation de l’industrie financière – la révolution numérique étant sans doute comparable à la révolution financière, en étant même probablement d’une plus grande ampleur). La solution se trouve certainement dans une co-construction avec des acteurs qui seront certes responsabilisés (au travers des obligations qui s’imposent à eux) mais également valorisés par les pouvoirs publics et ainsi engagés aux côtés de ces derniers pour favoriser un débat public sain en ligne.
1 | On peut citer les lois du 28 juillet 1881 sur la liberté de la presse (qui responsabilise les organes de presse) et du 30 septembre 1986 relative à la liberté de communication (qui confie au Conseil Supérieur de l’Audiovisuel (CSA) la mission de veiller au pluralisme politique pour la radio et la télévision). (Retour au texte 1)
2 | Commentaires, Conseil constitutionnel, décisions n°2018-773 DC et n°2018-774 DC du 20 décembre 2018, Loi et loi organique relatives à la lutte contre la manipulation de l’information, https://www.conseil-constitutionnel.fr/sites/default/files/as/root/bank_mm/decisions/2018773dc/2018773_774dc_ccc.pdf ; voir également Commission européenne, Lutte contre la désinformation, https://ec.europa.eu/france/news/desinformation_fr. (Retour au texte 2)
3 | https://www.gouvernement.fr/action/contre-la-manipulation-de-l-information. (Retour au texte 3)
4 | Article 27 de la loi du 28 juillet 1881 : la « publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler, sera punie d’une amende de 45 000 euros ». (Retour au texte 4)
5 | Article 97 du code électoral : ceux « qui, à l’aide de fausses nouvelles, bruits calomnieux ou autres manœuvres frauduleuses, auront surpris ou détourné des suffrages, déterminé un ou plusieurs électeurs à s’abstenir de voter, seront punis d’un emprisonnement d’un an et d’une amende de 15 000 euros ». (Retour au texte 5)
6 | Rapport de la commission des affaires culturelles et de l’éducation sur la proposition de loi relative à la lutte contre la manipulation de l’information, p. 17. (Retour au texte 6)
7 | Article L. 163-1 du Code électoral. (Retour au texte 7)
8 | À compter d’une période de 3 mois précédant le premier jour du moins d’élections générales. (Retour au texte 8)
9 | Au sens de l’article L. 111-7 du Code de la consommation. (Retour au texte 9)
10 | Article L. 163-2 du Code électoral. (Retour au texte 10)
11 | Article 11 de la loi n°2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information. (Retour au texte 11)
12 | Conseil Supérieur de l’Audiovisuel, Lutte contre la diffusion massive de fausses informations sur les plateformes en lignes : bilan de l’application et de l’effectivité des mesures mises en œuvre par les opérateurs en 2019, juillet 2020. (Retour au texte 12)
13 | « Ici, à la Pitié-Salpêtrière, on a attaqué un hôpital. On a agressé son personnel soignant. Et on a blessé un policier mobilisé pour le protéger. Indéfectible soutien à nos forces de l’ordre : elles sont la fierté de la République ». (Retour au texte 13)
14 | TGI Paris, 17 mai 2019, n° 19/53935. (Retour au texte 14)
15 | https://www.lemonde.fr/actualite-medias/article/2020/05/05/le-gouvernement-supprime-sa-page-controversee-desinfox-coronavirus_6038753_3236.html. (Retour au texte 15)
16 | Décision n°2020-801 DC du 18 juin 2020. (Retour au texte 16)
17 | Exemples : YouTube qui a publié de nouvelles règles sur les informations médicales incorrectes relatives à la Covid-19: « YouTube interdit les contenus sur la COVID-19 qui présentent un risque important de préjudice majeur. YouTube n’autorise pas les contenus qui propagent des informations médicales incorrectes contredisant celles des autorités sanitaires locales ou de l’Organisation mondiale de la Santé (OMS) concernant la COVID-19. Cela ne s’applique qu’aux contenus allant à l’encontre des conseils de l’OMS ou des autorités sanitaires locales sur les sujets suivants : Traitement Prévention Diagnostic Transmission Consignes de distanciation sociale et d’auto-isolement Existence de la COVID-19 » ; ou les débats sur la suppression du compte Twitter de Donald Trump. (Retour au texte 17)