Proposition de loi « haine sur Internet » : voici l’avis du Conseil d’Etat

L’Assemblée nationale a publié l’avis sur la proposition de loi « haine sur Internet », rendu par le Conseil d’État. Voici ce texte :

 

CONSEIL D’ETAT
Assemblée générale
Séance du jeudi 16 mai 2019
Section de l’intérieur
N° 397368
EXTRAIT DU REGISTRE DES DELIBERATIONS
AVIS SUR LA PROPOSITION DE LOI

visant à lutter contre la haine sur Internet

 

1.    Le Conseil d’Etat a été saisi le 25 mars 2019, sur le fondement du cinquième alinéa de l’article 39 de la Constitution, de la proposition de loi n°1785 enregistrée le 20 mars 2019 à la présidence de l’Assemblée nationale. Cette proposition de loi, présentée par Mme Laetitia Avia, députée, a pour objectif de lutter contre la haine sur Internet, en mettant en œuvre les principales recommandations du rapport intitulé « Renforcer la lutte contre le racisme et l’antisémitisme » remis au Premier ministre le 20 septembre 2018. Le Conseil d’Etat, après en avoir examiné le contenu, formule les observations et suggestions qui suivent.

I.    Cadre juridique en vigueur.

2.    Au-delà des fondements constitutionnels et conventionnels protégeant la liberté de la communication et des instruments législatifs l’ayant mise en œuvre d’abord pour la presse (loi du 29 juillet 1881) puis pour l’audiovisuel (loi n° 82-652 du 29 juillet 1982 sur la communication audiovisuelle et loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication), le législateur de l’Union européenne puis le législateur national sont intervenus spécifiquement pour gouverner les obligations des opérateurs sur Internet.

3.    La directive 2000/31/CE du 8 juin 2000, plus connue sous le nom de directive e commerce, pose plusieurs principes dans un objectif de création d’un marché unique du commerce électronique :

–    les prestataires de services de la société de l’information (fournisseurs d’accès à Internet et hébergeurs) dont l’activité revêt un caractère purement technique, automatique et passif ne peuvent être tenus responsables à raison du contenu, édité par leurs utilisateurs, qu’ils se bornent à transmettre ou stocker qu’à partir du moment où ils acquièrent une connaissance effective du caractère illicite de ce contenu (art. 12 à 14) ;

–    aucun Etat membre ne peut imposer à ces prestataires une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ni une obligation générale de rechercher activement les faits ou les circonstances révélant des activités illicites (art. 15) ;

–    chaque Etat membre veille à ce que les services de la société de l’information fournis par un prestataire établi sur son territoire respectent, dans les limites de la directive, ses dispositions nationales, et aucun État membre ne peut restreindre la libre circulation des services de la société de l’information en provenance d’un autre Etat membre de l’Union européenne (1 et 2 de l’art. 3) ;

–    lorsqu’un motif d’ordre public, de santé publique, de sécurité publique ou de protection des consommateurs l’exige, la réglementation de l’activité d’un prestataire de services établi dans un autre État membre n’est possible qu’en cas de carence ou d’insuffisance de celui-ci, et après notification à la Commission, qui appréciera la conformité des restrictions apportées aux objectifs de la directive (4 à 6 de l’art. 3).

4.    C’est dans le cadre de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) que la directive e-commerce a été transposée.

5.    En premier lieu, l’article 6 de la loi, qui étend la loi de 1881 et les infractions prévues par celle-ci aux contenus diffusés par voie électronique, transpose le principe de responsabilité allégée des prestataires de services de communication au public en ligne, qu’ils soient fournisseurs d’accès ou hébergeurs. S’agissant de ces derniers, il n’admet l’engagement de leur responsabilité civile ou pénale à raison des contenus qu’ils stockent que si, après avoir été informés de leur caractère illicite par un dispositif de signalement enserré dans de strictes conditions de forme (5 du I), ils n’ont pas promptement agi pour les retirer ou en interdire l’accès (2 et 3 du I). Dans sa décision n° 2004-496 DC du 10 juin 2004, le Conseil constitutionnel a souligné, par une réserve d’interprétation, que ces dispositions ne sauraient avoir pour effet d’engager la responsabilité d’un hébergeur qui n’a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge. Les pratiques abusives de signalement sont par ailleurs spécifiquement réprimées (4 du I de l’article 6).

6.    Outre l’obligation de conservation et de communication des données d’identification des utilisateurs de leurs services qui leur incombe (II et III), la loi pose également le principe d’une coopération de ces prestataires à la lutte contre les contenus les plus gravement réprimés, dits « contenus odieux » (telles que l’apologie des crimes contre l’humanité, la provocation au terrorisme, l’incitation à la haine raciale, ou à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle, de leurs opinions religieuses ou de leur handicap, la pornographie enfantine, l’incitation à la violence notamment envers les femmes et les autres atteintes à la dignité humaine). Ce devoir de concours les oblige à disposer d’un mécanisme de signalement aisément accessible de ces contenus, à informer les autorités publiques de leurs signalements, et à rendre publics les moyens qu’ils consacrent à la prévention de leur diffusion (7 du I de l’article 6). Le manquement à l’ensemble de ces obligations est pénalement réprimé (VI de l’article 6).

7.    En deuxième lieu, deux dispositions particulières peuvent contraindre à un retrait de contenu ou un blocage d’accès au service de communication au public en ligne : d’une part (8 du I de l’article 6), l’autorité judiciaire peut prescrire en référé ou sur requête toute mesure propre à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne, ce qui peut aller jusqu’au blocage temporaire de l’accès à un site (art. 50-1 de la loi du 29 juillet 1881 sur la liberté de presse) ; d’autre part (art. 6-1), l’autorité administrative peut demander aux fournisseurs de contenus ou aux hébergeurs de retirer les contenus relatifs à la provocation ou à l’apologie du terrorisme ou à la pédopornographie et, en cas de refus de retrait ou de défaut de réponse, peut, sous le contrôle d’une personnalité qualifiée membre de la CNIL, enjoindre aux fournisseurs d’accès à Internet de couper l’accès à ces sites. La méconnaissance de cette injonction entraîne les mêmes sanctions pénales que celles prévues au VI de l’article 6. Ce dispositif, dans sa rédaction issue de la loi n° 2011-267 du 14 mars 2011, a été déclaré conforme à la Constitution par la décision n° 2011-625 DC du Conseil constitutionnel en date du 10 mars 2011.

8.    L’apparition de nouveaux acteurs (réseaux sociaux et moteurs de recherche) qui, en tant qu’intermédiaires actifs permettant le partage de contenus et en accélérant l’accès par leurs processus algorithmiques de hiérarchisation et d’optimisation, ne se bornent pas à un rôle purement technique, sans pour autant pouvoir être qualifiés d’éditeurs de contenus, rend le régime actuel, fondé sur la neutralité des prestataires de services de communication au public en ligne à l’égard des contenus, en partie dépassé.

9.    La loi n° 2016-1321 du 7 octobre 2016 pour une République numérique a cherché à répondre à cette difficulté en introduisant un article L. 111-7 dans le code de la consommation. Celui-ci impose à une catégorie particulière de services de communication au public en ligne reposant sur un service de classement, de référencement ou de mise en relation en vue de la fourniture de biens, de services ou la diffusion de contenus, appelés opérateurs de plateforme en ligne, des obligations renforcées de clarté, de transparence et de loyauté au titre de la protection des consommateurs dans les activités de commerce en ligne. La conformité de ces dispositions législatives au droit de l’Union européenne comme aux exigences constitutionnelles est établie ou du moins à ce stade n’a pas été remise en cause. C’est à ces mêmes opérateurs de plateforme en ligne que la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information impose des obligations de loyauté et de transparence renforcées en période électorale.

10.    Les limites de cette distinction binaire entre prestataires purement techniques et éditeurs de contenus ont également été atténuées dans un secteur voisin par la directive 2018/1808 du 14 novembre 2018 modifiant la directive 2010/13 du 10 mars 2010, dite directive « services médias audiovisuels » (SMA). Tout en concernant principalement le secteur de l’audiovisuel, cette directive fait obligation aux Etats membres de veiller à ce que les opérateurs de plateforme de partage de vidéos établis sur leurs territoires ou réputés y être établis prennent les mesures appropriées pour protéger le grand public des vidéos et programmes créés par l’utilisateur comportant une incitation à la violence ou à la haine visant un groupe de personnes fondée sur l’un des motifs visés à l’article 21 de la Charte des droits fondamentaux.

11.    Reste que, limitée par les moyens disponibles de police et de justice, par les difficultés de qualifier l’intention pénale des organes dirigeants des prestataires concernés souvent domiciliés à l’étranger, par les possibilités de contournement des décisions de justice propres aux technologies des réseaux en ligne et par les contraintes des exigences procédurales qui lui sont propres, la répression de la diffusion des contenus haineux demeure insuffisante et insatisfaisante.

12.    Confronté aux mêmes questions, le législateur allemand a cherché à imposer aux plateformes de partage de contenus en ligne comportant plus de deux millions d’utilisateurs enregistrés en Allemagne un large éventail d’obligations de signalement de contenus illicites, de transparence et de coopération administrative avec les autorités compétentes dans la loi « NetzDG » du 1er septembre 2017. Cette loi met notamment à la charge des plateformes une obligation de retrait de tout contenu illicite dans un délai de sept jours, et de tout contenu manifestement illicite dans un délai de 24 heures. Seul le juge, susceptible d’être saisi par l’autorité administrative (Office fédéral de la justice), peut obliger au retrait. La loi prévoit que des amendes financières peuvent être infligées aux plateformes par l’Office en cas de comportement globalement non coopératif. La conformité au droit de l’Union européenne de ce dispositif, notifié à la Commission, ne semble pas avoir été remise en cause à ce stade. Il convient de relever que celle-ci a, le 1er mars 2018, adopté une recommandation sur les mesures destinées à lutter de manière efficace contre les contenus illicites en ligne.

II.    Contenu et objectifs de la proposition de loi.

13.    La proposition de loi s’assigne les quatre objectifs suivants :
–    créer, pour les plateformes en ligne à fort trafic, une obligation positive de retrait des contenus manifestement illicites comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ;

–    faciliter et aggraver la répression pénale déjà prévue par la loi du 21 juin 2004 pour la confiance dans l’économie numérique ;

–    mettre en place une régulation administrative visant à prévenir la diffusion de tels contenus, en soumettant ces mêmes grandes plateformes à des obligations d’organisation, de coopération et de transparence ;

–    créer des mécanismes assurant, lorsqu’une décision judiciaire a interdit un contenu ou un site, que leur duplication puisse être efficacement combattue.

14.    Pour mettre en œuvre ces objectifs, la proposition de loi comprend les dispositions suivantes :

–    l’article 1er définit un nouveau régime de régulation administrative des opérateurs de plateformes à fort trafic, défini par référence à un seuil de connexion mensuel sur le territoire français qui sera déterminé par décret. Il prévoit une obligation de retrait sous 24 heures des contenus odieux manifestement illicites visés aux 5ème, 7ème et 8ème alinéas de l’article 24 de la loi de 1881 et des injures réprimées par les 3ème et 4ème alinéas de l’article 33 de la même loi ainsi que la possibilité de sanctions administratives des refus irréguliers de retrait par le CSA ;

–    l’article 2 simplifie les modalités de signalement de contenus illicites ;

–    l’article 3 impose aux opérateurs de plateformes en ligne de mettre à disposition du public une information claire et détaillée sur les dispositifs de recours ;

–    l’article 4 confie au CSA la mission de régulation ;

–    l’article 5 oblige les plateformes visées à avoir un représentant légal en France, et quadruple les sanctions pénales aux obligations existantes ;

–    l’article 6 aligne la lutte contre les sites miroirs sur celle contre les sites interdits par des injonctions administratives de retrait ;
–    l’article 7 prévoit un rapport annuel au Parlement.

15.    Le Conseil d’État estime légitime, compte tenu de l’ampleur atteinte par la diffusion rapide et massive de contenus en ligne reposant sur le racisme, l’antisémitisme ou la discrimination qui restent très largement impunis, la poursuite de ces objectifs. Toutefois, l’intervention du législateur se heurte :

–    d’une part, dans le choix du champ d’application territorial des nouvelles obligations prévues, à de très sérieux obstacles au regard de la directive 2000/31/CE, même s’il pourrait exister, comme le législateur allemand a semblé l’emprunter dans sa loi « NetzDG » du 1er septembre 2017, une voie permettant de la regarder, malgré tout, comme raisonnablement fondée (III) ;

–    d’autre part, dans l’articulation des sanctions judiciaires et administratives, à des exigences constitutionnelles dont la satisfaction conduit le Conseil d’Etat à proposer des précisions quant à la rédaction des dispositions relatives à la répression judiciaire (IV) et à la régulation et la répression administratives (V).

III.    Champ d’application des mesures envisagées.

Sur les opérateurs concernés

16.    La nouvelle obligation spécifique de retrait sous 24 heures vise, dans la proposition, les seuls opérateurs de plateforme de mise en relation de plusieurs parties en vue du partage de contenus publics mentionnés au 2° du I de l’article L. 111-7 du code de la consommation. Le champ organique de la proposition de loi exclut donc ceux des opérateurs visés au 2° du I dont l’activité repose sur la mise en relation en vue de la vente d’un bien, de la fourniture d’un service, et de l’échange ou du partage d’un bien ou d’un service, ce qui se justifie au regard de leur objet, mais aussi les opérateurs visés au 1° du I du même article dont l’activité repose sur le classement ou le référencement, au moyens d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers.

17.    Au regard de l’objet que s’assigne la proposition de loi, qui vise à réprimer la diffusion rapide et potentiellement massive de contenus manifestement illicites, la fixation d’un seuil de connexions en France (que les auteurs proposent de fixer à deux millions par mois) pour délimiter le champ d’application de la loi est en rapport avec cet objet et ne se heurte à aucune difficulté de principe. Cependant, dans la mesure où la proposition de loi entend regarder les opérateurs qu’elle désigne responsables à raison de leur interaction active avec les contenus, dont ils favorisent la diffusion accélérée, la question de l’exclusion de son champ d’application des opérateurs dont l’activité aboutit à des résultats voisins, doit être examinée par rapport aux principes d’égalité et de non-discrimination au regard de l’objectif poursuivi. Par conséquent, la référence aux opérateurs de l’article L. 111-7 du code de la consommation dont l’activité repose sur le classement ou le référencement de contenus au moyen d’algorithmes, ou la mise en relation de plusieurs parties en vue de l’échange ou du partage d’un contenu mis en ligne par des tiers, limitée à ceux d’une certaine taille, définie par un seuil de connexions mensuelles sur le territoire français, afin de ne viser que ceux dont l’impact est le plus important, apparaît plus sûre. Le Conseil d’Etat souligne par ailleurs la nécessité de veiller à ce que des mécanismes de lutte contre les contournements abusifs de ce seuil soient envisagés.

Sur les contenus concernés

18.    Par souci de clarté, le champ des contenus concernés par l’article 1er de la présente proposition de loi pourrait être rattaché à celui des contenus concernés par les obligations spécifiques de concours des prestataires de services de communication au public en ligne visées au 7 du I de l’article 6 de la loi du 21 juin 2004 (contenus dits « odieux »), qui visent notamment l’apologie du terrorisme, des crimes contre l’humanité ou des crimes d’esclavage, l’incitation à la haine à l’égard de personnes à raison de leur origine ou de leur appartenance ou non appartenance à une ethnie, une nation, une race ou une religion, de leur sexe, de leur orientation ou identité sexuelle, de leur handicap, ou encore la diffusion de la pornographie enfantine, en incluant les injures visées aux 3ème et 4ème  alinéas de l’article 33 de la loi de 1881 lorsqu’elles ont un contenu odieux de même nature que ceux mentionnés ci-dessus.

19.    Pour assurer la cohérence et l’efficacité de l’ensemble du dispositif, l’obligation de retrait ou de déréférencement des contenus visés au point 18 du présent avis imposée aux grandes plateformes devrait être intégrée à la loi pour la confiance dans l’économie numérique, et la coordination avec les obligations qu’elle prévoit déjà mieux assurée. Le Conseil d’Etat recommande la création d’une nouvelle disposition dans la loi pour la confiance dans l’économie numérique, applicable aux seuls opérateurs visés par la présente proposition de loi, et dont le régime pourra utilement, en tant que de besoin, renvoyer aux dispositions de droit commun applicables à l’ensemble des services de communication au public en ligne établis en France.

Sur le champ territorial

20.    Quels que soient les opérateurs et les comportements visés, une lecture stricte de l’article 3 de la directive e-commerce, dont le mécanisme a été confirmé, en ce qui concerne les plateformes de partage de vidéos, par la directive SMA modifiée, limite aux opérateurs établis en France ceux auxquels la loi nationale pourrait imposer de nouvelles obligations. À supposer même que les opérateurs établis hors de l’Union européenne puissent cependant aussi être visés par la loi nationale, il leur suffirait de s’établir dans un autre pays de l’Union – ce qui est d’ailleurs le cas de la plupart des réseaux sociaux – pour paralyser l’effet de ces dispositions.

21.    Or, la proposition de loi prévoit d’imposer des obligations spécifiques aux opérateurs de plateforme en ligne en fonction, non de leur établissement sur le territoire français, mais d’un seuil déterminé de nombre de connexions mensuelles, sur le territoire français, à leurs services. A supposer que les dispositions envisagées relatives à la répression pénale de l’obligation renforcée de retrait puissent être regardées comme relevant de la seule loi pénale, plutôt que comme une réglementation spécifique des opérateurs de plateforme en ligne entrant dans le champ de la directive 2000/31/CE, auquel cas l’Etat sur le territoire duquel l’infraction a été commise serait alors compétent pour la réprimer, le régime de régulation administrative des grandes plateformes entre en tout état de cause directement dans le champ de la directive 2000/31/CE et constitue, à ce titre, une entrave à la libre prestation des services de la société de l’information, y compris ceux en provenance d’un autre Etat membre. La proposition de loi pourrait alors être regardée comme incompatible avec l’article 3 de la directive 2000/31/CE.

22.    Toutefois, le Conseil d’Etat estime qu’un fondement juridique peut être trouvé à la dérogation à la libre prestation de service que nécessitent les dispositions envisagées en la rattachant à l’exception générale de protection des droits fondamentaux. Le déferlement de contenus particulièrement odieux par le biais de plateformes en ligne mondialisées et ses conséquences graves, autant pour la vie démocratique que par ses impacts sur les comportements ou la vie des utilisateurs, constituent une atteinte à la dignité humaine protégée par l’article premier de la Charte des droits fondamentaux ainsi qu’une méconnaissance du principe de non-discrimination protégé par l’article 21 de cette Charte. Or une protection effective des droits fondamentaux suppose que soient mis en place, quel que soit le lieu d’établissement des opérateurs, des mécanismes permettant, de manière urgente et efficace, le retrait de contenus qui portent manifestement atteinte aux valeurs qu’expriment ces droits fondamentaux.

L’analyse présentée ci-dessus peut se réclamer des précédents à l’occasion desquels la Cour de justice des Communautés européennes, après avoir dégagé cette exception de façon prétorienne dans son arrêt Eugen Schmidberger (12 juin 2003, C-112/00) à propos de la libre circulation des marchandises, a admis, dans l’arrêt Omega (14 octobre 2004, C-36/02), qu’elle s’appliquait à la libre prestation de services. Dans ces arrêts, la Cour précise que, si les mesures envisagées ne sont pas prises sur le fondement d’un critère de nationalité, la protection des droits fondamentaux constitue, notamment lorsqu’elle est assise sur des dispositions constitutionnelles nationales, et même si elles ne sont propres qu’à certains Etats membres, un intérêt légitime de nature à justifier, en principe, une restriction à la libre prestation de services. Dans l’ordre constitutionnel français, si la Déclaration des droits de l’homme et du citoyen énonce en son article 11 que la liberté d’expression et de communication est l’un des « droits les plus précieux de l’homme » et si toute atteinte à cette liberté fondamentale doit être, sous le contrôle du juge, nécessaire, adaptée et proportionnée, la préservation de l’ordre public et des droits des tiers peut justifier de telles atteintes. La sauvegarde de la dignité de la personne humaine contre toute forme d’asservissement ou de dégradation, principe constitutionnel plus particulièrement affirmé dans le préambule de la Constitution de 1946, est une composante de l’ordre public.

23.    Si l’objectif poursuivi par la proposition de loi est ainsi regardé comme relevant de la protection des droits fondamentaux, les autres conditions auxquelles la jurisprudence de la Cour de justice de l’Union européenne subordonne la validité des mesures prises sur son fondement semblent satisfaites. En effet, d’une part, ni la directive e-commerce, ni la directive SMA modifiée, dans ses dispositions portant spécifiquement sur les plateformes de partage de vidéos en ligne, ne sont d’harmonisation exhaustive. D’autre part, les dispositions prévues par la proposition de loi, limitées à certains seulement des opérateurs de plateformes en ligne parmi les prestataires de services de la société de l’information, et uniquement à ceux qui dépassent un seuil élevé de connexions mensuelles sur le territoire français, ne visent aucun opérateur à raison de sa nationalité et paraissent nécessaires pour la protection des intérêts qu’elle vise à garantir, sans que cette protection ne puisse être atteinte par des mesures moins restrictives dès lors qu’aucun dispositif directement applicable dans l’Union européenne ne permet d’assurer la répression et la régulation effectives de ces comportements condamnables. Le Conseil d’Etat souligne au surplus que le dispositif de la directive e-commerce est antérieur de plusieurs années à la création des réseaux sociaux et que l’ampleur du déferlement de contenus odieux appelle une action urgente de défense des personnes que le processus d’adoption de nouveaux textes par l’Union, mentionné au point 38 du présent avis, ne permet pas aisément.

24.    Pour ces motifs, l’adoption de nouvelles dispositions, qu’elles soient de nature pénale ou se rattachent à la régulation administrative, centrées sur la prévention et la répression de la diffusion de contenus mentionnés au point 18 du présent avis, peut raisonnablement, comme l’exemple allemand l’a montré, être regardée comme ne méconnaissant pas les exigences du droit de l’Union européenne. Le Conseil d’Etat précise que cette proposition de loi devrait, en raison de ces enjeux, faire l’objet d’une information aux services compétents de la Commission européenne.

IV.    L’obligation de retrait renforcée et le renforcement de la répression judiciaire

Sur la sanction du refus de retrait

25.    Une lecture littérale de la proposition de loi laisserait entendre qu’elle envisage de faire sanctionner par le Conseil supérieur de l’audiovisuel le refus, opposé au cas par cas, de retirer des contenus odieux manifestement illicites. Le Conseil d’Etat relève qu’une telle hypothèse se heurte à un obstacle constitutionnel. La suppression d’un contenu odieux sur Internet est un acte particulièrement radical au regard de la protection dont jouit la liberté d’expression consacrée à l’article 11 de la Déclaration des droits de l’homme et du citoyen. Le retrait de contenu ne peut donc généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle : c’est l’équilibre traditionnel que valide le Conseil constitutionnel, qui n’a accepté des injonctions administratives que lorsqu’elles portent sur un blocage d’adresses Internet pour des sujets en relation avec des crimes graves (pédopornographie et terrorisme) et sont prononcées sous le contrôle étroit du juge (10 mars 2011, 2011-625 DC), mais a en revanche exclu un dispositif de sanctions administratives pouvant interdire un accès à Internet (10 juin 2009, 2009-580 DC).

26.    Le Conseil d’Etat estime que l’objectif poursuivi serait mieux servi par la création d’un délit autonome incriminant le refus de retrait ou de déréférencement des contenus décrits au point 18 du présent avis, puni au titre du VI de l’article 6 de la loi pour la confiance dans l’économie numérique. L’instauration d’un tel délit, qui ne viendrait que donner une portée effective aux dispositions des articles 12 à 14 de la directive e-commerce, ne soulèverait pas de difficulté au regard du droit constitutionnel et des obligations conventionnelles de la France. Le Conseil d’Etat précise toutefois, pour les raisons mentionnées au III et celles qui précèdent, que l’instauration d’une même obligation de retrait ou de déréférencement de contenus simplement illicites dans un délai de sept jours sans intervention préalable d’une autorité judiciaire ne paraît pas conforme aux exigences constitutionnelles.

Sur l’exigence de voies de recours internes

27.    Le Conseil d’Etat estime nécessaire l’obligation faite aux opérateurs de plateforme en ligne visés par la proposition de loi de prévoir un dispositif de recours internes permettant à l’auteur du signalement de contester un éventuel refus de retrait et symétriquement à l’auteur du contenu litigieux de contester un éventuel retrait. Il note que ce dispositif suppose que l’auteur du contenu litigieux soit systématiquement informé du signalement de son contenu, ce qu’il conviendrait de préciser explicitement. Ces garanties sont justifiées par le caractère fondamental de la liberté d’expression au regard des risques élevés de censure excessive par les opérateurs de plateforme. La proposition de loi pourrait utilement prévoir qu’il incombe à l’opérateur de plateforme en ligne de s’expliquer sur les motifs de sa décision, quel qu’en soit le sens, dans les sept jours qui suivent l’expiration du délai de 24 heures, et de faire explicitement mention de l’existence de voies de recours, internes et contentieuses, contre ces décisions, y compris au bénéfice de l’auteur dont le contenu serait supprimé.

Sur le contenu des signalements

28.    Le Conseil d’État estime appropriées et conformes au droit constitutionnel et au droit de l’Union européenne les évolutions envisagées, consistant à quadrupler les sanctions financières pénales applicables prévues au VI de l’article 6 de la loi pour la confiance dans l’économie numérique en cas de méconnaissance par les prestataires de services de communication en ligne de leurs obligations de concours à la lutte contre l’ensemble des contenus mentionnés au point 18 du présent avis et à faciliter le signalement de ces contenus, tel qu’il est décrit au 5 du I du même article. Toutefois, sur ce dernier point, au regard des exigences du principe de légalité des délits et pour éviter une incompétence négative du législateur, il estime que la loi devrait préciser, sans pouvoir renvoyer au pouvoir réglementaire le soin de le faire, que le signalement, qui marque le début d’une éventuelle phase judiciaire, doit indiquer la description des faits litigieux et les motifs pour lesquels, aux yeux de son auteur, le contenu qu’il signale lui paraît relever de ceux décrits au point 18 du présent avis. De plus, le Conseil d’Etat suggère que l’obligation de prévoir un dispositif de signalement simple et lisible soit plus clairement étendue aux opérateurs de plateforme en ligne visés par la proposition de loi que n’envisage de le faire, en l’état, le second alinéa du II de son article 2.

Autres commentaires

29.    Pour assurer l’effectivité de la procédure judiciaire, la proposition reproduit, à l’instar du législateur allemand, des dispositions adoptées dans la loi relative à la lutte contre la manipulation de l’information, imposant aux opérateurs concernés de désigner un représentant sur le seul territoire français (II de l’article 5 de la proposition de loi). Des précisions quant au rôle attendu de ce représentant légal paraissent nécessaires.

30.    De manière plus générale et au service d’un même objectif d’effectivité et de clarification, la proposition pourrait utilement préciser les délais dans lesquels l’ensemble des prestataires de services de communication au public en ligne concernés par l’article 6 de la loi pour la confiance dans l’économie numérique sont tenus de retirer les autres contenus manifestement illicites sous peine d’engager leur responsabilité civile et pénale en vertu des 2 et 3 du I. du même article, ou de communiquer les données d’identification (II du même article) ou encore d’informer les autorités des signalements de certains contenus particulièrement graves (7 du I du même article). Elle pourrait également prévoir des délais de conservation des données supprimées, en vue de faciliter les enquêtes pénales.

V.    Régulation administrative

31.    Le seul volet judiciaire de l’action publique ne suffira pas à traiter entièrement un problème dont l’ampleur dépassera toujours les capacités et moyens de la répression. La mise en place d’une régulation pour les seuls opérateurs relevant du champ de la répression judiciaire du refus de retrait ou de déréférencement sous 24 heures, visant à prévenir la diffusion des contenus manifestement illicites décrits au point 18 du présent avis et à en traiter rapidement l’occurrence, complète utilement l’action publique. Son insertion dans la loi n° 86-1067 du 30 septembre 1986 est appropriée. Le choix, comme dans la loi sur la manipulation d’informations électorales, de confier cette régulation au Conseil supérieur de l’audiovisuel, du reste cohérent au regard de la directive SMA, ne paraît pas critiquable dès lors que la création d’un nouveau régulateur est écartée. Il conviendra dans ce cas de modifier l’article 6-1 de la loi pour la confiance dans l’économie numérique qui prévoit l’intervention d’un membre de la Commission nationale de l’informatique et des libertés pour la supervision des retraits en matière de terrorisme.

Sur la nature des obligations administratives imposées aux grandes plateformes

32.    Le Conseil d’Etat recommande que les obligations administratives pesant sur les seuls opérateurs visés par la proposition de loi et susceptibles de faire l’objet d’une sanction par le Conseil supérieur de l’audiovisuel soient précisées et clarifiées. Elles pourraient utilement se fonder sur le devoir de coopération administrative que le 7 du I de l’article 6 impose déjà aux services de communication au public en ligne établis en France (dispositifs de signalement, d’information des autorités publiques et de transparence) en supprimant, pour les seuls opérateurs visés par la proposition de loi, la répression pénale dont il est assorti. Ce devoir pourrait être complété par une liste des obligations que la proposition de loi envisage de prescrire : instauration de voies de recours internes (III de l’article premier), respect des obligations de retrait, des modalités de traitement des signalements et des délais de réponse (II de l’article 2), engagement de moyens proportionnés pour traiter ces signalements (III de l’article 2), mise à disposition du public des informations sur les dispositifs de recours, y compris judiciaires, dont disposent les victimes de contenus et leurs auteurs (article 3), reddition de comptes au Conseil supérieur de l’audiovisuel et transparence au public (article 4), et désignation d’un représentant légal exerçant les fonctions d’interlocuteur référent (II de l’article 5). La proposition de loi pourrait également rendre obligatoire la communication au régulateur de l’organisation interne adoptée pour procéder au retrait en 24 heures des contenus mentionnés au point 18 du présent avis et des moyens qu’y sont consacrés.

Sur l’exercice par le CSA d’un pouvoir de sanction

33.    Le Conseil supérieur de l’audiovisuel devrait pouvoir disposer de la compétence pour fixer des orientations, diffuser des bonnes pratiques, et adopter des lignes directrices. Il pourrait également procéder à des investigations, dont il conviendrait de s’assurer qu’elles n’appellent pas un renforcement de ses pouvoirs d’enquête, à ce stade plus restreints que ceux de régulateurs analogues.

34.    Le Conseil d’Etat souligne également la nécessité de rendre publique, dans un rapport annuel, l’appréciation critique du Conseil supérieur de l’audiovisuel sur la manière dont les opérateurs se conforment à leurs obligations mentionnées au point 32, tant l’effet de cette appréciation sur l’image commerciale des opérateurs constitue un levier puissant d’influence et d’incitation.

35.    La crédibilité de la régulation administrative confiée au CSA repose sur un pouvoir de sanction dont le Conseil d’Etat estime qu’il devra cibler, après mise en demeure et dans le respect des garanties prévues dans la loi n° 86-1067 du 30 septembre 1986, l’attitude systémique non coopérative de l’opérateur, après prise en compte des moyens qu’il met en œuvre pour prévenir la diffusion des contenus odieux manifestement illicites et la faire cesser. Dans cette appréciation qui sera soumise au contrôle du juge, il appartiendra au CSA de tenir également compte de comportements répétés de refus de retrait ou de retraits timorés, pusillanimes, ou au contraire excessifs. Le plafond de la sanction, fixé à 4% du chiffre d’affaires mondial, n’appelle pas de réserves. Il sera cependant nécessaire de préciser explicitement que son montant tiendra compte de la gravité des manquements commis et de leur éventuelle réitération. En outre, la proposition de loi gagnerait, d’une part, à préciser plus clairement si la mise en conformité des opérateurs de plateforme à la mise en demeure qui leur a été adressée doit les exonérer de toute sanction et, d’autre part, à décrire les modalités de saisine du Conseil supérieur de l’audiovisuel, y compris éventuellement d’une saisine d’office.

VI.    Prévention du contournement des injonctions judiciaires.

36.    Après l’intervention d’une décision judiciaire aboutissant au retrait d’un contenu ou à la fermeture d’un site, il est fréquent de voir réapparaître, quasi instantanément, tout ou partie de ceux-ci sous une autre dénomination. Il n’existe aujourd’hui pas d’autre manière de réprimer ces résurgences que de recommencer la même procédure judiciaire.

37.    Les exigences constitutionnelles ne permettent pas de procéder à l’interdiction de ces « contenus miroirs », quels que soient le degré et la gravité de leur illicéité, sans l’intervention d’un juge. Le droit de l’Union européenne pourrait par ailleurs s’opposer à l’obligation générale de surveillance susceptible d’incomber, en conséquence de cette interdiction, aux prestataires de services de la société de l’information en raison du caractère général et indéterminé de ce qui constitue un « contenu miroir » en matière de délits de presse. Aussi, pour atteindre l’objectif que s’assigne la proposition, le Conseil d’Etat, plutôt que de prévoir une injonction administrative, propose que le juge saisi de conclusions visant au retrait de contenu ou à l’interdiction d’accès à un site puisse également être saisi d’une demande d’interdiction de toute reprise partielle ou totale de ce qu’il aura interdit. S’il y fait droit, les autorités et services administratifs compétents, le cas échéant saisis par toute personne, pourraient intervenir auprès d’un hébergeur en indiquant que tout ou partie des données qu’il stocke relève de cette interdiction et en lui demandant de procéder immédiatement à leur retrait. À défaut, le juge initial serait saisi et pourrait, par ordonnance, confirmer l’obligation de retrait. Une réflexion pourrait également être engagée afin de responsabiliser, par la création d’un nouveau délit, les opérateurs de plateforme dans la suppression des contenus miroirs qui leur sont signalés comme ayant déjà fait l’objet d’une condamnation.

VII.    Considérations finales.

38.    Le Conseil d’Etat souligne enfin, comme il l’avait déjà fait dans son étude annuelle de 2017, « Puissance publique et plateformes numériques : accompagner l’ubérisation », invitant à l’adoption d’un ensemble de normes européennes traitant de la mise en œuvre de la charte des droits fondamentaux dans le numérique, que seule l’adoption de nouvelles dispositions par l’Union européenne donnerait un fondement commun et une efficacité considérablement accrue à une lutte que les valeurs inscrites dans les Traités imposent de conduire en même temps que le marché se développe.
Cet avis a été délibéré par l’assemblée générale du Conseil d’Etat dans sa séance du jeudi 16 mai 2019.