<< Retour aux articles
Image

Haine en ligne : la PPL adoptée en séance publique, avec d'importantes modifications

Tech&droit - Données
09/07/2019
Déjà amplement remaniée en commission des lois, la proposition de loi de Laetitia Avia pour lutter contre les contenus haineux sur internet a été adoptée en séance publique le 9 juillet 2019. Des modifications importantes ont été votées. Revue de détails des évolutions du texte.
Après les dix heures de discussions en commission de lois, la proposition de loi visant à lutter contre la haine sur internet était examinée la semaine dernière en séance publique, avant un vote solennel le 9 juillet 2019 (284 amendements déposés ; 70 adoptés). Là encore, les échanges ont été très techniques et sur certains points assez vifs.
 
Retour sur les principaux points de discussion
Une réelle privatisation de la justice, déléguée à des opérateurs privés quasi souverains ?- Si les plateformes ont déjà développé leur propre système d’automatisation de la modération des contenus, un certain nombre de députés ont dénoncé le renforcement du rôle que la proposition de loi prévoit de leur imposer. Pour Danièle Obono : « vous déléguez à des plateformes privées dont le pouvoir économique est comparable au PIB d’un État le contrôle de la parole publique, un rôle normalement attribué au pouvoir judiciaire (…) C’est un pouvoir considérable que vous privatisez, alors même que Mark Zuckerberg annonçait à Berlin, lundi dernier, sa volonté de créer une cour suprême des plateformes qui jugerait en seconde instance les cas de blocage les plus litigieux ».
En cause, donc, la place de l’État et le rôle de censeur laissé à ces acteurs privés. Une critique accentuée par le fait que la censure ne peut, en outre, qu’être algorithmique au regard du volume de données à traiter. Ce qui soulève la question des critères pris en compte par ces algorithmes de modération et de leur transparence.
 
Loin d’être la réalité pour le secrétaire d’État au numérique, Cédric O : « nous confierions la censure aux plateformes : non ! Nous leur rappelons simplement que c’est nous qui fixons les règles et qu’elles ont des obligations. C’est la justice qui détermine si un contenu est légal ou illégal ».
 
Des députés ont néanmoins à plusieurs reprises dénoncé le risque de sur-censure. Les opérateurs pourraient préférer écarter un volume plus important de messages pour éviter de passer à côté de certains contenus.
 
De belles difficultés de qualification en perspective.- Ce risque de ʺsurcensureʺ va-t-il faire pencher le fléau vers plus d’atteintes à la liberté d’expression ? Autrement dit, la liberté de tous sera-t-elle sacrifiée au nom des abus de certains ? La problématique est centrale, tant la limite entre liberté d’expression et expression de la haine est ténue. Pour Cédric O, « seule la justice pourra s’assurer de l’équilibre entre protection et liberté d’expression ».
 
Des débats assez tendus ont tourné autour ,précisément, de cette zone grise, ces contenus dont la qualification sera plus complexe et qui seront probablement retirés par les plateformes, entraînant une possible ʺsurcensureʺ. En cause le « manifestement » de l’article 6-2 inséré par la PPL, très difficile à coder et à apprécier par un algorithme. Pour certains députés, cette formulation laisse une marge de manœuvre trop importante aux opérateurs. La députée Frédérique Dumas, a ainsi repris les propos de Christophe Bigot, à propos du délit d’incitation à la haine raciale (qui a changé pas moins de 4 fois en 15 ans) : « Comment les modérateurs des opérateurs privés aborderont ces évolutions subtiles, qu’il faut suivre au jour le jour ? Ils ne le pourront d’évidence pas et par sécurité, au regard des sanctions, appliquer le principe de précaution » – c’est-à-dire la censure ». Dans un autre contexte, alors qu’il était auditionné par la commission des lois, le secrétaire d’État au numérique soulignait lui-même cette difficulté : « Les grandes plateformes seront alors prises en tenaille entre une loi qui sanctionne très sévèrement les contenus illégaux et une jurisprudence qui sanctionne le retrait de contenus licites. Les compliance departments des plateformes américaines ne peuvent pas gérer une telle situation ».
 
Mais pour Laetitia Avia, il ne peut y avoir de latitude dans la rédaction de cet article, très bordée entre l’avis du Conseil d’État (CE,16 mai 2019, n°397368) et la décision du Conseil constitutionnel de 2014 (qui avait alors estimé que les dispositions en cause « ne sauraient avoir pour effet d'engager la responsabilité d'un hébergeur qui n'a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n'a pas été ordonné par un juge » : Cons. const., 10 juin 2004, n° 2004-496 DC, 9°). La députée a par ailleurs rappelé que s’ : « Il existe des contenus gris ; ils ne sont pas visés par cette proposition de loi (…). Le Conseil d’État ne nous permet pas de légiférer sur ces contenus gris, mais uniquement sur ce qui est manifestement illicite (…). Nous ne nous occupons ici que de ce qui est clair et net ».
 
Pour Cédric O, l’équilibre viendra de la sanction par la justice des retraits illégitimes et de l’engagement de la responsabilité contractuelle des plateformes (retrait discriminatoire).
 
Pas suffisant pour Frédérique Dumas : « Vous ne pouvez pas vous contenter aujourd’hui d’invoquer la nécessité de réagir rapidement ou la difficulté de qualification par le juge et les autorités administratives pour charger les plateformes de faire ce travail en si peu de temps ». Un point de vue appuyé par Laure de La Raudière, pour laquelle, « En ne résolvant pas le problème des contenus gris, vous ouvrez la voie aux questions prioritaires de constitutionnalité sur ce texte ».
 
Cédric O a alors indiqué que la soft law devrait permettre d’aider les opérateurs : « un groupe de contact (va ainsi être constitué) rassemblant magistrats et représentants des réseaux sociaux et de la société civile et placé dans l’orbite du futur régulateur. Il permettra de donner aux plateformes, au fil de l’eau et après débat, des indications qui n’auront pas force de loi, sur lesquelles la justice pourra toujours revenir, mais qui, en guidant les plateformes, empêcheront que celles-ci n’apprécient seules la qualité des contenus ».
 
 
Quelques chiffres
– l’article 1er tient en une seule phrase, de 23 lignes ;
– + 225 % : c’est l’augmentation du nombre d’articles de cette PPL (8 articles au moment de son dépôt contre 18, désormais) ;
– le texte de loi vise 7 infractions pénales, déjà réprimées ;
– 4 %, c’est le montant de l’amende en cas de non-respect de l’obligation de mettre en place une modération appropriée ;
– 14, 3%, c’est la proportion de propos agressifs ou haineux tenus sur les réseaux, soit + 4 points depuis 2018 ;
– 15 000 à 20 000 : c’est le nombre de modérateurs chez Facebook ;
– 60 % des retraits de contenus sur Facebook sont actuellement le fait d’algorithmes ;
– 1 500 à 5 000 euros, c’est le coût moyen lorsque l’on veut porter plainte contre des propos racistes tenus sur un site internet (frais d’avocat et d’huissier), selon la députée Danièle Obono ;
– en matière de haine, 80 à 90 % des contenus concernés sont manifestement illicites selon la députée Frédérique Dumas ;
– 2 millions d’utilisateurs par mois, c’était le seuil déterminant l’application de ce nouveau régime juridique ; le texte voté en séance publique a abandonné ce chiffre pour préférer des seuils différenciés, fonction du type d’acteurs.
TA AN n° 2062, 2018-2019  (compte rendu des débats des 3 et 4 juillet 2019)
 
Précision sur les conditions d’application
« Le CSA ne peut pas contrôler l’ensemble des acteurs (…), a insisté Cédric O. Nous choisissons – ce n’est qu’une première étape, je vous le répète – de traiter d’abord les grandes plateformes – Facebook, Twitter et YouTube ».
 
De quoi s’agit-il ici ? de déterminer à partir de quel(s) seuil(s) cette loi s’appliquera. Comme le rappelle Laetitia Avia, « Ce seuil vise à éviter la création de barrières à l’entrée du secteur, notamment pour les plus petits acteurs qui devront respecter toutes les obligations définies dans le texte, ce qui suppose de disposer des moyens pour le faire. Nous devons nous assurer de la pluralité des acteurs du numérique ».
 
Si au terme de son passage en commission des lois, il n’existait qu’un seuil qui devait être déterminé par décret (et qui devait tourner autour de deux millions de connexions mensuelles), la député a dit entendre « beaucoup l’argument selon lequel il faudrait pouvoir faire preuve d’agilité dans la détermination des seuils, d’autant plus qu’il a été dit durant les auditions que le seuil applicable au nombre d’utilisateurs pouvait soulever quelques difficultés, notamment pour définir s’il doit s’agir d’un nombre de connexions ou d’enregistrements ». Deux amendements identiques ont donc introduit une pluralité de seuils (TA AN n° 2062, 2018-2019, amendement n° 272 et 332), pour mieux tenir compte de la spécificité des acteurs (moteurs de recherche et réseaux sociaux). La détermination d’un seuil national limitait la portée de la loi aux plus gros opérateurs, mais ne permettait pas, en effet de mettre fin à des sites « territoriaux » dédiés à l’incitation à la violence, et dont le trafic. L’objectif de l’abaissement territorial des seuils est également de permettre de lutter contre les stratégies d’évitement des seuils et la multiplication d’opérateurs de petites tailles diffusant des contenus haineux.
 
Côté contenus visés, à la longue liste des contenus ajoutés en commission des lois (v.   
PPL lutte contre la haine sur internet : la commission des lois muscle le texte, Actualités du droit, 19 juin 2019), ont été ajoutés ceux niant les crimes contre l’humanité (TA AN n° 2062, 2018-2019, amendement n° 270), tel que sous-amendé par TA AN n° 2062, 2018-2019, amendement n° 379) : volonté de circonscrire le texte à des délits précis.
 
Autre précision importante apportée par amendement (TA AN n° 2062, 2018-2019, amendement n° 295), s’agissant cette fois de l’auteur de la notification : le public autorisé à signaler un contenu n’est plus limité à l’utilisateur de la plateforme/moteur de recherche. L’obligation de retrait sur notification est donc ouverte à toute personne physique ou morale qui adresserait une notification.
 
Phase pré-contentieuse et contentieuse
Sauvegarde de la preuve.- Afin de permettre aux enquêtes pénales d’avoir lieu en cas de saisine de la justice, un amendement a introduit l’obligation de conserver, pendant un an, les contenus illicites qui ont été supprimés (TA AN n° 2062, 2018-2019, amendement n° 361) (ce qui était une demande du Conseil d’État).
 
Preuve de la date et de l’heure.- Toujours en matière de preuve, un autre amendement impose aux opérateurs un horodatage de la notification (TA AN n° 2062, 2018-2019, amendement n° 337). Cet horodatage électronique pourra servir de preuve irréfutable de l’existence de contenus répréhensibles à une date et une heure précises et permettra de déclencher le délai légal prévu par le texte.
 
Renforcement du rôle du représentant légal des opérateurs.- Afin de s’assurer de la présence réelle d’un interlocuteur, point de contact pour le compte de la société et représentant légal, un amendement a imposé sa présence sur le territoire français (TA AN n° 2062, 2018-2019, amendement n° 283), ce qui permettra, notamment, d’assurer l’effectivité des réquisitions judiciaires.
 
Un autre amendement est venu précisé les obligations de ce représentant légal. En pratique, le représentant sur le territoire national aura pour fonction d’assurer le lien entre les autorités nationales et les organes de sa société compétents pour répondre aux demandes de retrait de contenus manifestement illicites. Bien entendu, sa responsabilité pénale pourra être engagée dans les conditions du droit commun de l’article 121‑1 du Code pénal (délégation de pouvoirs et moyens mis à sa disposition pour mettre en œuvre les obligations de la présente loi), en tant qu’auteur ou complice de l’infraction visée à l’article 6‑2 de la loi (TA AN n° 2062, 2018-2019, amendement n° 299). Et il aura vocation répondre aux demandes du CSA (suivi des obligations et publication annuelle du bilan d’application de la loi : TA AN n° 2062, 2018-2019, n° 248 et n° 212).
 
Simplification des modalités de la notification
Pour simplifier le formalisme attaché aux notifications, en particulier pour permettre à des utilisateurs d’effectuer un signalement lorsqu’ils sont connectés sur une plateforme, l’article 1er bis a été modifié (TA AN n° 2062, 2018-2019, amendement n° 340), de manière à prévoir que dès lors que l’utilisateur est logué sur la plateforme il n’a pas à transmettre ses noms, prénom et adresse électronique. L’opérateur dispose en effet déjà de ces informations.
 
Une protection particulière pour les mineurs
Autre nouveauté importante issue des débats en séance publique, la prise en compte des spécificités des mineurs. Concrètement, cela passe par la modification de l’article 6-2 de la loi n° 2004-575 du 21 juin 2014. Plusieurs amendements sont venus mettre en place un cadre de protection spécifique pour les mineurs victimes de cyber-violence ou cyber-harcèlement sur internet. L’amendement n° 133 prévoit ainsi que les mineurs victimes d’un contenu abusif peuvent saisir une association  en cas de défaut de retrait ou de déréférencement de ce contenu.
 
Plusieurs sous-amendements ont cadré plus précisément cette protection (TA AN n° 2062, amendements 382, 383 et 384), en prévoyant, en premier lieu, que la notification d’un contenu manifestement illicite opérée par une association de protection de l’enfance à la demande d’un mineur, ne peut intervenir sans information des représentants légaux, les parents étant les premiers protecteurs de l’enfant mineur, qui peuvent bien évidemment agir en leur nom. Cette notification ne se fera pas, en outre, au nom du mineur mais bien de l’association, les mineurs n’ayant pas la capacité juridique pour donner mandat à l’association. Et, RGPD oblige, il faudra déterminer le type de données collectées et limiter la durée de conservation de ces données par l’association à ce qui est nécessaire aux finalités pour lesquelles ces données sont traitées.
Enfin, en amont, une information devra être fournie au mineur âgé de moins de quinze ans (qui requiert le consentement conjoint du mineur et de ses parents), au moment de l’inscription sur une plateforme, précisément sur les risques liés à la publication de contenus haineux (TA AN n° 2062, 2018-2019, amendement n° 300) et le traitement des données à caractère personnel.
 
Obligations des plateformes et moteurs de recherche : clarification des obligations
Finalité de ces obligations.-  Un amendement est venu préciser que l’ensemble des obligations imposées aux opérateurs  de moyen étaient orientées vers un objectif : lutter contre la diffusion en ligne des contenus visés par l’article 1er de cette proposition de loi (TA AN n° 2062, 2018-2019, amendement n° 298).
 
Distinction entre opérateurs.-  Pour assurer l’effectivité de ce dispositif, un amendement est venu distinguer les opérateurs en matière d’accusé de réception de la notification. L’objectif : prendre en compte la situation particulière des moteurs de recherche dont l’activité se borne à indexer des pages et à mettre à jour l’index actualisé de celles-ci, sans toujours entrer en interaction avec l’auteur des contenus référencés. De manière pragmatique, il est donc précisé que ces informations ne devront être communiquées à l’auteur du contenu litigieux que si l’opérateur dispose d'informations permettant d’entrer en contact avec lui. Et la même précision vaut pour l’obligation de mettre en place, au bénéfice du notifiant et de l’auteur du contenu, un dispositif de recours interne contre les décisions prises par ces opérateurs en matière de retrait ou de déréférencement (TA AN n° 2062, 2018-2019, amendement n° 311 rect.).

Précisions sur les modalités de traitement des notifications.- Pour éviter la censure 100 % algorithmique, une série d’amendements apportent des précisions sur les modalités  concrètes de traitement des notifications. Ce qu’il faut retenir, c’est la nécessité de mettre en place des procédures ( (TA AN n° 2062, 2018-2019, amendement n° 313), et des moyens humains appropriées, étant précisé que, le cas échéant seulement (TA AN n° 2062, 2018-2019, amendement n° 282 rect.) le recours à des moyens technologiques proportionnés est envisagé, afin de permettre l’examen ad hoc des contenus notifiés, tout en prévenant les risques de retraits injustifiés. L’objectif de l’amendement 315 est ainsi d’éviter que les plateformes se contentent de retirer tout ce qui leur est notifié, sans mettre en œuvre les moyens nécessaires à une évaluation précise des notifications reçues.
 
Autre point important, les opérateurs se voient désormais imposer l’obligation de faire en sorte qu’un contenu retiré ne soit pas par la suite rediffusé et devienne viral (TA AN n° 2062, 2018-2019, amendement n° 349, sous-amendé par le n° 381 ; lors des attentats en Nouvelle Zélande, le 15 mars 2019, 4 000 personnes avaient vu la vidéo en direct et pas moins de 1,5 million de copies ont été retirées en 24 heures). Comme le relève l’exposé des motifs de l’amendement n° 349, « la viralité est donc autant le moyen de détecter les contenus suspects que l’effet à éviter ».
 
Information délivrée à l’utilisateur : plus de pédagogie exigée.- Plusieurs amendements sont venus encadrer plus précisément l’information délivrée à l’utilisateur :
- l’information sur les recours existants, les sanctions encourues et les règles de modération doit être facilement accessible et visible (TA AN n° 2062, 2018-2019, amendement n° 241) ;
- les CGU doivent être formulées « en termes précis, aisément compréhensibles, objectifs et non discriminatoires », le Conseil supérieur de l’audiovisuel ayant vocation à contrôler le respect de cette nouvelle obligation en matière de rédaction de CGU (TA AN n° 2062, 2018-2019, amendement n° 317). Là encore, il s’agit de prévoir des garde-fous contre un risque de censure excessive, qui ne pourra être justifié contractuellement par les CGU.

Et, également, plus de transparence.- Les plateformes et les moteurs de recherche visés devront ainsi rendre publiques des informations sur les résultats qu’ils obtiennent en matière de lutte contre les contenus haineux en ligne (TA AN n° 2062, 2018-2019, amendement n° 323). Reste à savoir comment ils procéderont et quel type d’informations seront publiques.
Et ils devront également rendre transparentes leurs règles de modération, en tout cas les « modalités générales du dispositif » mis en place (TA AN n° 2062, 2018-2019, amendement n° 316), concept au demeurant un peu flou.

Les missions du CSA renforcées
Comme indiqué précédemment, le CSA acquiert une nouvelle mission : auditeur de CGU (v. supra). Le volet prévention est par ailleurs renforcé : il devra figurer dans le compte-rendu fourni au CSA sur les actions et moyens mis en œuvre par les opérateurs de plateforme (TA AN n° 2062, 2018-2019, amendement n° 350).
 
Enfin, pour ne pas brider la communication entre les acteurs visés et le CSA, un amendement est venu apporter un cadre précis s’agissant des informations qui relèveraient du secret des affaires : il appartiendra au CSA de fixer celles des informations qui pourront être rendues publiques. En tout état de cause, leur publication ne devra pas porter atteinte au secret des affaires (TA AN n° 2062, 2018-2019, amendement n° 287).
 
Le guide de bonnes pratiques qu’éditera le CSA devra intégrer des recommandations en matière d’accompagnement des victimes, que les opérateurs de plateforme en ligne pourraient reprendre à leur compte (TA AN n° 2062, 2018-2019, amendement n° 36).
 
Le name and shame va devenir un des instruments que le CSA pourra employer pour dénoncer la non-conformité de certaines pratiques. Deux amendements rendent ainsi obligatoire, avant le prononcé d’une sanction pécuniaire en cas de manquement par un opérateur à ses obligations, la publicité des mises en demeure et sanctions (TA AN n° 2062, 2018-2019, amendement n° 244  et n° 335).

Enfin, autre mission confiée au CSA, destinée à renforcer l’efficacité de cette proposition de loi : encourager l’interopérabilité entre les opérateurs (TA AN n° 2062, 2018-2019, amendement n° 334), même si à ce stade, il ne semble pas évident de cerner comment un tel dispositif pourrait être mis en place. Toujours est-il que le CSA devra encourager les plateformes, à communiquer entre elles les informations à propos des contenus haineux, afin qu’elles soient elles aussi à même de retirer ce contenu dans les plus brefs délais, en particulier en cas de repérage d’une vidéo live à caractère haineux.
 
Pour réaliser toutes ses missions, Cédric O a indiqué que « Le CSA devra se doter d’un instrument technique, voire technologique, capable de tester et de certifier certains algorithmes. C’est un travail compliqué qui nécessitera un changement de culture et un surcroît de moyens, mais il s’agit d’une question de survie pour l’État ».
 
Création d’un parquet numérique, c’est fait !
La proposition de loi comprend un nouveau chapitre consacré au volet pénal, avec la création d’un parquet numérique.

Comme le relève Laetitia Avia « les condamnations des cyberdélinquants racistes ne sont qu’anecdotiques : on en compte 269 pour toute la France en un an ; c’est dérisoire. Il n’y a pas de plainte, pas d’enquête, pas de jugement. Nous devons transformer ce cercle vicieux en un cercle vertueux, en incitant les victimes à déposer plainte par le biais d’une nouvelle procédure en ligne qui sera en vigueur dès 2020, et en recourant à des enquêteurs et des magistrats rompus tout à la fois aux usages du numérique et à la très sensible loi de 1881 sur la liberté de la presse ». L’amendement n° 302 insère donc un article 15‑3‑2 du Code de procédure pénale ainsi rédigé : « Un tribunal de grande instance désigné par décret exerce une compétence concurrente à celle qui résulte de l’application des articles 43, 52 et 382 pour l’enquête, la poursuite, l’instruction et le jugement des délits prévus au 6° du III de l’article 222‑33 du Code pénal, lorsqu’ils sont commis avec la circonstance aggravante prévue à l’article 132‑76 du même code, et au 4° de l’article 222‑33‑2‑2 du Code pénal, lorsqu’ils sont commis avec la circonstance aggravante prévue à l’article 132‑76 ou 132‑77 du même code, lorsqu’ils ont fait l’objet d’une plainte adressée par voie électronique en application de l’article 15‑3‑1 du présent code ».
 
« Ce parquet, indique la garde des Sceaux, constitué de magistrats formés spécifiquement à cette fin et particulièrement compétents sur ces sujets parfois très complexes, disposerait d’une compétence concurrente pour intervenir sur ces dossiers. En l’état du droit, nous pouvons d’ores et déjà organiser une telle compétence concurrente pour les actes de cyberhaine publics, notamment les raids numériques, dans la mesure où ils relèvent de la loi de 1881 sur la liberté de la presse. Tel n’est pas le cas, en revanche, des actes de cyberhaine qui ne sont pas publics, par exemple ceux commis par l’intermédiaire d’une messagerie privée. C’est pourquoi le présent amendement tend à créer un cadre complet et sécurisé, organisé de la manière suivante ».
 
La mise en place de ce parquet sera précisée par une circulaire et ce, dès l’adoption de cette proposition de loi : « Je veillerai, a par ailleurs précisé Nicole Belloubet, à ce que le parquet qui sera nationalement retenu pour exercer cette compétence concurrente dispose des effectifs suffisants en matière de magistrats et de greffiers pour faire face aux procédures. Cette circulaire (…) expliquera aussi comment ce parquet spécialisé devra articuler son action avec celle des parquets locaux – qu’il ne s’agit pas, en effet, de déposséder de toute attribution en ce domaine ».
 
La ministre de la Justice a pris le soin de détailler la nouvelle procédure : « Le mécanisme sera le suivant : dès réception d’une plainte signalant des faits de cyberhaine, une enquête sera immédiatement diligentée sous l’autorité du parquet spécialisé, qui adressera les premières réquisitions aux opérateurs techniques d’internet dans le but d’identifier les auteurs visés par la plainte ». À l’issue de ces investigations, deux hypothèses se présenteront « S’il s’agit de faits isolés, dès lors qu’un auteur aura été identifié et localisé, on retiendra le critère de compétence qui s’attache à son domicile, afin de privilégier la dimension pédagogique de la réponse pénale. Il s’agira donc d’une réponse de proximité. Le parquet du lieu du domicile de l’auteur pourra ainsi aisément mettre en œuvre soit des mesures alternatives aux poursuites, pour les faits les moins graves, soit l’ordonnance pénale prévue par la loi de réforme pour la justice que vous venez d’adopter, si les faits paraissent plus graves. Le dessaisissement au profit du parquet du lieu de domicile de l’auteur favorisera la présence de ce dernier lors du jugement et du prononcé pédagogique de la sanction.

En revanche, « s’il s’agit de faits mettant en cause plusieurs individus, par exemple dans le cas de raids numériques discriminatoires, ou si, pour la même publication, plusieurs plaintes de victimes lui sont adressées, le tribunal de grande instance dont le parquet aura été spécialisé conservera sa compétence jusqu’au jugement. La désignation de cette juridiction unique spécialisée pour traiter ces affaires permettra d’assurer la cohérence de la réponse pénale et de la jurisprudence en la matière.

Autrement dit, le système que nous avons conçu permettra de conserver la proximité pour les incitations à la haine résultant d’un fait isolé, mais le parquet spécialisé pourra se saisir de l’affaire en cas de raids numériques ».
 
Un nouveau délit est par ailleurs créé, celui de refus de retrait de contenu manifestement illicite (TA AN n° 2062, 2018-2019, amendement n° 229 et n° 233), qui relèvera de la compétence du juge unique en matière correctionnelle. Un ajout à la liste des délits relevant du juge unique qui permettra de recourir, lorsque cela paraîtra justifié, à la procédure de l’ordonnance pénale.
 
Enfin, interdiction est désormais faite à l’auteur du contenu haineux d’adresser des « messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique » à la victime (TA AN n° 2062, 2018-2019, amendement n° 376 rect.), par modification de l’article 138 du Code de procédure pénale et des articles 132‑45 et 131‑4-1 du Code pénal.
 
Cette proposition de loi va désormais être examinée par le Sénat, en première lecture (procédure accélérée).
Source : Actualités du droit