← Retour aux lois
EPR

Protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux

Proposition de loi Adopté en commission
Voir la fiche sur assemblee-nationale.fr →

Répartition des amendements

Par statut

DISCUTE 26 IRRECEVABLE 3 IRRECEVABLE_40 1
Tous les groupes

Amendements (30)

Art. ART. PREMIER • 26/01/2026 DISCUTE
ECOS

Exposé des motifs

L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 

Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 

Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.

L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 

La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.

C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Dispositif

Au deuxième alinéa, substituer au mot :

« quinze »

le mot :

« treize ».

Art. APRÈS ART. 3 • 22/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. 3 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement vise à responsabiliser les influenceurs lors de la promotion des réseaux sociaux sur les plateformes en ligne.

Dispositif

L’article 5 de la section 2 du chapitre II de la loi n°2023‑451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux est complétée par un V ainsi rédigé : 

« V. – La promotion de services tels que les réseaux sociaux ou plateformes en ligne s’accompagne d’une mention « produits dangereux pour les moins de quinze ans ». Cette mention est claire, lisible et identifiable sur l’image ou sur la vidéo, sous tous les formats et durant l’intégralité de la promotion »

Art. APRÈS ART. 3 • 22/01/2026 IRRECEVABLE_40
ECOS
Contenu non disponible.
Art. ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Comme l'explique le rapport de la Commission d'enquête sur Tiktok, ce réseau social a en effet imposé un nouveau format pour les réseaux sociaux, à savoir le défilement infini de vidéos courtes, ce qui a eu pour effet de favoriser la diffusion de contenus extrêmes, ainsi que le décrit M. Petit : « Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement. TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre ».

Tant le défilement sans fin et sans temps mort entre les contenus que le format court et facile à consommer (parfois dénommé « snack content ») sont de nature à désorienter les utilisateurs, notamment en leur faisant perdre la notion du temps.

Depuis plusieurs années l’ensemble des plateformes numériques, créateurs de contenus et publicitaires adoptent les codes des formats courts, touchant l’ensemble des tranches d’âge. En 2025, plus de 65% des 35-54 ans consomment des vidéos courtes chaque semaine, selon Statista. Le défilement infini impacte d’autant plus les mineurs qui se retrouvent piégés dans ce défilement infini. L’immaturité neurodéveloppementale qui caractérise les enfants et les adolescents se traduit par une incapacité cognitive structurelle à se limiter et à s’autoréguler face aux usages numériques. 

Le développement des techniques de captation de l’attention développées par les plateformes numériques depuis le milieu des années 2010, est largement fondé sur l’analyse comportementale, la captation de l’attention et l’optimisation du temps d’engagement. Ces dispositifs sont explicitement conçus pour maintenir les utilisateurs dans des logiques de dépendance et de captation prolongée, y compris les plus jeunes. 

Il convient donc d'interdire le défilement infini de vidéos pour protéger les mineurs de moins de quinze ans, particulièrement vulnérables. 

Dispositif

À l’alinéa 6, après le mot :

« diffusés », 

insérer les mots : 

« , du défilement infini de vidéos ».

Art. APRÈS ART. 3 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du Groupe Écologiste et Social vise à renforcer l’information délivrée aux parents sur les alternatives aux usages des écrans lors des entretiens conduits par les services de protection maternelle et infantile (PMI). Ce dispositif est directement repris d’une proposition portée par le groupe sénatorial Écologiste - Solidarité et Territoires.

Il prévoit d’intégrer explicitement, dans le cadre de ces entretiens de prévention, une information systématique relative aux alternatives aux écrans par les professionnels de la petite enfance.

L’objectif est d’assurer est de renforcer l’accompagnement des parents face aux usages numériques précoces, par la promotion de pratiques favorables au développement psychomoteur, social et cognitif des jeunes enfants.

Cette disposition contribue ainsi à consolider la politique de prévention et de soutien à la parentalité portée dans le champ de l’exposition des jeunes enfants aux écrans.

Dispositif

À la première phrase du dernier alinéa de l’article L. 2112-2 du code de la santé publique, après le mot : « actions », sont insérés les mots : « de prévention de l’exposition non raisonnée des enfants aux écrans, de soutien à la parentalité dans ce domaine, notamment par la délivrance d’une information sur les alternatives aux écrans pour les jeunes enfants, ».

Art. ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du Groupe Écologiste et Social vise à automatiquement inscrire sur la liste des services pour lesquels l'accès des mineurs de moins de 15 ans serait restreint les services de réseaux sociaux en ligne qui proposent des interfaces problématiques pour les mineurs. 

C'est le cas en particulier des services: 

- qui exposent les mineurs à des contenus inappropriés ; 

- dont les suggestions sont basées sur le profilage des mineurs ; 

- qui mettent à disposition un service conversationnel personnalisé basé sur une intelligence artificielle ; 

- qui ne garantissent pas la transparence du fonctionnement de leurs algorithmes. 

 

Cet amendement facilitera l'inscription de ces réseaux sociaux sur la liste établie par un décret en Conseil d’État pris après avis de l’Autorité de régulation de la communication audiovisuelle et numérique. 

Dispositif

Après l’alinéa 7, insérer les quatre alinéas suivants : 

« Sont regardés comme figurant sur cette liste les services qui :

« a) mettent à disposition des contenus suggérés à des mineurs de quinze ans, lorsque ces contenus sont basés sur du profilage au sens de l’article 4 du règlement (UE) 2016/679, ;

« b) ne disposent pas de mécanismes mis en place pour garantir un accès, des paramétrages et un affichage de contenus adaptés aux mineurs de quinze ans ;

« c) mettent à disposition un service conversationnel personnalisé basé sur une intelligence artificielle ; 

« d) ne garantissent pas la transparence du fonctionnement de leurs algorithmes de contenu. »

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

La loi n°2010‑476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne prévoit à son article 28 que les opérateurs de jeux ou de paris en ligne informent en permanence les joueurs de l’existence du service d’information et d’assistance prévu à l’article 29.

Cet amendement vise donc à s’inspirer de ce qui existe déjà en termes de prévention en l’adaptant aux dangers présents sur les réseaux sociaux.

Dispositif

La section 3 bis du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9‑1 ainsi rédigée :

« Art. 6‑9‑1. – Les fournisseurs de réseaux sociaux sont légalement tenues de délivrer une information sur l’existence de services d’information et d’assistance au cyberharcèlement lorsqu’un contenu est signalé par un mineur ou concerne un mineur. »

Art. ART. 2 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 2, initialement prévu par la proposition de loi présentée en commission.

Pour rappel, cet article cherche à imposer aux personnes dont l’activité consiste à fournir des services d’hébergement de concourir à la lutte contre la diffusion des contenus constituant de la propagande ou de la publicité en faveur de moyens de se donner la mort. 

Alors que l’article 6 de la loi pour la confiance dans l'économie numérique établit des obligations pour les plateformes de lutter contre les contenus illicites, la liste des infractions concernées est à ce jour incomplète puisqu’elle ne comprend pas celle mentionnée à l’article 223-14 du code pénal, à savoir la propagande ou la publicité en faveur de moyens de se donner la mort. Ce type de contenu, aux effets potentiellement dévastateurs, n’est ainsi pas toujours traité avec la diligence requise, alors même qu’il expose les utilisateurs les plus vulnérables, et en particulier les mineurs, à des risques majeurs. Cet article vise donc à compléter la LCEN pour élargir le champ des obligations des plateformes pour protéger leurs utilisateurs, et notamment les plus jeunes."

Enfin, cet article a aussi pour but de renforcer les peines complémentaires permettant de suspendre les comptes d’accès à des plateformes en ligne utilisés afin de commettre certaines infractions, ainsi que pour renforcer l’amende pour les fournisseurs qui ne procéderaient pas au blocage du compte problématique.

Cet article vise enfin à étendre le champ des délits pour laquelle cette peine peut être encourue à la propagande ou la publicité, quel qu’en soit le mode, en faveur de produits, d’objets ou de méthodes préconisés comme moyens de se donner la mort.

Il s’agit par cet article de mettre en œuvre les recommandations n° 9 et 37 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.

Dispositif

Rétablir cet article dans la rédaction suivante :

« I. – L’article 131‑35‑1 du code pénal est ainsi modifié :

« 1° Le I est ainsi modifié :

« a) Le deuxième alinéa est ainsi modifié :

« – les mots : « six mois » sont remplacés par les mots : « un an » ;

« – les mots : « un an » sont remplacés par les mots : « deux ans » ;

« – il est ajouté un alinéa ainsi rédigé : 

« Le non-respect de cette obligation d’information par les annonceurs et promoteurs est puni de 37 500 euros d’amende. Le montant de cette amende peut être porté à 30 % des dépenses consacrées à l’émission et à la diffusion des messages mentionnés au premier alinéa ou à la réalisation et à la distribution des imprimés et publications mentionnés au même premier alinéa.

« b) À l’avant-dernier alinéa, le montant : « 75 000 » est remplacé par le montant : « 150 000 » ;

« 3° Au 6° du II, après la référence : « 223‑13, », est insérée la référence : « 223‑14, ».

« II. – Au A du IV de l’article 6 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, après la référence : « 223‑13, », est insérée la référence : « 223‑14, ».

Art. ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la qualifiant d’activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Dispositif

Après l’alinéa 10, insérer les trois alinéas suivants :

« Art. 6‑10. – I. – Lorsqu’ils suggèrent ou hiérarchisent, au moyen d’un système de recommandation, des informations fournies par des destinataires du service, les fournisseurs de services de réseaux sociaux en ligne sont réputés exercer, pour ces informations, une activité d’édition lorsque la mise en avant est destinée à un compte identifié comme appartenant à une personne mineure, au moyen d’un classement fondé sur le profilage du destinataire du service.

« II. – Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur, sans préjudice de la responsabilité de l’auteur de l’information et du destinataire du service l’ayant fournie.

« III. – Sont considérées comme « mises en avant », au sens du présent article, les informations présentées au public autrement que dans un affichage strictement chronologique reposant uniquement sur les abonnements de l’utilisateur, notamment au moyen d’un fil personnalisé, de rubriques de tendances, de suggestion de comptes ou de contenus, de lecture automatique, de notifications, ou de toute fonctionnalité équivalente. »

Art. ART. 4 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du Groupe Écologiste et Social vise à rétablir les mesures de prévention prévues dans la première mouture de la proposition de loi, supprimées en commission, une interdiction simple ne pouvant être efficace et pertinente sans mesures de prévention. 

Le nouvel article 4 reprendrait ainsi la version initiale de l'article, complété d'une sensibilisation et d'une formation au fonctionnement des algorithmes et, plus largement, des services numériques fondés sur des mécanismes de captation de l’attention. 

Il s’agit notamment de permettre une sensibilisation au fonctionnement de ces plateformes, reposant sur les algorithmes et les principes de l’économie de l’attention. Une compréhension approfondie de ces mécanismes, ainsi que de leur emprise sur les utilisateurs, est essentielle pour aider les élèves — futurs adultes et professionnels — à mieux appréhender les logiques à l’œuvre dans l’industrie des plateformes numériques, qu’il s’agisse de réseaux sociaux ou d’autres services.

Cette meilleure connaissance des stratégies déployées par les acteurs du numérique doit ainsi contribuer à former de jeunes utilisateurs capables de développer un usage critique, éclairé et responsable des outils numériques. 

Dispositif

Rétablir cet article dans la rédaction suivante :

« Le deuxième alinéa de l’article L. 312‑9 du code de l’éducation est ainsi rédigé :

« Cette formation comporte également :

« – une sensibilisation sur l’interdiction du harcèlement commis dans l’espace numérique, la manière de s’en protéger et les sanctions encourues en la matière ;

« – une sensibilisation à l’impact environnemental des outils numériques ainsi qu’un volet relatif à la sobriété numérique ;

« – une sensibilisation aux enjeux de protection de la santé mentale liés à l’usage des outils numériques, et notamment aux conséquences psychologiques d’une utilisation de services de réseaux sociaux en ligne ; 

« – une sensibilisation aux fonctionnements des algorithmes, de l’économie de l’attention et des impacts cognitifs de l’usage excessif des écrans. »

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la qualifiant d’activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Dispositif

La section 3 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9‑1 ainsi rédigé :

« Art. 6‑9-1. – I. – Lorsqu’ils suggèrent ou hiérarchisent, au moyen d’un système de recommandation, des informations fournies par des destinataires du service, les fournisseurs de services de réseaux sociaux en ligne sont réputés exercer, pour ces informations, une activité d’édition lorsque la mise en avant est destinée à un compte identifié comme appartenant à une personne mineure, au moyen d’un classement fondé sur le profilage du destinataire du service.

« II. – Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur, sans préjudice de la responsabilité de l’auteur de l’information et du destinataire du service l’ayant fournie.

« III. – Sont considérées comme « mises en avant », au sens du présent article, les informations présentées au public autrement que dans un affichage strictement chronologique reposant uniquement sur les abonnements de l’utilisateur, notamment au moyen d’un fil personnalisé, de rubriques de tendances, de suggestion de comptes ou de contenus, de lecture automatique, de notifications, ou de toute fonctionnalité équivalente. »

Art. ART. 3 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 3, initialement prévu par la proposition de loi présentée en commission.

Pour rappel, l’article de la proposition de loi propose d’insérer deux nouveaux articles au code de la santé publique afin de mieux informer la population sur les risques liés à l’usage des réseaux sociaux, notamment chez les plus jeunes.

Cet article vise dans un second temps à imposer sur les emballages des smartphones et autres terminaux connectés à internet la mention : « déconseillé aux mineurs de moins de 13 ans », et ce, en cohérence avec les recommandations de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, afin de sensibiliser les parents sur les balises d’âge fixées par cette commission dans un contexte de pression sociale très forte sur l’équipement des jeunes en smartphones de plus en plus tôt.

Cet amendement vise à rétablir la mise en œuvre des recommandations n° 16 et 39 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.

Dispositif

Rétablir cet article dans la rédaction suivante :

« Le chapitre III du titre III du livre Ier de la deuxième partie du code la santé publique est complété par deux articles L. 2133‑3 et L. 2133‑4 ainsi rédigés :

« Art. L. 2133‑3. – Les messages publicitaires en faveur de services de réseaux sociaux en ligne définis à l’article 6 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique doivent contenir une information à caractère sanitaire. Dans le cas des messages publicitaires sur internet, télévisés ou radiodiffusés, cette obligation ne s’applique qu’aux messages émis et diffusés à partir du territoire français et reçus sur ce territoire. La même obligation d’information s’impose à toute promotion, destinée au public, par voie d’imprimés et de publications périodiques édités par les producteurs ou distributeurs de ces services.

« Le non‑respect de cette obligation d’information par les annonceurs et promoteurs est puni de 37 500 euros d’amende. Le montant de cette amende peut être porté à 30 % des dépenses consacrées à l’émission et à la diffusion des messages mentionnés au premier alinéa ou à la réalisation et à la distribution des imprimés et publications mentionnés au même premier alinéa.

« Les modalités d’application du présent article sont déterminées par décret en Conseil d’État. »

« Art. L. 2133‑4. – Les unités de conditionnement, emballages extérieurs, suremballages et boîtes de téléphones mobile et autres équipements terminaux de communications électroniques connectés à internet comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de treize ans.

« Les modalités d’application et de contrôle des dispositions prévues au premier alinéa sont déterminées par décret en Conseil d’État.

« Le non‑respect des dispositions prévues au premier alinéa est puni de 37 500 euros d’amende. Les personnes physiques ou morales reconnues coupables encourent également la peine complémentaire de confiscation des produits dont l’unité de conditionnement, l’emballage extérieur, le suremballage ou la boîte méconnaît les dispositions prévues au premier alinéa.

« La récidive est punie d’une amende de 200 000 euros. »

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

La dégradation de la santé mentale des enfants et des adolescents constitue un enjeu majeur de santé publique. Une étude publiée le 21 octobre 2025 dans PLOS Medicine, coordonnée par le professeur Nicolas Hoertel, met en évidence une association forte entre l’usage excessif des réseaux sociaux et l’augmentation du risque de dépression chez les jeunes. Selon cette recherche, cet usage serait associé à 590 000 cas supplémentaires de dépression, 799 décès par suicide et près de 4 milliards d’euros de coûts économiques et sociaux pour la génération née entre 1990 et 2012.

Dans le même temps, la prévalence annuelle de la dépression chez les adolescents est passée de 2 % en 2014 à 9 % en 2021, parallèlement à l’augmentation du temps passé sur les réseaux sociaux. Si cette étude ne permet pas d’établir un lien de causalité direct, elle représente néanmoins le plus haut niveau de preuve scientifique disponible et souligne la nécessité de renforcer les politiques de prévention ciblées.

De plus, le rapport fait au nom de la commission d'enquêtes sur les effets psychologiques de tiktok révèle que certaines plateformes sont conscientes des risques délétères de leurs applications sans pour autant en informer le public. Les principaux effets relevés par les scientifiques et notamment Jonathan Haidt, mettent en lumière des conséquences sur la santé mentale des adolescents : comparaison sociale qui peut entraîner une dévalorisation des jeunes, manque de sommeil, entraînant de l’anxiété, de l’irritabilité, des difficultés d’apprentissage, trouble de l'attention, addiction. 

 

Le présent amendement vise donc à imposer aux plateformes une obligation de sensibilisation aux risques pour la santé mentale, notamment lors du signalement de contenus inappropriés ou dangereux, par l’affichage de messages de prévention et de numéros de soutien psychologique. Cette mesure proportionnée et opérationnelle s’inscrit dans une logique de prévention et de protection renforcée des mineurs.

Dispositif

La section 3 du chapitre II du titre Ier de la loi n°2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique est complétée par un article 6‑9-1 ainsi rédigé :

« Art. 6‑9-1. – Les fournisseurs de réseaux sociaux sont légalement tenues de délivrer une information sur l’existence de services d’information et d’assistance sur la santé mentale lorsqu’un contenu est signalé par un mineur où concerne un mineur. »

Art. APRÈS ART. 3 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Lors des auditions menées par la rapporteure, les associations nous ont interpellé sur l’existence de dispositifs facilitant l’exposition des jeunes enfants à des écrans via des fixations pour poussettes ou lits pour enfants. Ces dispositifs contribuent à l’accroissement de l’exposition de plus en plus précoce des enfants aux écrans,contrevenant de fait aux recommandations des autorités sanitaires interdisant l’exposition aux écrans pour les enfants de moins de 3ans et de façon limitée pour les moins de 6 ans.

Ces dispositifs sont en libre accès sur les plateformes de vente en ligne. 

Les outils qui ont explicitement et systématiquement pour vocation de favoriser le temps d’écran des enfants, souvent les plus jeunes, malgré le consensus scientifique sur leur dangerosité doivent être interdits. C’est l’objet de cet amendement. 

Dispositif

Après le livre VI de la troisième partie du code de la santé publique, il est inséré un livre VI bis ainsi rédigé :

« Livre VI bis

« Prévention des risques liés à l’exposition des jeunes enfants aux écrans numériques

« Titre unique

« Chapitre unique

« Art. L. 3632‑1. – À compter du 1er septembre 2026, sont interdites la fabrication, l’importation, l’exportation et la mise sur le marché à titre onéreux ou gratuit d’appareils permettant à titre principal de mettre à disposition des enfants des smartphones, tablettes,ordinateurs, télévisions ou tout autre appareil numérique disposant d’un écran. »

Art. ART. 4 BIS • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du groupe Écologiste et Social vise à assortir l'obligation faite aux fabricants de téléphone et aux plateformes de réseaux sociaux en ligne d'agir en faveur de la prévention et de la sensibilisation aux risques numériques d'une sanction en cas de manquement à cette obligation pouvant aller jusqu'à la fermeture temporaire du site internet du fournisseur de services de réseaux sociaux en ligne et une sanction financière de 1 % du chiffre d'affaires réalisé en France. 

Dispositif

Compléter cet article par les quatre alinéas suivants : 

« II. – En cas de manquement à l’obligation prévue au I du présent article, l’autorité administrative compétente peut, après avoir mis en demeure dans un délai qu’elle fixe et qui ne peut être inférieur à huit jours l’auteur du manquement de se conformer à ses prescriptions et de présenter ses observations :

« 1° Prononcer la fermeture temporaire du site internet du fournisseur de services de réseaux sociaux en ligne exerçant leur activité en France.

« 2° Prononcer une sanction financière à l’encontre de l’auteur du manquement et, le cas échéant, assortir cette amende d’une astreinte journalière qui ne peut être supérieure à 10 000 € par jour lorsque l’auteur de l’infraction ne s’est pas conformé à ses prescriptions à l’issue d’un délai fixé par une mise en demeure.

« III. – Le montant de la sanction financière ne peut être supérieur à 1 % du chiffre d’affaires réalisé en France par l’auteur du manquement lors du dernier exercice clos, dans la limite de dix millions d’euros. »

Art. APRÈS ART. 3 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du Groupe Écologiste et Social vise à renforcer la protection des mineurs face à l’exposition précoce aux écrans en étendant l’interdiction de la publicité destinée aux enfants de moins de 14 ans pour les téléphones portables à l’ensemble des équipements dotés d’un écran : téléphones, tablettes, ordinateurs, téléviseurs, montres connectées et dispositifs assimilés.

La publicité promouvant ces appareils ou leur usage n’est pas encadrée, notamment en ce qui concerne la publicité visant directement les mineurs. Cette libre publicité de ces appareils vient en contradiction avec les injonctions parentales, scolaires et sanitaires.

Interdire la publicité visant les mineurs de moins de 14 ans vise à réduire l’influence sur un public vulnérable face à ces sollicitations.

La disposition est reprise d’une proposition du groupe sénatorial Groupe Écologiste – Solidarité et Territoires.

Sur la recevabilité de cet amendement : l'article 3 de la présente proposition de loi cherchait à réguler la publicité en faveur des réseaux sociaux ; au global, la proposition de loi cherche à limiter la surexposition des enfants aux écrans. La régulation de la publicité en faveur d'objets numériques pour les mineurs est directement liée à ces objectifs. 

Dispositif

À l’article L. 5231‑3 du code de la santé publique, après le mot : « mobile », sont insérés les mots : « , d’un ordinateur, d’une tablette, d’une montre connectée, d’un téléviseur ou d’un produit assimilé ».

Art. APRÈS ART. 6 • 22/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la reconnaissance comme une activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Dispositif

La section 3 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9-1 ainsi rédigé : 

« Art. 6‑9-1. – Les fournisseurs de services de réseaux sociaux en ligne qui utilisent des systèmes de recommandation à destination d’utilisateurs mineurs, mettent en œuvre des mesures proportionnées visant à prévenir la mise en avant de contenus manifestement illicites ou portant atteinte à la protection des mineurs au sens de l’article 6‑9. Le manquement à ces obligations peut engager la responsabilité du fournisseur au titre de ses choix de mise en avant, indépendamment du régime applicable à l’hébergement des contenus. »

Art. ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 
Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 
Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.


L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 


La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.


C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Dispositif

À l’alinéa 5, substituer aux mots :

« quinze ans » 

les mots :

« treize ans ».

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du groupe Écologiste et Social vise à inscrire dans la loi l'obligation faite aux plateformes de réseaux sociaux de mettre à disposition des utilisateurs paramètre de limitation du temps passé sur les réseaux sociaux. L'amendement précise que ce paramètre doit être activé par défaut lors de la création du compte et lors de la mise en place d'un contrôle parental à destination des usagers mineurs. 

Dispositif

La section 2 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique est complété par un article 6‑2-2 ainsi rédigé : 

« Art. 6‑2-2. – Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France mettent à disposition des usagers de leurs services un paramètre de limitation du temps passé sur le réseau social en ligne. Il est activé par défaut à la création d’un nouveau compte utilisateur et lors de la mise en place d’un contrôle parental à destination des usagers mineurs. »

Art. APRÈS ART. 7 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 5, initialement prévu par la proposition de loi présentée en commission.

L’article 5 propose qu’un rapport soit remis au Parlement 3 ans après la promulgation de cette loi afin d’évaluer le niveau de respect des plateformes du droit européen et le niveau de dangerosité potentielle qu’ils représenteront à cette date pour les mineurs, afin d’avoir une base solide et récente afin d’évaluer la possibilité de faire évoluer la limite légale d’âge d’accès aux réseaux sociaux.

Il s’agit par cet article de mettre en œuvre la recommandation n° 31 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.

Dispositif

Dans un délai de trois ans à compter de la promulgation de la présente loi, le Gouvernement remet au Parlement un rapport évaluant, sur les trois années précédant cette remise, le respect par les services de réseaux sociaux en ligne de leurs obligations résultant du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE, et la persistance éventuelle de risques pour les mineurs dans l’utilisation de ces services.

Art. ART. 6 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

 

Cet amendement vise à permettre aux chefs d’établissements d’adapter l’interdiction des téléphones portable à la réalité des pratiques et des usages, à travers le règlement intérieur.

 Selon le cadre juridique posé à l’article L. 511-5 du code de l’éducation, l’interdiction de l’utilisation des téléphones est légale et peut également être appliquée aux lycées, à condition que les modalités pratiques soient précisées dans le règlement intérieur de l’établissement. Cette disposition reconnaît la réalité de situations qui varient en fonction du contexte local et des établissements. C’est pourquoi chaque établissement doit pouvoir adapter l’organisation matérielle de cette interdiction en fonction des contraintes géographiques, logistiques et des besoins propres de sa communauté éducative.

À Vanves, le lycée Michelet a d’ores et déjà mis en place l’interdiction du téléphone portable dans les salles de classe, les couloirs et à la cantine, l’autorisant uniquement dans les espaces extérieurs. Le cas de ce lycée permet d'illustrer que des modalités différenciées et fondées sur un projet éducatif propre à l’établissement peuvent être mises en œuvre et produire un effet positif perceptible dans la vie scolaire.

En conséquence, le présent amendement vise à clarifier que, pour les lycées, le chef d’établissement doit disposer de la compétence exclusive pour définir, en concertation avec la communauté éducative, les modalités de mise en œuvre de l’interdiction du téléphone portable, afin que la règle générale s’adapte à la réalité du terrain et qu’elle soit appliquée efficacement, sans rigidité inutile, tout en garantissant le respect de l’objectif d’amélioration des apprentissages et du climat scolaire.

Dispositif

Après l’alinéa 4, insérer l’alinéa suivant : 

« Les chefs d’établissements des lycées, à travers le règlement intérieur adaptent les modalités de l’interdiction du téléphone portable à la réalité des pratiques et des usages. » 

Art. APRÈS ART. 3 BIS • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement vise à rendre obligatoire la formation des professionnels de santé aux risques engendrés par la surexposition des mineurs aux écrans. En effet, selon une étude ELFE publiée en avril 2023 menée par Santé Publique France, le temps quotidien d’écran des enfants français est en hausse depuis plusieurs années, atteignant 56 minutes à deux ans et plus de 1h34 à cinq ans et demi. Le chiffre dépasse quatre heures pour les enfants âgés de six à dix-sept ans. L’étude rappelle que la surexposition aux écrans d’un enfant de 0 à 3 ans multiplie par trois le risque de développer des troubles primaires du langage, ainsi que des troubles de la motricité.
 
Le manque de formation peut entraîner des erreurs de diagnostic, et face à l’augmentation et la complexité des symptômes, il nous semble nécessaire d’apporter une formation aux professionnels travaillant auprès des enfants.

Dispositif

 Les professionnels de santé et du secteur médico-social ainsi que les professionnels de la petite enfance bénéficient, au cours de leur formation initiale ou continue, d’une formation obligatoire spécifique sur les risques associés aux différents degrés d’exposition aux écrans numériques pour les enfants et les adolescents. "

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

La protection des mineurs en ligne constitue une exigence de protection de l’enfance et de santé publique. Les risques liés aux usages numériques des enfants et des adolescents sont aujourd’hui largement documentés.

 Les grandes plateformes numériques tirent un profit économique considérable des usagers en ligne, basant leurs revenus majoritairement sur la publicité, comme l’atteste le rapport de la commission d’enquête sur tik tok. Ce modèle économique reposant sur le captage de l’attention pour passer le plus de publicité possible et pour pousser à l’achat met en avant des contenus virulents, clivants et néfastes pour garantir l’implication des utilisateurs. Les réseaux sociaux ont donc intérêt à entretenir une forme de dépendance chez les utilisateurs.

Cet amendement vise donc à protéger les mineurs de cette logique de profit en interdisant la publicité pour les moins de quinze ans.
 

Dispositif

Il est interdit au mineur de quinze ans d’avoir accès à des contenus publicitaires sur les services de réseaux sociaux en ligne comme définit à l’alinéa 5 de l’article 6 de la section I du chapitre II de la loi n°2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique. » 

Art. APRÈS ART. 3 • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement vise à créer un rendez-vous commun, à une date fixe, avec tous les acteurs industriels, associatifs et institutionnels pour évaluer l’efficacité des politiques publiques mise en œuvre pour lutter contre l’addiction aux écrans et aux réseaux sociaux des mineurs, échanger sur les bonnes pratiques. Les travaux se feront de façon bénévole et aucune partie prenante ne peut être payée ou recevoir une gratification.

Dispositif

Tous les trois ans, les différents acteurs institutionnels, industriels et associatifs se regroupent pour évaluer les politiques et les dispositifs mis en place pour lutter contre l’exposition des mineurs aux écrans, contre l’addiction aux réseaux sociaux et du caractère addictif et potentiellement dangereux des réseaux sociaux. Ils établissent une liste de propositions et d’actions pour les années à venir.

Art. ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la reconnaissance comme une activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Dispositif

Après l’alinéa 10, insérer l’alinéa suivant :

« Art. 6‑10. – Les fournisseurs de services de réseaux sociaux en ligne qui utilisent des systèmes de recommandation à destination d’utilisateurs mineurs, mettent en œuvre des mesures proportionnées visant à prévenir la mise en avant de contenus manifestement illicites ou portant atteinte à la protection des mineurs au sens de l’article 6‑9. Le manquement à ces obligations peut engager la responsabilité du fournisseur au titre de ses choix de mise en avant, indépendamment du régime applicable à l’hébergement des contenus. »

Art. ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

Amendement rédactionnel, afin de bien préciser que seuls les mineurs de moins de 15 ans sont concernés, et non l'ensemble des mineurs. 

Dispositif

À la première phrase de l’alinéa 8, après le mot :

« mineur », 

insérer les mots :

« de quinze ans ».

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
ECOS

Exposé des motifs

La loi votée en 2022 prévoyait un contrôle par défaut de l’accès des enfants à certaines applications, sans que les parents n’aient rien à faire. Mais les outils de contrôle du temps passé devant les écrans n’ont pas été mise en place, par défaut. Les parents doivent trouver l’outil adéquat au milieu d’une offre pléthorique, gratuite ou non et comprendre comment l’installer et l’utiliser. Ils veulent des logiciels faciles d’utilisation pour ne pas être dépossédés de leurs rôles.

Ainsi, cet amendement vise donc à rajouter au contrôle parental un dispositif du contrôle d’écran déjà préinstallé sur les appareils électroniques.

Dispositif

Le premier alinéa de l’article L 34‑9‑3 du code des postes et des communications électroniques est complété par les mots : « ainsi que d’un dispositif pré-intégré de contrôle de temps d’écran. »

Art. APRÈS ART. 6 • 22/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.

Scrutins (0)

Aucun scrutin lié à ce texte.