Protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux
Répartition des amendements
Amendements (130)
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Il s'agit de mettre en cohérence l'exposé des motifs du Gouvernement et le dispositif de l'article.
La seule exclusion des encyclopédies en ligne, des répertoires éducatifs ou scientifiques et des plateformes de développement et de partage de logiciels libres est une bonne chose, même si les définitions restent faibles.
Pour autant, rien dans les mentions actuelles du DSA, assurent que les services conçus pour des enfants ne soient pas exclus par l'article 1 tel qu'il est nouvellement rédigé par l'amendement du Gouvernement.
C'est pourquoi il est proposé cet ajout.
Dispositif
Compléter l'alinéa 3 par les mots :
« ni aux services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans.
Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans.
Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.
L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée.
La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.
C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans.
Dispositif
Au deuxième alinéa, substituer au mot :
« quinze »
le mot :
« treize ».
Art. ART. PREMIER
• 26/01/2026
IRRECEVABLE
Art. ART. PREMIER TER
• 26/01/2026
DISCUTE
Exposé des motifs
Se justifie par son texte même.
Dispositif
Supprimer cet article.
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Le présent amendement vise à renforcer la portée contraignante de l’article.
De nombreux changements pour cet article ont été soutenus par Madame la Rapporteure en Commission après un avis du Conseil d’État, considérant qu’il était contraire au Règlement sur les Services Numériques d’imposer de nouvelles obligations aux plateformes, mais qu’il était possible d’étendre le champs de ce qui était impossible. Un amendement du gouvernement vient désormais reprendre cette logique et réécrire une fois encore le texte.
Depuis sa seconde rédaction, et aux dires même de Madame la Rapporteur, esprit que porte encore l’amendement du gouvernement, le présent article a vocation à faire remonter le contrôle par les plateformes de l’âge des utilisateurs dans le rang des priorités qu’elles se fixent dans l’application d’un règlement européen très insuffisamment appliqué.
La loi, qui doit respecter le droit européen, n’a pourtant pas vocation à s’adapter aux stratégies d’évitement des normes communautaires que mettent en place les plateformes.
Tout en empruntant le même chemin que le gouvernement et la rapporteure pour éviter de contredire la compétence exclusive de l’Union européenne, cette rédaction permet de contraindre à une vérification d’âge effective pour garantir le respect du présent article.
Cette rédaction tend à renforcer le caractère coercitif du contrôle d’âge que les plateformes doivent mettre en place tout en reprenant la philosophie de l’avis du Conseil d’État destinée à éviter le conflit entre la loi et la compétence exclusive de l’Union européenne en matière d’obligations fixées aux plateformes.
Dispositif
Compléter l'alinéa 2 par les mots :
« identifiés comme tel après une vérification d’âge telle que décrite par l’article 10 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique ».
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Ce sous-amendement vise à préciser le champ d’application de l'interdiction des réseaux sociaux aux moins de 15 ans en laissant la possibilité à des plateformes de créer des outils sécurisés et sécurisants pour les mineurs, et à autoriser leur accès dès lors que l’activité de réseau social n’est qu’accessoire à la plateforme.
Dispositif
Compléter l'alinéa 2 par les mots :
« à moins que cette activité de réseau social ne constitue qu’une fonctionnalité accessoire de la plateforme en ligne. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Il y a un un consensus pour ne pas couper les mineurs des échanges interpersonnels avec leurs familles, notamment. Les messageries personnelles, même si elles intègrent des possibilités qui s'apparentent par certains aspects aux réseaux sociaux, sont une des conditions de la libre correspondance des mineurs, principe consacré dans les chartes internationales des droits de l'enfant.
Pour autant, l’exposé des motifs précise le champ de l’exclusion de l’interdiction des réseaux sociaux aux moins de 15 ans en y incluant les messageries personnelles, le dispositif ne cite qu’expressément les encyclopédies en ligne, les répertoires éducatifs ou scientifiques et les plateformes de développement et de partage de logiciels libres.
Il faut préserver ces possibilités d'échanges, de socialisation que sont les messageries personnelles, à la condition qu'elles soient bien régulées effectivement par l'Europe.
Dispositif
Compléter l'alinéa 3 par les mots :
« ni aux services de messagerie privée fondés sur des échanges interpersonnels non publics. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Il s'agit de laisser la possibilité aux plateformes et services de créer des dispositifs spécifiquement destinés aux jeunes et totalement sécurisés, plutôt que de laisser les mineurs se connecter aux seuls réseaux adultes, sans identification.
Il faut donc encourager les plateformes à créer des outils sécurisés et sécurisants pour les mineurs, spécifiques, et à autoriser leur accès dès lors que l’activité de réseau social n’est que strictement accessoire à la plateforme.
Dispositif
Compléter l'alinéa 2 par les mots :
« à moins que cette activité de réseau social ne constitue qu’une fonctionnalité strictement accessoire de la plateforme en ligne. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Dans son avis rendu sur la présente proposition de loi, le Conseil d’État indique "qu’en raison de l’ampleur des définitions, l’interdiction générale et absolue d’accès des mineurs de moins de quinze ans aux réseaux sociaux en ligne est susceptible de s’appliquer […] à des services en ligne pour lesquels, à raison de leur contenu ou de leur mode de fonctionnement, il n’est justifié d’aucun risque sur la santé et la sécurité des mineurs, tels par exemple que […] des jeux en ligne proposant des espaces ou des fonctionnalités collaboratives et sociales".
En l'état, l'écriture proposée risque de créer par effet de bord l'interdiction aux mineurs de moins de 15 ans des jeux vidéo en ligne qui ne présentent pas de danger pour eux, leurs fonctionnalités sociales étant marginales.
Ce sous-amendement permet ainsi de recentrer le présent texte de loi sur les services de réseau social en ligne qui présentent réellement un "danger pour l’épanouissement physique, mental ou moral des mineurs de quinze ans" ainsi que le préconise le Conseil d’État, tout en évitant d’inclure ceux qui n'en présentent objectivement aucun.
Dispositif
Compléter l'alinéa 2 par les mots :
« à moins que cette activité de réseau social ne constitue une fonctionnalité strictement accessoire de la plateforme en ligne. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Le présent sous-amendement vise à renforcer la lisibilité et l’effectivité de l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans.
En fixant une périodicité minimale d’actualisation, il vise à garantir que les services nouvellement apparus ou ayant fait évoluer leurs pratiques puissent être pris en compte dans des délais raisonnables, notamment lorsqu’ils sont susceptibles de présenter des risques pour les mineurs.
Il contribue ainsi à prévenir tout contournement durable du cadre légal et à assurer une application dynamique et effective des mécanismes de protection des mineurs, en cohérence avec l’objectif de responsabilité poursuivi par le législateur.
Dispositif
Après l'alinéa 5, insérer l'alinéa suivant :
« Elle publie et met à jour, au moins une fois par an, une liste indicative des services susceptibles de relever de la qualification de service de réseau social en ligne au sens du présent article, qui pourraient être préjudiciables aux mineurs ou à certains d’entre eux. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Cette proposition de loi pose une interdiction fondamentale d’accès aux réseaux sociaux pour les mineurs de moins de 15 ans. Associée à un programme de sensibilisation tout au long de la scolarité, elle permettra aux jeunes d’accéder aux réseaux sociaux à partir de 15 ans avec une compréhension approfondie des enjeux et des risques liés à leur utilisation. Il convient toutefois de souligner qu’à 15 ans un adolescent n’est pas encore pleinement autonome ni indépendant. Jusqu’à sa majorité il reste en effet sous la responsabilité de ses parents, qui doivent pouvoir exercer un droit de regard sur les activités de leur enfant, dans le respect de la vie privée mentionnée à l’article 9 du code civil.
Il est à ce titre essentiel de conserver une analogie avec la vie courante. En effet, si l’article 1148 du code civil autorise les mineurs à accomplir seuls des « actes courants autorisés par la loi ou l’usage », comme certains achats, de nombreuses activités nécessitent l’autorisation du représentant légal. Ainsi en va-t-il tout simplement des activités extrascolaires.
Compte tenu des effets dévastateurs et délétères des réseaux sociaux sur nos enfants, qui ne sont plus à démontrer, il ne parait pas concevable aujourd’hui que l’on puisse les laisser y accéder sans contrôle ou autorisation parentale. Faute de jurisprudence étoffée qui préciserait spécifiquement si la création d'un compte sur un réseau social relève ou non d'un acte courant, il revient au législateur de prendre ses responsabilités et de le faire. Il parait nécessaire que nous changions de paradigme et de ce fait, que nous inscription dans la loi, comme le propose cet amendement, que la création d'un compte sur un réseau social n'entre pas dans cette catégorie d'acte courant.
Dispositif
Après l'alinéa 2, il est inséré un alinéa ainsi rédigé :
« I bis. – Pour les mineurs de plus de quinze ans, l’inscription aux services de fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France n’est pas un acte courant et nécessite l’autorisation du représentant légal. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Ce sous-amendement vise à mettre en cohérence l’exposé des motifs de l’amendement de réécriture du gouvernement avec le dispositif proposé.
Alors que l’exposé des motifs précise le champ de l’exclusion de l’interdiction des réseaux sociaux aux moins de 15 ans en y incluant les services spécifiquement conçus pour un public mineur, le dispositif ne cite qu’expressément les encyclopédies en ligne, les répertoires éducatifs ou scientifiques et les plateformes de développement et de partage de logiciels libres.
Nous souscrivons à l’idée d’autoriser aux moins de 15 ans les plateformes spécifiquement adaptées aux mineurs, c’est pourquoi nous proposons de l’inscrire dans la loi.
Dispositif
Compléter l'alinéa 3 par les mots :
« ni aux services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Ce sous-amendement vise à mettre en cohérence l’exposé des motifs de l’amendement de réécriture du gouvernement avec le dispositif proposé.
Alors que l’exposé des motifs précise le champ de l’exclusion de l’interdiction des réseaux sociaux aux moins de 15 ans en y incluant les messageries personnelles, le dispositif ne cite qu’expressément les encyclopédies en ligne, les répertoires éducatifs ou scientifiques et les plateformes de développement et de partage de logiciels libres.
Nous souscrivons à l’idée d’autoriser aux moins de 15 ans les services de messagerie privée, c’est pourquoi nous proposons de l’inscrire dans la loi.
Dispositif
Compléter l'alinéa 3 par les mots :
« ni aux services de messagerie privée fondés sur des échanges interpersonnels non publics. »
Art. ART. PREMIER
• 26/01/2026
DISCUTE
Exposé des motifs
Ce sous-amendement de repli vise à préciser le champ d’application de l'interdiction des réseaux sociaux aux moins de 15 ans en laissant la possibilité à des plateformes de créer des outils sécurisés et sécurisants pour les mineurs, et à autoriser leur accès dès lors que l’activité de réseau social n’est que strictement accessoire à la plateforme.
Dispositif
Compléter l'alinéa 2 par les mots :
« à moins que cette activité de réseau social ne constitue qu’une fonctionnalité strictement accessoire de la plateforme en ligne. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement propose de réécrire l’article premier.
Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.
Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.
Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociauxune règle de majorité numérique fixée à quinze ans pour l’accès aux services de réseaux sociaux, dans le respect du cadre européen. .
Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information.
En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.
Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, telles que Wikipédia, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, comme YouTube Kids, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.
Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents, tels que Instagram, TikTok, Facebook, LinkedIn, Pinterest ou encore Snapchat. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services tels que YouTube ou Twitch lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, comme les « communautés » proposées par WhatsApp, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne massivement fréquentés par les mineurs, tels que Roblox, lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.
Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, les plateformes concernées sont tenues de mettre en œuvre un dispositif de vérification ou d’estimation de l’âge de leurs utilisateurs. le En l’absence de tels mécanismes, les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.
Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L’utilisation de méthodes efficaces d’assurance de l’âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires. Plusieurs technologiespeuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».
vise ainsi à faire peser sur les plateformes la responsabilité qui leur incombe, en cohérence avec l’importance de leurs services dans les usages numériques des mineurs et avec les risques spécifiques liés aux fonctionnalités sociales et interactives qu’elles proposent.
Les dispositifs de vérification ou d’estimationd’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA, qui assurent un équilibre entre fiabilité de la vérification et respect de la vie privée et des données personnelles.
Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.
Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.
Complémentairement à cet écosystème, cCes exigences s’inscrivent dans une dynamique européenne plus large, au sein de laquelle sont conduits des travaux visant à développer des solutions techniques protectrices et interopérables, notamment à travers l’expérimentation initiée par la Commission, et pour lequel la en FranceFrance est un pays pilote, du dispositif dit de « mini-wallet », permettant la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires, en vue d’une mise à disposition au public à l’horizon 2026.
Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.
La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.
Dispositif
Substituer aux alinéas 5 à 10 les quatre alinéas suivants :
« Art. 6‑9. – I. – L’accès à un service de réseau social en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans.
« II. – Le présent article ne s’applique ni aux encyclopédies en ligne, ni aux répertoires éducatifs ou scientifiques ni aux plateformes de développement et de partage de logiciels libres.
« III. – L’Autorité de régulation de la communication audiovisuelle et numérique veille, dans les conditions prévues au chapitre IV du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) et aux articles 9‑1 et 9‑2 de la présente loi, au respect du présent article.
« Elle signale tout soupçon de manquement à l’interdiction prévue au présent article commis par des plateformes en ligne fournissant un service de réseau social en ligne établies dans d’autres États membres de l’Union européenne aux autorités compétentes pour faire respecter le Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 précité. »
II. – En conséquence, compléter l’alinéa 12 par les mots :
« , y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française. Pour les comptes d’accès aux services de réseaux sociaux créés avant cette date, il s’applique dans un délai de quatre mois à compter de cette date ».
Art. APRÈS ART. 3
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement du Groupe Écologiste et Social vise à renforcer la protection des mineurs face à l’exposition précoce aux écrans en étendant l’interdiction de la publicité destinée aux enfants de moins de 14 ans pour les téléphones portables à l’ensemble des équipements dotés d’un écran : téléphones, tablettes, ordinateurs, téléviseurs, montres connectées et dispositifs assimilés.
La publicité promouvant ces appareils ou leur usage n’est pas encadrée, notamment en ce qui concerne la publicité visant directement les mineurs. Cette libre publicité de ces appareils vient en contradiction avec les injonctions parentales, scolaires et sanitaires.
Interdire la publicité visant les mineurs de moins de 14 ans vise à réduire l’influence sur un public vulnérable face à ces sollicitations.
La disposition est reprise d’une proposition du groupe sénatorial Groupe Écologiste – Solidarité et Territoires.
Sur la recevabilité de cet amendement : l'article 3 de la présente proposition de loi cherchait à réguler la publicité en faveur des réseaux sociaux ; au global, la proposition de loi cherche à limiter la surexposition des enfants aux écrans. La régulation de la publicité en faveur d'objets numériques pour les mineurs est directement liée à ces objectifs.
Dispositif
À l’article L. 5231‑3 du code de la santé publique, après le mot : « mobile », sont insérés les mots : « , d’un ordinateur, d’une tablette, d’une montre connectée, d’un téléviseur ou d’un produit assimilé ».
Art. ART. 6
• 22/01/2026
RETIRE
Exposé des motifs
Les chefs d’établissement et les enseignants hésitent parfois à appliquer strictement les interdictions par crainte de contentieux. Cet amendement vise à sécuriser juridiquement l’institution scolaire afin de garantir l’effectivité des règles et de soutenir l’autorité éducative.
Dispositif
Compléter cet article par l’alinéa suivant :
« III. – L’établissement scolaire ne peut être tenu pour responsable de la perte, du vol ou de la dégradation d’un téléphone portable confisqué dans le cadre de l’application de la loi ou du règlement intérieur, sauf en cas de faute lourde. »
Art. APRÈS ART. 3
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement du Groupe Écologiste et Social vise à renforcer l’information délivrée aux parents sur les alternatives aux usages des écrans lors des entretiens conduits par les services de protection maternelle et infantile (PMI). Ce dispositif est directement repris d’une proposition portée par le groupe sénatorial Écologiste - Solidarité et Territoires.
Il prévoit d’intégrer explicitement, dans le cadre de ces entretiens de prévention, une information systématique relative aux alternatives aux écrans par les professionnels de la petite enfance.
L’objectif est d’assurer est de renforcer l’accompagnement des parents face aux usages numériques précoces, par la promotion de pratiques favorables au développement psychomoteur, social et cognitif des jeunes enfants.
Cette disposition contribue ainsi à consolider la politique de prévention et de soutien à la parentalité portée dans le champ de l’exposition des jeunes enfants aux écrans.
Dispositif
À la première phrase du dernier alinéa de l’article L. 2112-2 du code de la santé publique, après le mot : « actions », sont insérés les mots : « de prévention de l’exposition non raisonnée des enfants aux écrans, de soutien à la parentalité dans ce domaine, notamment par la délivrance d’une information sur les alternatives aux écrans pour les jeunes enfants, ».
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement des députés socialistes et apparentés vise à garantir une protection pour recueillir l’accord d’un administrateur légal d’un mineur de 15 ans afin d’accéder à un réseau social autorisé.
Il prévoit que les conditions de recueil sont conformes à un référentiel fixé par l’Arcom après avis de la CNIL, ce référentiel prévoyant explicitement l’interdiction de conservation des données de recueil par les plateformes concernées. En effet, on peut supposer que l’établissement d’un tel accord comporte de nombreuses données personnelles très sensibles que nous ne souhaitons en aucun cas laisser aux plateformes, mais doivent servir uniquement à établir l’autorisation d’accès à celles-ci.
Par ailleurs, au-delà du principe auquel nous souscrivons, cette mesure soulève des questions techniques et de procédure. Nous attendons des précisions concernant les modalités d’application (qui est en charge du recueillement ? par quel moyen ? comment justifier de la qualité d’administrateur légal ?).
Dispositif
Compléter l’alinéa 8 par les deux phrases suivantes :
« Les conditions de recueil de cet accord sont conformes à un référentiel élaboré par l’Autorité de régulation de la communication audiovisuelle et numérique après consultation de la Commission nationale de l’informatique et des libertés. Il fixe notamment des garanties de protection de traitement des données personnelles et l’interdiction de conservation des données par les plateformes mentionnées au I. du présent article. »
Art. APRÈS ART. 7
• 22/01/2026
IRRECEVABLE
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vise à définir plus précisément le périmètre d’application du texte en excluant les plateformes de partage de vidéos des obligations imposées aux réseaux sociaux par cet article. Le Conseil d’Etat recommande en effet dans son avis de se référer aux définitions établies par le Règlement sur les services numériques et le Règlement sur les marchés numériques. Le recours aux définitions du Règlement sur les services numériques et du Règlement sur les marchés numériques permet d’appliquer une qualification dite distributive: plateforme de partage de vidéos pour une partie du service et réseau social pour l’autre partie.
Le modèle de ces plateformes est par ailleurs significativement différent de celui des réseaux sociaux: si elles reposent également sur la monétisation de contenus, il ne peut leur être imputé ce qui est principalement reproché aux réseaux sociaux comme TikTok, Instagram ou Snapchat, les fonctionnalités sociales invasives et le défilement continu. Les plateformes comme YouTube, Dailymotion ou Vimeo constituent en outre un répertoire de ressources pédagogiques auxquelles les professeurs renvoient largement leurs élèves pour parfaire leurs connaissances.
Dans son ouvrage The Anxious Generation, le chercheur et psychologue social Jonathan Haidt, relève que YouTube est souvent utilisé pour la consommation de contenu (apprendre, regarder des tutoriels ou des vidéos longues) plutôt que pour la comparaison sociale constante et la recherche de validation (likes, commentaires sur son propre physique) qui caractérise les réseaux sociaux d'image.
Par ailleurs, lors de premières évaluations avec l'entreprise Google, responsable du service YouTube, présente en Australie, il apparait que l'interdiction d'accès aux mineurs a abouti à un effet paradoxal. Faute d'identifications spécifiques, YouTube ne peut plus protéger les mineurs de contenus susceptibles de nuire à leur épanouissement physique, mental ou moral.
En effet, ces services sont accessibles avec inscription et processus de vérification d'âge protégeant ainsi les mineurs. Faute d'inscription ou inscription "frauduleuse" comme majeur, tous les contenus deviennent accessibles.
Le mineur ne pourra plus créer un profils spécifique et protecteur sur ces plateformes. Il lui restera à accéder avec le profil de ses parents ou de son foyer ou de la box familiale.
Les applications Lemon8 et yope, qui ne sont pas concernées par l’interdiction à ce stade en Australie, ont grimpé en flèche dans les classements des téléchargements . Selon Meta, de nombreuses applications n’offrent pas les mêmes fonctionnalités de sécurité que les siennes, comme les comptes spécifiques aux adolescents.
Cet amendement a été écrit avec le soutien de YouTube, filiale de Google-Alphabet.
Dispositif
I. – À l’alinéa 5, supprimer les mots :
« à un service de plateforme de partage de vidéos au sens de l’article 2 de la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication ou ».
II. – En conséquence, à l’alinéa 7, supprimer les mots :
« d’un service de plateforme de partage de vidéos ou »
Art. APRÈS ART. 7
• 22/01/2026
IRRECEVABLE
Art. APRÈS ART. PREMIER
• 22/01/2026
IRRECEVABLE_40
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le texte adopté en commission fait peser l’interdiction d’accès sur le mineur de quinze ans, ce qui permet de sécuriser le dispositif au regard de l’interprétation du règlement (UE) 2022/2065 sur les services numériques (DSA), règlement d’harmonisation maximale. Toutefois, l’effectivité d’une telle interdiction dépend, en pratique, des acteurs qui organisent l’inscription, l’accès et le maintien des comptes : sans obligations corrélatives à la charge des plateformes, la règle demeure largement théorique.
Le présent amendement réintroduit donc, en complément de l’interdiction applicable au mineur, une obligation pour les fournisseurs des services concernés : refus d’inscription, suspension des comptes existants et recours à des solutions de vérification d’âge conformes à un référentiel Arcom, élaboré après consultation de la CNIL.
Sur le plan du droit de l’Union européenne, le présent amendement s’inscrit dans la logique du DSA : celui-ci reconnaît que les États membres peuvent définir, conformément au droit de l’Union, des règles rendant illicite l’accès à certains contenus ou services, et les lignes directrices de la Commission relatives à la protection des mineurs recommandent expressément aux plateformes des méthodes de restriction d’accès en fonction de l’âge lorsque le droit national fixe un âge minimal d’accès à certaines catégories de services, y compris des catégories définies de médias sociaux. En rendant l’accès des mineurs de quinze ans aux services visés illicite au regard du droit national, l’amendement précise les mesures opérationnelles attendues pour assurer l’effectivité de cette illicéité, en cohérence avec l’objectif européen de protection des mineurs, consacré notamment par l’article 28 du DSA.
Au-delà, la France, État souverain, ne saurait renoncer à édicter les mesures nécessaires à la protection des enfants et à la préservation de leur santé et de leur développement, qui constituent des exigences fondamentales. Le présent amendement assume donc le choix politique de rétablir une obligation à la charge des plateformes, car elles seules disposent des leviers techniques et organisationnels permettant une application réellement efficace de l’interdiction.
Cette approche est d’ailleurs cohérente avec des expériences étrangères récentes : en Australie, le cadre de “minimum age” fait peser l’obligation sur les plateformes, tenues de prendre des “mesures raisonnables” pour empêcher les mineurs d’avoir ou de conserver un compte. En réintroduisant des obligations comparables, le présent amendement vise à assurer l’effectivité du dispositif français et à éviter que la charge du respect de la règle ne repose uniquement sur les mineurs.
Dispositif
Après l’alinéa 12, insérer les sept alinéas suivants :
« III. – Afin d’assurer l’effectivité de l’interdiction prévue au I, les fournisseurs de services de plateforme de partage de vidéos et de services de réseaux sociaux en ligne mentionnés au même I :
« 1° Refusent l’inscription à leurs services des mineurs de quinze ans ;
« 2° Suspendent, dans les meilleurs délais, les comptes déjà créés et détenus par des mineurs de quinze ans ;
« 3° Utilisent, afin de vérifier l’âge des utilisateurs finaux, des solutions techniques conformes à un référentiel élaboré par l’Autorité de régulation de la communication audiovisuelle et numérique, après consultation de la Commission nationale de l’informatique et des libertés.
« Lorsqu’elle constate qu’un fournisseur n’a pas mis en œuvre de solution technique conforme au référentiel mentionné au 3° du présent III pour vérifier l’âge des utilisateurs finaux, l’Autorité de régulation de la communication audiovisuelle et numérique adresse à ce fournisseur, par tout moyen propre à en établir la date de réception, une mise en demeure de prendre toutes les mesures requises pour satisfaire aux obligations prévues au présent III. Le fournisseur dispose d’un délai de quinze jours à compter de la mise en demeure pour présenter ses observations.
« À l’expiration de ce délai, en cas d’inexécution de la mise en demeure, le président de l’Autorité de régulation de la communication audiovisuelle et numérique peut saisir le président du tribunal judiciaire de Paris aux fins d’ordonner au fournisseur de mettre en œuvre une solution technique conforme.
« Le fait pour un fournisseur de ne pas satisfaire aux obligations prévues au présent III est puni d’une amende ne pouvant excéder 3 % de son chiffre d’affaires mondial pour l’exercice précédent. »
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
La loi n°2010‑476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne prévoit à son article 28 que les opérateurs de jeux ou de paris en ligne informent en permanence les joueurs de l’existence du service d’information et d’assistance prévu à l’article 29.
Cet amendement vise donc à s’inspirer de ce qui existe déjà en termes de prévention en l’adaptant aux dangers présents sur les réseaux sociaux.
Dispositif
La section 3 bis du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9‑1 ainsi rédigée :
« Art. 6‑9‑1. – Les fournisseurs de réseaux sociaux sont légalement tenues de délivrer une information sur l’existence de services d’information et d’assistance au cyberharcèlement lorsqu’un contenu est signalé par un mineur ou concerne un mineur. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Les réseaux sociaux recourent à des mécanismes destinés à capter l’attention et à prolonger la consommation de contenus. Les mineurs, dont les capacités d’autorégulation sont encore en développement, y sont particulièrement vulnérables. Ces pratiques peuvent entraîner une exposition excessive, préjudiciable à leur santé, à leur concentration et à leur bien‑être.
Conformément aux lignes directrices du Digital Services Act, qui appellent à limiter les interfaces addictogènes et les sollicitations intrusives, le présent amendement vise à interdire aux plateformes de proposer aux mineurs des mécanismes favorisant une consommation ininterrompue ou une sollicitation permanente. Cette mesure renforce la protection des jeunes utilisateurs et responsabilise les fournisseurs de services numériques.
En outre, les réseaux sociaux intègrent de nombreux mécanismes d’incitation à l’achat, dont certains peuvent exercer une influence disproportionnée sur les utilisateurs, en particulier les plus jeunes ou les plus vulnérables. La mise en avant insistante de contenus sponsorisés, les achats intégrés peu transparents ou les sollicitations répétées peuvent conduire à des pratiques commerciales abusives ou à des décisions d’achat insuffisamment éclairées.
Les lignes directrices du Digital Services Act rappellent la nécessité de prévenir les interfaces trompeuses et les mécanismes exploitant la vulnérabilité des utilisateurs, en imposant une conception plus responsable des environnements numériques.
Dans ce cadre, le présent amendement écrit avec l'AFNUM vise à garantir que les mécanismes d’incitation à l’achat intégrés aux plateformes ne présentent aucun caractère dangereux ni abusif. Il contribue ainsi à renforcer la protection des utilisateurs et à responsabiliser les fournisseurs de réseaux sociaux dans la conception de leurs dispositifs commerciaux.
Dispositif
Après l’alinéa 10, insérer les deux alinéas suivants :
« III. – Les réseaux sociaux veillent à ce que les mineurs ne soient pas exposés à des caractéristiques de conception persuasives qui visent principalement à les faire interagir et qui sont susceptibles de conduire à une utilisation intensive ou excessive de la plateforme ou à des schémas comportementaux problématiques ou compulsifs. »
« Ils veillent également à ce que les mineurs ne soient pas exposés à une fréquence et à des volumes excessifs de recommandations de contenus commerciaux. »
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
La protection des mineurs ne peut reposer uniquement sur les plateformes. Les parents doivent être pleinement responsabilisés. Cet amendement vise à sanctionner les comportements consistant à contourner sciemment les règles d’âge, ce qui affaiblit gravement l’efficacité du dispositif et expose les enfants à des risques avérés.
Dispositif
La section 3 bis du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9‑1 ainsi rédigé :
« Art. 6‑9‑1. – Le fait, pour un titulaire de l’autorité parentale, d’organiser, de faciliter ou de tolérer sciemment la fraude à l’âge de son enfant mineur afin de lui permettre l’accès à un service de réseau social en ligne en violation des dispositions de l’article 6‑9 est puni de l’amende prévue pour les contraventions de la cinquième classe. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Dans son rapport d'initiative sur la protection des mineurs en ligne, le Parlement européen s'est largement exprimé en faveur de l'introduction d'une majorité numérique harmonisée au niveau européen, avec deux bornes d'âge : interdiction d’accès aux réseaux sociaux en dessous de 13 ans, possiblement étendue à d’autres plateformes « à risque » (partage vidéo, chatbots, assistants IA, etc.) ; et accès autorisé aux réseaux sociaux et autres plateformes à risque uniquement via le contrôle parental entre 13 et 16 ans.
Ce rapport a été largement adopté grâce au travail conséquent notamment de la députée européenne, Stéphanie Yon-Courtin.
Ces bornes d'âge correspondent au cadre règlementaire européen existant, à savoir le RGPD qui fixe à 16 ans l'âge par défaut au-delà duquel un enfant peut consentir seul au traitement de ses données personnelles pour les services en ligne, sans l'autorisation parentale. Ces bornes d'âge correspondent également aux conditions générales d'utilisation de la plupart des plateformes de réseaux sociaux, qui interdisent déjà en principe l'inscription aux personnes âgées de moins de 13 ans.
Ces propositions s'inscrivent dans le cadre des travaux en cours au sein de la Commission européenne, qui s'est engagée à faire au cours de l'année à venir des propositions dans le sens d'une majorité numérique européenne. Dans ce cadre, la Commission prévoit de mettre en place et réunir très prochainement un panel d'experts dédié à la majorité numérique. Ce groupe d'experts est censé fournir des recommandations sur la définition des bornes d'âge et l'identification des plateformes et services numériques qui devraient être soumis à une restriction d'accès liée à l'âge.
Par ailleurs, le contrôle d'âge et d'identité, par la mise en place d'une identité numérique européenne est en cours.
Cet amendement est là aussi pour rappeler que les avancées sur le contrôle du numérique, dans toutes ses dimensions, sont européennes. La France a été motrice dans la mise en place de ces règlementations. Il est étonnant aujourd'hui de voir le Sénat et l'Assemblée par deux propositions et le Gouvernement par un théorique projet de loi vouloir légiférer au seul niveau national, sans les moyens légaux et techniques de cette ambition.
Dispositif
À l’alinéa 5, substituer aux mots :
« quinze ans »
les mots :
« treize ans ».
Art. ART. 2
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 2, initialement prévu par la proposition de loi présentée en commission.
Pour rappel, cet article cherche à imposer aux personnes dont l’activité consiste à fournir des services d’hébergement de concourir à la lutte contre la diffusion des contenus constituant de la propagande ou de la publicité en faveur de moyens de se donner la mort.
Alors que l’article 6 de la loi pour la confiance dans l'économie numérique établit des obligations pour les plateformes de lutter contre les contenus illicites, la liste des infractions concernées est à ce jour incomplète puisqu’elle ne comprend pas celle mentionnée à l’article 223-14 du code pénal, à savoir la propagande ou la publicité en faveur de moyens de se donner la mort. Ce type de contenu, aux effets potentiellement dévastateurs, n’est ainsi pas toujours traité avec la diligence requise, alors même qu’il expose les utilisateurs les plus vulnérables, et en particulier les mineurs, à des risques majeurs. Cet article vise donc à compléter la LCEN pour élargir le champ des obligations des plateformes pour protéger leurs utilisateurs, et notamment les plus jeunes."
Enfin, cet article a aussi pour but de renforcer les peines complémentaires permettant de suspendre les comptes d’accès à des plateformes en ligne utilisés afin de commettre certaines infractions, ainsi que pour renforcer l’amende pour les fournisseurs qui ne procéderaient pas au blocage du compte problématique.
Cet article vise enfin à étendre le champ des délits pour laquelle cette peine peut être encourue à la propagande ou la publicité, quel qu’en soit le mode, en faveur de produits, d’objets ou de méthodes préconisés comme moyens de se donner la mort.
Il s’agit par cet article de mettre en œuvre les recommandations n° 9 et 37 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.
Dispositif
Rétablir cet article dans la rédaction suivante :
« I. – L’article 131‑35‑1 du code pénal est ainsi modifié :
« 1° Le I est ainsi modifié :
« a) Le deuxième alinéa est ainsi modifié :
« – les mots : « six mois » sont remplacés par les mots : « un an » ;
« – les mots : « un an » sont remplacés par les mots : « deux ans » ;
« – il est ajouté un alinéa ainsi rédigé :
« Le non-respect de cette obligation d’information par les annonceurs et promoteurs est puni de 37 500 euros d’amende. Le montant de cette amende peut être porté à 30 % des dépenses consacrées à l’émission et à la diffusion des messages mentionnés au premier alinéa ou à la réalisation et à la distribution des imprimés et publications mentionnés au même premier alinéa.
« b) À l’avant-dernier alinéa, le montant : « 75 000 » est remplacé par le montant : « 150 000 » ;
« 3° Au 6° du II, après la référence : « 223‑13, », est insérée la référence : « 223‑14, ».
« II. – Au A du IV de l’article 6 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, après la référence : « 223‑13, », est insérée la référence : « 223‑14, ».
Art. APRÈS ART. 3
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vise à créer un rendez-vous commun, à une date fixe, avec tous les acteurs industriels, associatifs et institutionnels pour évaluer l’efficacité des politiques publiques mise en œuvre pour lutter contre l’addiction aux écrans et aux réseaux sociaux des mineurs, échanger sur les bonnes pratiques. Les travaux se feront de façon bénévole et aucune partie prenante ne peut être payée ou recevoir une gratification.
Dispositif
Tous les trois ans, les différents acteurs institutionnels, industriels et associatifs se regroupent pour évaluer les politiques et les dispositifs mis en place pour lutter contre l’exposition des mineurs aux écrans, contre l’addiction aux réseaux sociaux et du caractère addictif et potentiellement dangereux des réseaux sociaux. Ils établissent une liste de propositions et d’actions pour les années à venir.
Art. APRÈS ART. 3
• 22/01/2026
RETIRE
Exposé des motifs
L’équipement précoce des enfants en smartphones est largement encouragé par des offres commerciales ciblées. Cet amendement vise à mettre fin à ces pratiques afin de protéger les mineurs et de responsabiliser les acteurs économiques. Il s’inscrit dans une logique de prévention et de protection de l’enfance.
Dispositif
Le chapitre III du titre III du livre Ier de la deuxième partie du code la santé publique est complété par un article L. 2133‑3 ainsi rédigé :
« Art. L. 2133‑3. – Les opérateurs de communications électroniques ne peuvent proposer d’offres commerciales de services de téléphonie ou d’accès à internet spécifiquement destinées aux mineurs.
« Les modalités d’application du présent article sont précisées par décret en Conseil d’État. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Cet article issu des travaux de la Commission est radicalement différent de sa version initiale écrite dans la proposition de loi. La rapporteure a assuré que c'était une version réécrite par le Conseil d'Etat que la Présidente de l'Assemblée avait interrogé.
Une proposition de loi adoptée par le Sénat et un projet de loi porté par le gouvernement sur le même sujet sont annoncés. Il serait assurément plus utile de passer par un projet de loi.
En effet, pour avoir déjà adopté plusieurs lois non conformes à la règlementation européenne, seule compétente en la matière, il semble plus raisonnable et efficient de partir d'un projet de loi, avec une étude d'impact sérieuse, que d'une fragile proposition de loi, qui serait une fois encore inopérante.
De plus, la directive européenne et surtout les lignes directrices, qui ont tardé à être publiées, semblent beaucoup plus robustes et opérationnelles que cette proposition de loi. Il serait pertinent que cette proposition devienne une résolution et que cette résolution soit partagée avec plusieurs parlements nationaux, de plusieurs Etats membres.
Si nous voulons accélérer la mise en oeuvre d'une réelle protection des mineurs en ligne, c'est soit en écrivant du droit national robuste et ce n'est assurément pas le cas de cette proposition, soit en accélérant au niveau européen à la réelle mise en oeuvre de toutes les mesures qui pourraient s'imposer aux grandes plateformes et réseaux visés par cette proposition.
Le règlement européen sur les services numériques (DSA) a posé un cadre commun et harmonisé. Il consacre la protection des mineurs comme une exigence centrale, mais il réserve à l’Union européenne la définition des obligations directes pesant sur les plateformes. Dans son avis du 8 janvier 2026, le Conseil d’État a rappelé que le législateur national ne peut, sans risque juridique majeur, imposer seul de nouvelles contraintes aux fournisseurs de réseaux sociaux.
Cette proposition de loi et cet article 1 réécrit fait le choix de faire porter la responsabilité sur les mineurs et leurs parents est maladroit pour le moins, voire dangereux.
En effet, on a "vendu" cette proposition de loi comme protégeant les mineurs de quelques dangereux réseaux tout en les laissant accéder à des réseaux ou services éthiques, sans définir ni les premier ni les seconds. On assure dans les médias qu'il y aura un contrôle d'age, qui n'est pas prévu par ce texte.
A ce stade, par analogie avec le tabac, nous ne demandons plus aux débitants de tabac de ne pas en vendre aux mineurs. Ici, nous demandons aux mineurs de ne pas en acheter et à leurs parents de s'en assurer.
Une fois de plus nous aurons légiférer avec une promesse d'agir, et nous ne tiendrons pas cette promesse.
Dispositif
Supprimer cet article.
Art. APRÈS ART. 3
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vise à responsabiliser les influenceurs lors de la promotion des réseaux sociaux sur les plateformes en ligne.
Dispositif
L’article 5 de la section 2 du chapitre II de la loi n°2023‑451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux est complétée par un V ainsi rédigé :
« V. – La promotion de services tels que les réseaux sociaux ou plateformes en ligne s’accompagne d’une mention « produits dangereux pour les moins de quinze ans ». Cette mention est claire, lisible et identifiable sur l’image ou sur la vidéo, sous tous les formats et durant l’intégralité de la promotion »
Art. APRÈS ART. 7
• 22/01/2026
IRRECEVABLE
Art. APRÈS ART. 7
• 22/01/2026
IRRECEVABLE_40
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vise à supprimer l’article 6.
Si les députés de notre groupe partagent l’intention louable de limiter l’exposition des écrans sur les plus jeunes, nous considérons que l’interdiction pure et simple des téléphones portables dans les lycées ne résoudra pas cette problématique mais risque d’alourdir la charge de travail des personnels éducatifs. Rappelons par ailleurs, cette interdiction est déjà possible et prévue par le code de l’éducation puisque les règlements intérieurs des lycées peuvent d’ores et déjà interdire les téléphones dans des espaces de l’établissement et pendant les activités à l’extérieur de celle-ci.
À l’instar de la FCPE qui a publié sa déclaration préalable au CSE du 7 janvier, nous partageons le constat qu’« en pratique, nous savons cette mesure inapplicable et facilement contournable à l’occasion d’une sortie de l’établissement à l’inter-cours ou à la faveur d’un trou dans l’emploi du temps. Ce qui n’est pas possible dans la cour le sera quelques mètres plus loin devant l’entrée de l’établissement. Dans un lycée, concrètement puisque c’est le statut d’étudiant ou de lycéen qui fixera le droit ou l’interdit, des lycéens majeurs ne pourront pas consulter leur portable et des étudiants en BTS ou en prépa le pourront… nous souhaitons bien du courage aux équipes de vie scolaire, aux enseignants et équipes de direction pour faire respecter cette interdiction ».
Au-delà des contournements très faciles d’une telle interdiction, de la difficulté de contrôler l’usage selon l’élève et du manque de moyens pour les personnels, subsiste une ambivalence à une telle interdiction alors même que les politiques autour du numérique à l’école ont été renforcées depuis plusieurs années. Plutôt qu’une énième interdiction, des moyens réels dédiés à l’éducation au numérique, la lutte contre le cyberharcèlement et la protection des données devraient être mis en place afin de répondre aux enjeux de notre époque. Il est difficilement envisageable d’opérer un retour en arrière dans notre société entièrement dédiée au numérique a fortiori pour des adolescents ou jeunes adultes parfois majeurs.
Ainsi, le SNES-FSU, dénonce une mesure d’affichage, sans moyens nouveaux et une nouvelle instrumentalisation de l’école.
Le CSE réuni le 7 janvier a voté à la quasi unanimité (93 %) contre cette mesure.
La méthode interroge également quand on sait que ce Conseil supérieur de l’Éducation nationale a été convoqué en urgence sans que la communauté éducative n’ait été associée à la réflexion en amont. Une telle réforme, qui touche au cœur du fonctionnement quotidien des établissements, ne peut être décidée sans un réel dialogue social et professionnel.
Enfin, alors que cette disposition devrait également figurer dans le projet de loi du Gouvernement, nous ne comprenons pas pourquoi nous légiférons aujourd’hui sur ce point.
Dispositif
Supprimer cet article.
Art. ART. 3
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 3, initialement prévu par la proposition de loi présentée en commission.
Pour rappel, l’article de la proposition de loi propose d’insérer deux nouveaux articles au code de la santé publique afin de mieux informer la population sur les risques liés à l’usage des réseaux sociaux, notamment chez les plus jeunes.
Cet article vise dans un second temps à imposer sur les emballages des smartphones et autres terminaux connectés à internet la mention : « déconseillé aux mineurs de moins de 13 ans », et ce, en cohérence avec les recommandations de la commission d’experts sur l’impact de l’exposition des jeunes aux écrans, afin de sensibiliser les parents sur les balises d’âge fixées par cette commission dans un contexte de pression sociale très forte sur l’équipement des jeunes en smartphones de plus en plus tôt.
Cet amendement vise à rétablir la mise en œuvre des recommandations n° 16 et 39 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.
Dispositif
Rétablir cet article dans la rédaction suivante :
« Le chapitre III du titre III du livre Ier de la deuxième partie du code la santé publique est complété par deux articles L. 2133‑3 et L. 2133‑4 ainsi rédigés :
« Art. L. 2133‑3. – Les messages publicitaires en faveur de services de réseaux sociaux en ligne définis à l’article 6 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique doivent contenir une information à caractère sanitaire. Dans le cas des messages publicitaires sur internet, télévisés ou radiodiffusés, cette obligation ne s’applique qu’aux messages émis et diffusés à partir du territoire français et reçus sur ce territoire. La même obligation d’information s’impose à toute promotion, destinée au public, par voie d’imprimés et de publications périodiques édités par les producteurs ou distributeurs de ces services.
« Le non‑respect de cette obligation d’information par les annonceurs et promoteurs est puni de 37 500 euros d’amende. Le montant de cette amende peut être porté à 30 % des dépenses consacrées à l’émission et à la diffusion des messages mentionnés au premier alinéa ou à la réalisation et à la distribution des imprimés et publications mentionnés au même premier alinéa.
« Les modalités d’application du présent article sont déterminées par décret en Conseil d’État. »
« Art. L. 2133‑4. – Les unités de conditionnement, emballages extérieurs, suremballages et boîtes de téléphones mobile et autres équipements terminaux de communications électroniques connectés à internet comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de treize ans.
« Les modalités d’application et de contrôle des dispositions prévues au premier alinéa sont déterminées par décret en Conseil d’État.
« Le non‑respect des dispositions prévues au premier alinéa est puni de 37 500 euros d’amende. Les personnes physiques ou morales reconnues coupables encourent également la peine complémentaire de confiscation des produits dont l’unité de conditionnement, l’emballage extérieur, le suremballage ou la boîte méconnaît les dispositions prévues au premier alinéa.
« La récidive est punie d’une amende de 200 000 euros. »
Art. APRÈS ART. 3
• 22/01/2026
IRRECEVABLE_40
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vient exclure les élèves majeurs de l'interdiction du portable au lycée.
Dispositif
Après l’alinéa 7, insérer l’alinéa suivant :
« I bis. – Le présent article ne s’applique pas aux élèves majeurs. »
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
La loi votée en 2022 prévoyait un contrôle par défaut de l’accès des enfants à certaines applications, sans que les parents n’aient rien à faire. Mais les outils de contrôle du temps passé devant les écrans n’ont pas été mise en place, par défaut. Les parents doivent trouver l’outil adéquat au milieu d’une offre pléthorique, gratuite ou non et comprendre comment l’installer et l’utiliser. Ils veulent des logiciels faciles d’utilisation pour ne pas être dépossédés de leurs rôles.
Ainsi, cet amendement vise donc à rajouter au contrôle parental un dispositif du contrôle d’écran déjà préinstallé sur les appareils électroniques.
Dispositif
Le premier alinéa de l’article L 34‑9‑3 du code des postes et des communications électroniques est complété par les mots : « ainsi que d’un dispositif pré-intégré de contrôle de temps d’écran. »
Art. APRÈS ART. 6
• 22/01/2026
IRRECEVABLE
Art. APRÈS ART. 2
• 22/01/2026
IRRECEVABLE
Art. APRÈS ART. 6
• 22/01/2026
IRRECEVABLE
Art. APRÈS ART. PREMIER
• 22/01/2026
IRRECEVABLE_40
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la reconnaissance comme une activité d’édition.
En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.
Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.
Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.
Dispositif
La section 3 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9-1 ainsi rédigé :
« Art. 6‑9-1. – Les fournisseurs de services de réseaux sociaux en ligne qui utilisent des systèmes de recommandation à destination d’utilisateurs mineurs, mettent en œuvre des mesures proportionnées visant à prévenir la mise en avant de contenus manifestement illicites ou portant atteinte à la protection des mineurs au sens de l’article 6‑9. Le manquement à ces obligations peut engager la responsabilité du fournisseur au titre de ses choix de mise en avant, indépendamment du régime applicable à l’hébergement des contenus. »
Art. APRÈS ART. 7
• 22/01/2026
IRRECEVABLE
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans.
Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans.
Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.
L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée.
La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.
C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans.
Dispositif
À l’alinéa 5, substituer aux mots :
« quinze ans »
les mots :
« treize ans ».
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Demander à l'ARCOM de publier et mettre à jour une liste indicative des services non interdits mais qui pourraient être préjudiciables au mineurs ou à certains d'entre eux est assurément digne de Sysiphe.
A ce stade la proposition de loi se focalise, sans les définir sur les plateformes de partage de vidéos ou sur les réseaux sociaux, mais cela pourrait aussi concerner les sites internet qui ne cessent d'innover, de solliciter des inscriptions et de proposer des contenus personnalisés. En effet, faute de définition robuste, qui existent pourtant au niveau européen, la proposition pourrait conduire à un travail titanesque.
D'après les données de 2024, 48,6 millions de nouveaux sites web ont été créés cette année. Cela représente environ 177 372 sites par jour. Environ 5,34 % de tous les sites web sont considérés comme nouveaux et ont été créés en 2024. Le total des sites internet reste stable depuis quelques années pour atteindre presque deux milliards de sites dans le monde. A l'heure de la traduction automatique par l'intelligence artificielle, on peut estimer que cet alinéa demandera donc à l'ARCOM de surveiller près de 50 millions de nouveaux sites tous les ans.
SI l'on en reste aux seuls services de plateforme de partages de vidéos, le secteur audiovisuel européen comprend 12 955 services de médias audiovisuels et plateformes de partage de vidéos (décembre 2024) disponibles au sein de l’Europe élargie. Environ trois quarts d’entre eux sont des services linéaires (9 536 chaînes de télévision) et un quart des services non linéaires (3 419 services de VOD et plateformes de partage de vidéos). Ce contrôle ne peut être qu'européen, mais ce n'est pas ce qui est proposé ici.
Par ailleurs la dangerosité d'un site peut être lié à son contenu, à son algorithme, mais aussi voire surtout au temps passé dessus. Tous les sites et services sont donc potentiellement préjudiciables.
De surcroit en précisant "à certains d'entre eux", cela peut concerner tous les mineurs victimes d'épilepsie photosensible qui sont fortement impactés par les stimulii visuels sur les écrans. En France , environ 600 000 personnes sont épileptiques, dont la moitié a moins de 20 ans. Toutes ne sont pas photosensibles, mais chaque service numérique est donc potentiellement préjudiciable.
Il revient donc de supprimer ou de réécrire cet alinéa.
Dispositif
Supprimer l’alinéa 9.
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Si le texte définit les principes d’interdiction et de conditionnement de l’accès, il ne précise pas les modalités selon lesquelles l’âge du mineur et l’existence de l’accord parental doivent être vérifiés. En l’absence de telles garanties, la mise en œuvre du dispositif pourrait reposer sur des mécanismes purement déclaratifs, aisément contournables ou conduire à des pratiques excessives de collecte et de conservation de données à caractère personnel. Le présent amendement vise à combler cette lacune en encadrant strictement les modalités de vérification, sans remettre en cause l’économie générale du texte. Il précise que la vérification de l’âge du mineur et, le cas échéant, de l’accord parental ne peut reposer exclusivement sur une simple déclaration de l’utilisateur afin de garantir l’effectivité du dispositif. Il rappelle également que les solutions techniques mises en œuvre doivent être strictement limitées à la seule finalité de cette vérification et ne peuvent donner lieu à la conservation, à la réutilisation ou au recoupement de données permettant l’identification du mineur ou de ses représentants légaux.
Dispositif
Après l’alinéa 8, insérer les deux alinéas suivants :
« 3° La vérification de l’âge des utilisateurs ne peut reposer exclusivement sur une déclaration de l’utilisateur.
« Les solutions techniques mises en œuvre à cette fin garantissent que la vérification est strictement limitée à la seule finalité du contrôle de l’âge et ne peut donner lieu à la conservation, au traitement ultérieur ou à la réutilisation de données permettant l’identification directe ou indirecte des utilisateurs, ni à leur recoupement avec d’autres traitements de données à caractère personnel. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Cette proposition de loi pose une interdiction fondamentale d’accès aux réseaux sociaux pour les mineurs de moins de 15 ans. Associée à un programme de sensibilisation tout au long de la scolarité, elle permettra aux jeunes d’accéder aux réseaux sociaux à partir de 15 ans avec une compréhension approfondie des enjeux et des risques liés à leur utilisation. Il convient toutefois de souligner qu’à 15 ans un adolescent n’est pas encore pleinement autonome ni indépendant. Jusqu’à sa majorité il reste en effet sous la responsabilité de ses parents, qui doivent pouvoir exercer un droit de regard sur les activités de leur enfant, dans le respect de la vie privée mentionnée à l’article 9 du code civil.
Il est à ce titre essentiel de conserver une analogie avec la vie courante. En effet, si l’article 1148 du code civil autorise les mineurs à accomplir seuls des « actes courants autorisés par la loi ou l’usage », comme certains achats, de nombreuses activités nécessitent l’autorisation du représentant légal. Ainsi en va-t-il tout simplement des activités extrascolaires.
Compte tenu des effets dévastateurs et délétères des réseaux sociaux sur nos enfants, qui ne sont plus à démontrer, il ne parait pas concevable aujourd’hui que l’on puisse les laisser y accéder sans contrôle ou autorisation parentale. Faute de jurisprudence étoffée qui préciserait spécifiquement si la création d'un compte sur un réseau social relève ou non d'un acte courant, il revient au législateur de prendre ses responsabilités et de le faire. Il parait nécessaire que nous changions de paradigme et de ce fait, que nous inscription dans la loi, comme le propose cet amendement, que la création d'un compte sur un réseau social n'entre pas dans cette catégorie d'acte courant.
Dispositif
Après l’alinéa 9, il est inséré l’alinéa suivant :
« I bis. – Pour les mineurs de plus de quinze ans, l’inscription aux services de fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France n’est pas un acte courant et nécessite l’autorisation du représentant légal. »
Art. APRÈS ART. 3
• 22/01/2026
IRRECEVABLE
Art. APRÈS ART. 7
• 22/01/2026
DISCUTE
Exposé des motifs
Les fournisseurs de services de réseaux sociaux polluant l'espace public numérique doivent participer à son assainissement et ainsi à la lutte contre les violences des contenus numériques et leurs effets délétères sur la santé mentale.
Le rapport de mission gouvernementale "Comprendre et combattre le harcèlement scolaire" de 2020 a permis de faire apparaitre pour la première fois l'idée d'une contribution financière des entreprises du numérique qui permettrait de financer la lutte contre les violences en ligne.
Pour l'auteur du rapport, le constat est simple : "une entreprise numérique qui gère insuffisamment son contenu développe, malgré elle, un terrain propice à la prolifération des contenus haineux et du cyber-harcèlement".
Le rapport d’enquête sur les effets psychologiques de Tik Tok sur les mineurs de 2025 atteste de contenus violents, portant atteinte à la santé mentale des utilisateurs et d’algorithmes alimentant la dépendance. La violence en ligne prend ainsi différentes formes et se diffuse largement. Les entreprises du numérique participant à la diffusion et à l’exposition de ces contenus, dont certains sont monétisés, doivent contribuer à lutter contre les effets néfastes des contenus et sensibiliser les utilisateurs aux dangers auxquels ils s'exposent.
Cette contribution pourrait se faire par l'application du principe de "pollueur-payeur" aux entreprises numériques générant du contenu sur le modèle de celui appliqué aux entreprises causant trop d'atteintes à l'environnement. En effet, selon l'article L110-1 du Code de l'environnement "les frais résultants des mesures de prévention, de réduction de la pollution, et de lutte contre celle-ci doivent être supportés par le pollueur". Cette contribution pourrait aussi se faire par un fléchage de la "taxe GAFA" adoptée en France depuis le 1er janvier 2019.
Cet amendement vise donc à demander au Gouvernement de rendre un rapport sur la création même d'un tel fonds ainsi que sur son financement et sa redistribution.
Dispositif
Dans un délai d’un an à compter de l’entrée en vigueur de la présente loi, le Gouvernement remet au Parlement un rapport sur l’opportunité de créer un fonds, alimenté par les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France, dédié à la lutte contre la violence et les effets psychologiques des contenus numériques, sur son mode de financement et sur son mode de redistribution.
Art. APRÈS ART. 3
• 22/01/2026
RETIRE
Exposé des motifs
La banalisation culturelle de l’usage du smartphone et des réseaux sociaux chez les très jeunes contribue à normaliser des pratiques dont les effets délétères sont désormais établis. Sans porter atteinte à la liberté de création, cet amendement vise à responsabiliser les producteurs et à informer le public, dans une logique comparable à celle existant pour l’alcool, le tabac ou la violence.
Dispositif
Le chapitre III du titre III du livre Ier de la deuxième partie du code la santé publique est complété par un article L. 2133‑3 ainsi rédigé :
« Art. L. 2133‑3. – Toute œuvre audiovisuelle, cinématographique ou télévisuelle représentant un mineur de moins de quinze ans utilisant un téléphone mobile ou un service de réseau social en ligne fait l’objet d’un avertissement spécifique à destination du public.
« Cette représentation est prise en compte dans les procédures de classification et de signalétique prévues par le code du cinéma et de l’image animée. »
Art. ART. 4 BIS
• 22/01/2026
DISCUTE
Exposé des motifs
Introduit en commission, l'article 4 bis vise à insérer de nouvelles obligations de prévention aux représentants légaux, aux fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France et aux fournisseurs de téléphone mobiles et autres équipements terminaux de communications électroniques connectés à internet. Le fait d'imposer de nouvelles obligations à ces acteurs pourrait être de nature à contrevenir au Digital service act et au droit de l'UE.
En sus, attribuer des missions de prévention et de sensibilisation aux fournisseurs sur leur propres services peut susciter des réserves. Confier ces missions à des institutions publiques et/ou indépendantes pourrait sembler plus adapté.
C'est pourquoi le present amendement prévoit la suppression du nouvel article 4 bis.
Dispositif
Supprimer cet article.
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement propose de réécrire l’article premier.
Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.
Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.
Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen.
Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.
Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.
Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.
Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.
Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L'utilisation de méthodes efficaces d'assurance de l'âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires. Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».
Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA.
Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.
Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.
Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.
La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.
Dispositif
Substituer aux alinéas 5 à 10 les quatre alinéas suivants :
« Art. 6‑9. – I. – L’accès à un service de réseau social en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans.
« II. – Le présent article ne s’applique ni aux encyclopédies en ligne, ni aux répertoires éducatifs ou scientifiques ni aux plateformes de développement et de partage de logiciels libres.
« III. – L’Autorité de régulation de la communication audiovisuelle et numérique veille, dans les conditions prévues au chapitre IV du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) et aux articles 9‑1 et 9‑2 de la présente loi, au respect du présent article.
« Elle signale tout soupçon de manquement à l’interdiction prévue au présent article commis par des plateformes en ligne fournissant un service de réseau social en ligne établies dans d’autres États membres de l’Union européenne aux autorités compétentes pour faire respecter le Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 précité. »
II. – En conséquence, compléter l’alinéa 12 par les mots :
« , y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française. Pour les comptes d’accès aux services de réseaux sociaux créés avant cette date, il s’applique dans un délai de quatre mois à compter de cette date ».
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement de repli vise à décaler l’entrée en vigueur de l’interdiction des téléphones portables au lycée à la rentrée 2027-2028, le temps de laisser aux établissements la possibilité de modifier leur règlement intérieur et de s’adapter à cette nouvelle contrainte.
Dispositif
À la fin de l'alinéa 8, substituer aux mots :
« 2026‑2027 »
les mots :
« 2027‑2028 ».
Art. APRÈS ART. 7
• 22/01/2026
IRRECEVABLE
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la reconnaissance comme une activité d’édition.
En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.
Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.
Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.
Dispositif
Après l’alinéa 10, insérer l’alinéa suivant :
« Art. 6‑10. – Les fournisseurs de services de réseaux sociaux en ligne qui utilisent des systèmes de recommandation à destination d’utilisateurs mineurs, mettent en œuvre des mesures proportionnées visant à prévenir la mise en avant de contenus manifestement illicites ou portant atteinte à la protection des mineurs au sens de l’article 6‑9. Le manquement à ces obligations peut engager la responsabilité du fournisseur au titre de ses choix de mise en avant, indépendamment du régime applicable à l’hébergement des contenus. »
Art. APRÈS ART. 3
• 22/01/2026
DISCUTE
Exposé des motifs
Les réseaux sociaux font l’objet de stratégies marketing agressives à destination des plus jeunes, notamment via les influenceurs. Or ces services présentent des risques avérés pour la santé mentale des mineurs. Il est incohérent de reconnaître ces dangers tout en autorisant leur promotion auprès des enfants. Cet amendement vise à mettre fin à cette contradiction.
Dispositif
Le chapitre III du titre III du livre Ier de la deuxième partie du code la santé publique est complété par un article L. 2133‑3 ainsi rédigé :
« Art. L. 2133‑3. – La publicité, directe ou indirecte, en faveur des services de réseaux sociaux en ligne est interdite lorsqu’elle est destinée spécifiquement aux mineurs, y compris lorsqu’elle est réalisée par des influenceurs ou dans le cadre de partenariats commerciaux. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le texte adopté en commission fait peser l’interdiction d’accès sur le mineur de quinze ans. Ce choix permet de respecter le cadre du règlement (UE) 2022/2065 sur les services numériques (DSA), règlement d’harmonisation maximale, en évitant de créer des exigences nationales supplémentaires imposées directement aux plateformes.
Cette interdiction n’est pas dépourvue d’effets à l’égard des plateformes : au sens du DSA, la notion de « contenu illicite » est définie de manière large comme toute information non conforme au droit de l’Union ou au droit d’un État membre conforme au droit de l’Union, y compris lorsqu’elle est liée à une activité illégale, notamment la fourniture d’un service. Dès lors que la loi nationale interdit l’accès d’un mineur de quinze ans à certains services, l’accès correspondant, ainsi que les informations permettant cet accès (création, maintien et utilisation d’un compte, identifiants, profil, paramètres et autres éléments de compte), sont susceptibles d’être regardés comme relevant d’une situation d’illicéité au sens du DSA. Cette qualification permet d’activer les mécanismes européens applicables aux contenus illicites, notamment les injonctions d’agir, les obligations de traitement et de suivi des signalements et, pour les très grandes plateformes en ligne, les pouvoirs de contrôle et de sanction exercés au niveau de l’Union.
Par ailleurs, la nullité des contrats conclus en violation de l’interdiction, prévue par le texte, prive de base contractuelle les traitements de données à caractère personnel subséquents. En l’absence d’autre fondement valable, la collecte et l’utilisation de données personnelles d’un mineur pour créer et faire fonctionner un compte en méconnaissance de l’interdiction sont susceptibles de devenir illicites au regard du droit de la protection des données, ouvrant ainsi la possibilité d’intervention de l’autorité de contrôle compétente.
Le présent amendement vise donc à rendre pleinement opérationnelle cette articulation : sans imposer d’obligations substantielles nouvelles aux plateformes en dehors du DSA, il organise la mobilisation des outils européens existants, sous la coordination de l’Arcom, afin que l’interdiction posée par le législateur ne demeure pas théorique et puisse produire des effets concrets sur les comptes et les accès irréguliers.
Dispositif
Après l’alinéa 12, insérer les six alinéas suivants :
« III. – Pour l’application du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques, l’accès aux services mentionnés au I en méconnaissance de l’interdiction prévue au même I est susceptible de relever des mécanismes relatifs aux contenus illicites prévus par ce règlement.
« Afin d’assurer l’effectivité de l’interdiction prévue au I, l’Autorité de régulation de la communication audiovisuelle et numérique, en sa qualité de coordinateur pour les services numériques, met en œuvre et coordonne, dans le cadre de ses compétences, les mesures suivantes :
« 1° Elle met à disposition du public un dispositif de signalement permettant de porter à sa connaissance les situations dans lesquelles un mineur de quinze ans accède aux services mentionnés au I en méconnaissance de l’interdiction prévue au même I ;
« 2° Lorsqu’elle estime que les conditions en sont réunies, elle saisit l’autorité judiciaire ou administrative compétente afin que soit prise, en tant que de besoin, une injonction d’agir contre des contenus illicites au sens de l’article 9 du règlement (UE) 2022/2065, visant à faire cesser l’accès du mineur au service ;
« 3° Lorsque les faits concernent une très grande plateforme en ligne ou un très grand moteur de recherche en ligne au sens du règlement (UE) 2022/2065, elle coopère avec la Commission européenne et lui transmet, le cas échéant, tout élément utile à l’exercice des compétences que ce règlement lui confie.
« Les mesures prises au titre du présent III s’exercent sans préjudice des obligations et des sanctions prévues par le règlement (UE) 2022/2065. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le mécanisme d’accord préalable exprès transforme l’interdiction posée par le texte en un régime d’autorisation conditionnelle, complexe à mettre en œuvre et aisément contournable, au risque d’affaiblir l’effectivité de la protection recherchée. Sa suppression rétablit la clarté de la norme et garantit une application uniforme du dispositif.
Dispositif
Supprimer l'alinéa 8.
Art. APRÈS ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
L’exposition précoce et intensive des enfants et adolescents aux écrans constitue un enjeu de santé publique. Les travaux scientifiques et les alertes des professionnels de l’enfance mettent en évidence ses effets négatifs sur le développement cognitif, l’attention, le langage, la concentration, ainsi que sur la santé mentale et physique.
Les chiffres disponibles confirment l’ampleur du phénomène. Selon l’enquête Ipsos 2024 pour le Centre national du livre, les jeunes de 7 à 19 ans consacrent dix fois plus de temps aux écrans qu’à la lecture. Dès l’âge de 2 ans, un enfant passe en moyenne 56 minutes par jour devant un écran (Santé publique France, septembre 2025). À l’adolescence, l’exposition dépasse 15 heures par semaine en ligne, avec près de deux heures par jour sur le seul réseau social TikTok (commission d’enquête sénatoriale, 2023).
La « pause numérique » instaurée dans le temps scolaire a permis de recréer des espaces de concentration et d’apaisement. Toutefois, son efficacité reste limitée par la poursuite massive des usages numériques sur les temps périscolaires et extrascolaires, ce qui affaiblit la cohérence des politiques publiques de prévention.
Le présent amendement est directement issu de la proposition de loi déposée au Sénat par Mme Agnès Evren et plusieurs de ses collègues. Il prévoit la possibilité d’interdire l’utilisation, par un mineur, d’un téléphone mobile ou de tout autre équipement terminal de communication électronique durant les temps d’activités périscolaires, ainsi que, plus largement, au sein des accueils collectifs de mineurs.
Dispositif
I. – Avant le dernier alinéa de l’article L. 227‑4 du code de l’action sociale et des familles, il est inséré un alinéa ainsi rédigé :
« Le projet éducatif peut interdire l’utilisation par un mineur d’un téléphone mobile ou de tout autre équipement terminal de communication électronique, pendant tout ou partie du temps d’accueil. La méconnaissance de cette interdiction peut entraîner la confiscation de l’appareil par les personnes chargées de la direction de l’accueil collectif de mineurs, de l’animation ou de la surveillance des enfants. Le projet éducatif fixe les modalités de la confiscation et de restitution de cet appareil. »
II. – L’article L. 551‑1 du code de l’éducation est complété par un alinéa ainsi rédigé :
« Le projet éducatif territorial peut interdire l’utilisation par un mineur d’un téléphone mobile ou de tout autre équipement terminal de communication électronique, pendant tout ou partie du temps d’accueil. La méconnaissance de cette interdiction peut entraîner la confiscation de l’appareil par les personnes chargées de l’organisation des activités périscolaires, de l’animation ou de la surveillance des enfants. Le projet éducatif territorial fixe les modalités de la confiscation et de restitution de cet appareil. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement vise à assurer l’effectivité juridique et opérationnelle de l’interdiction d’accès des mineurs de moins de quinze ans aux services de réseaux sociaux en ligne, telle que prévue par l’article 1er de la présente proposition de loi.
Protéger les mineurs de quinze ans face aux dérives des réseaux sociaux ne peut se réduire à un affichage de principes. Lorsque la loi interdit l’accès des enfants de moins de quinze ans à ces plateformes, cette interdiction doit être réelle, contrôlable et sanctionnable. À défaut, elle resterait lettre morte.
Or la proposition, dans sa forme actuelle se borne à affirmer la nullité des « contrats » passés avec des mineurs de quinze ans . Cette nullité, à elle seule, serait sans porté pratique puisque 1) lesdits mineurs ne peuvent pas, en principe, s’engager par contrat, que 2) on peine à discerner à quels types de restitutions ou de réparation donnerait lieu le prononcé de cette nullité et que 3) la nullité ne vaut que pour le passé et n'entrainerait probablement pas par elle-même fermeture du compte, en tout cas n'empêcherait pas la création d'un nouveau.
Ainsi, dès lors qu’une plateforme a connaissance qu’un enfant de moins de quinze ans utilise ses services, elle soit tenue de mettre fin immédiatement à l’exploitation des données, d’en effacer les traces et d’en informer les parents. Ce minimum de responsabilité est indispensable pour mettre fin aux pratiques de contournement et aux défaillances volontaires ou tolérées.
Surtout, il faut donner aux familles un véritable pouvoir d’action. En permettant aux titulaires de l’autorité parentale de saisir directement la Commission nationale de l’informatique et des libertés, il garantit que les manquements ne resteront pas invisibles et que les plateformes ne pourront plus se retrancher derrière l’opacité de leurs systèmes.
En donnant à la CNIL et aux parents les moyens d’agir, le présent amendement transforme une interdiction formelle en une protection effective, au service des familles et de la santé des enfants.
Dispositif
Après l’alinéa 10, insérer les trois alinéas suivants :
« Le traitement des données à caractère personnel fondé sur de tels contrat est dépourvu de base légale au sens de l’article 6 du règlement (UE) 2016/679 du 27 avril 2016.
« Lorsqu’un fournisseur de service de réseau social en ligne a connaissance, ou ne peut raisonnablement ignorer, qu’un compte est utilisé par un mineur de quinze ans en violation du I, il est tenu de cesser le traitement des données à caractère personnel, d’effacer lesdites données sous réserve des obligations légales de conservation et des nécessités liées à l’exercice ou à la défense de droits en justice et d’en informer les titulaires de l’autorité parentale.
« Les titulaires de l’autorité parentale saisissent la Commission nationale de l’informatique et des libertés lorsqu’ils estiment qu’un service de réseau social en ligne a permis ou maintenu l’accès de leur enfant mineur de quinze ans en violation du I. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Amendement rédactionnel, afin de bien préciser que seuls les mineurs de moins de 15 ans sont concernés, et non l'ensemble des mineurs.
Dispositif
À la première phrase de l’alinéa 8, après le mot :
« mineur »,
insérer les mots :
« de quinze ans ».
Art. ART. 4 BIS
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement des députés socialistes et apparentés vise à recentrer l’obligation d’information vers les entreprises du numérique, premières responsables des dangers liés à l’exposition aux écrans et aux contenus sur les réseaux sociaux.
Les administrateurs légaux des enfants sont déjà tenus de droits et devoirs ayant pour finalité l’intérêt de l’enfant (article 371-1 du Code civil). Cette obligation supplémentaire est redondante et instaure le sentiment que la responsabilité est partagée, alors même que ce sont les plateformes qui ont fait du business du sordide leur modèle économique.
Dispositif
Au début de la première phrase, supprimer les mots :
« Les représentants légaux, ».
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la qualifiant d’activité d’édition.
En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.
Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.
Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.
Dispositif
Après l’alinéa 10, insérer les trois alinéas suivants :
« Art. 6‑10. – I. – Lorsqu’ils suggèrent ou hiérarchisent, au moyen d’un système de recommandation, des informations fournies par des destinataires du service, les fournisseurs de services de réseaux sociaux en ligne sont réputés exercer, pour ces informations, une activité d’édition lorsque la mise en avant est destinée à un compte identifié comme appartenant à une personne mineure, au moyen d’un classement fondé sur le profilage du destinataire du service.
« II. – Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur, sans préjudice de la responsabilité de l’auteur de l’information et du destinataire du service l’ayant fournie.
« III. – Sont considérées comme « mises en avant », au sens du présent article, les informations présentées au public autrement que dans un affichage strictement chronologique reposant uniquement sur les abonnements de l’utilisateur, notamment au moyen d’un fil personnalisé, de rubriques de tendances, de suggestion de comptes ou de contenus, de lecture automatique, de notifications, ou de toute fonctionnalité équivalente. »
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
L’article 6 de la proposition de loi étend l’interdiction de l’utilisation des téléphones mobiles et autres équipements terminaux de communications électroniques aux lycées, en modifiant l’article L. 511-5 du code de l’éducation.
Toutefois, le maintien de la faculté, pour le règlement intérieur, d’autoriser l’usage de ces équipements dans certains lieux de l’établissement est de nature à affaiblir la portée normative de l’interdiction posée par le législateur. En pratique, cette faculté conduit à des applications très hétérogènes selon les établissements, certains règlements intérieurs autorisant largement l’usage des téléphones en dehors des salles de classe, ce qui revient à neutraliser l’objectif poursuivi par la loi.
Une telle situation porte atteinte au principe d’égalité devant la loi et nuit à la lisibilité ainsi qu’à l’effectivité de la règle législative.
Le présent amendement vise donc à supprimer toute possibilité de dérogation au principe général d’interdiction par le règlement intérieur, afin de garantir une application uniforme de la loi sur l’ensemble du territoire.
Cette suppression ne remet pas en cause les exceptions prévues par la loi, notamment pour les élèves en situation de handicap ou présentant un trouble de santé invalidant.
Dispositif
Après l’alinéa 3, insérer l’alinéa suivant :
« a bis) À la fin, les mots : « et des lieux dans lesquels le règlement intérieur l’autorise expressément »sont supprimés. »
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement de repli vise à respecter l’avis du Conseil d’État qui demande de compléter la proposition de loi afin de "mentionner expressément" que l’interdiction d’usage ne s’applique pas pour les élèves qui suivent, dans les lycées, une formation d’enseignement supérieur.
Or, la rédaction proposée par la rapporteure mentionne uniquement une possibilité de déroger à cette interdiction pour les étudiants, par la voie du règlement intérieur. Nous pensons que cette exemption doit être de principe pour tous les étudiants.
À minima, nous demandons donc à ce que les règlements intérieurs des établissements visés le prévoient de manière systématique.
Dispositif
À l’alinéa 4, substituer aux mots :
« peut déroger »
le mot :
« déroge ».
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Comme l'explique le rapport de la Commission d'enquête sur Tiktok, ce réseau social a en effet imposé un nouveau format pour les réseaux sociaux, à savoir le défilement infini de vidéos courtes, ce qui a eu pour effet de favoriser la diffusion de contenus extrêmes, ainsi que le décrit M. Petit : « Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement. TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre ».
Tant le défilement sans fin et sans temps mort entre les contenus que le format court et facile à consommer (parfois dénommé « snack content ») sont de nature à désorienter les utilisateurs, notamment en leur faisant perdre la notion du temps.
Depuis plusieurs années l’ensemble des plateformes numériques, créateurs de contenus et publicitaires adoptent les codes des formats courts, touchant l’ensemble des tranches d’âge. En 2025, plus de 65% des 35-54 ans consomment des vidéos courtes chaque semaine, selon Statista. Le défilement infini impacte d’autant plus les mineurs qui se retrouvent piégés dans ce défilement infini. L’immaturité neurodéveloppementale qui caractérise les enfants et les adolescents se traduit par une incapacité cognitive structurelle à se limiter et à s’autoréguler face aux usages numériques.
Le développement des techniques de captation de l’attention développées par les plateformes numériques depuis le milieu des années 2010, est largement fondé sur l’analyse comportementale, la captation de l’attention et l’optimisation du temps d’engagement. Ces dispositifs sont explicitement conçus pour maintenir les utilisateurs dans des logiques de dépendance et de captation prolongée, y compris les plus jeunes.
Il convient donc d'interdire le défilement infini de vidéos pour protéger les mineurs de moins de quinze ans, particulièrement vulnérables.
Dispositif
À l’alinéa 6, après le mot :
« diffusés »,
insérer les mots :
« , du défilement infini de vidéos ».
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement du groupe Écologiste et Social vise à inscrire dans la loi l'obligation faite aux plateformes de réseaux sociaux de mettre à disposition des utilisateurs paramètre de limitation du temps passé sur les réseaux sociaux. L'amendement précise que ce paramètre doit être activé par défaut lors de la création du compte et lors de la mise en place d'un contrôle parental à destination des usagers mineurs.
Dispositif
La section 2 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique est complété par un article 6‑2-2 ainsi rédigé :
« Art. 6‑2-2. – Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France mettent à disposition des usagers de leurs services un paramètre de limitation du temps passé sur le réseau social en ligne. Il est activé par défaut à la création d’un nouveau compte utilisateur et lors de la mise en place d’un contrôle parental à destination des usagers mineurs. »
Art. APRÈS ART. 7
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement du Groupe Écologiste et Social vise à réintégrer l’article 5, initialement prévu par la proposition de loi présentée en commission.
L’article 5 propose qu’un rapport soit remis au Parlement 3 ans après la promulgation de cette loi afin d’évaluer le niveau de respect des plateformes du droit européen et le niveau de dangerosité potentielle qu’ils représenteront à cette date pour les mineurs, afin d’avoir une base solide et récente afin d’évaluer la possibilité de faire évoluer la limite légale d’âge d’accès aux réseaux sociaux.
Il s’agit par cet article de mettre en œuvre la recommandation n° 31 du rapport de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs.
Dispositif
Dans un délai de trois ans à compter de la promulgation de la présente loi, le Gouvernement remet au Parlement un rapport évaluant, sur les trois années précédant cette remise, le respect par les services de réseaux sociaux en ligne de leurs obligations résultant du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE, et la persistance éventuelle de risques pour les mineurs dans l’utilisation de ces services.
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
La protection des mineurs en ligne constitue une exigence de protection de l’enfance et de santé publique. Les risques liés aux usages numériques des enfants et des adolescents sont aujourd’hui largement documentés.
Les grandes plateformes numériques tirent un profit économique considérable des usagers en ligne, basant leurs revenus majoritairement sur la publicité, comme l’atteste le rapport de la commission d’enquête sur tik tok. Ce modèle économique reposant sur le captage de l’attention pour passer le plus de publicité possible et pour pousser à l’achat met en avant des contenus virulents, clivants et néfastes pour garantir l’implication des utilisateurs. Les réseaux sociaux ont donc intérêt à entretenir une forme de dépendance chez les utilisateurs.
Cet amendement vise donc à protéger les mineurs de cette logique de profit en interdisant la publicité pour les moins de quinze ans.
Dispositif
Il est interdit au mineur de quinze ans d’avoir accès à des contenus publicitaires sur les services de réseaux sociaux en ligne comme définit à l’alinéa 5 de l’article 6 de la section I du chapitre II de la loi n°2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique. »
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vise à permettre aux chefs d’établissements d’adapter l’interdiction des téléphones portable à la réalité des pratiques et des usages, à travers le règlement intérieur.
Selon le cadre juridique posé à l’article L. 511-5 du code de l’éducation, l’interdiction de l’utilisation des téléphones est légale et peut également être appliquée aux lycées, à condition que les modalités pratiques soient précisées dans le règlement intérieur de l’établissement. Cette disposition reconnaît la réalité de situations qui varient en fonction du contexte local et des établissements. C’est pourquoi chaque établissement doit pouvoir adapter l’organisation matérielle de cette interdiction en fonction des contraintes géographiques, logistiques et des besoins propres de sa communauté éducative.
À Vanves, le lycée Michelet a d’ores et déjà mis en place l’interdiction du téléphone portable dans les salles de classe, les couloirs et à la cantine, l’autorisant uniquement dans les espaces extérieurs. Le cas de ce lycée permet d'illustrer que des modalités différenciées et fondées sur un projet éducatif propre à l’établissement peuvent être mises en œuvre et produire un effet positif perceptible dans la vie scolaire.
En conséquence, le présent amendement vise à clarifier que, pour les lycées, le chef d’établissement doit disposer de la compétence exclusive pour définir, en concertation avec la communauté éducative, les modalités de mise en œuvre de l’interdiction du téléphone portable, afin que la règle générale s’adapte à la réalité du terrain et qu’elle soit appliquée efficacement, sans rigidité inutile, tout en garantissant le respect de l’objectif d’amélioration des apprentissages et du climat scolaire.
Dispositif
Après l’alinéa 4, insérer l’alinéa suivant :
« Les chefs d’établissements des lycées, à travers le règlement intérieur adaptent les modalités de l’interdiction du téléphone portable à la réalité des pratiques et des usages. »
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement vise à assouplir l’interdiction générale de l’utilisation des téléphones portables dans les lycées que cette proposition de loi introduit. Son objet est de permettre d'autoriser son usage dans les espaces de récréation et de restauration, afin d’introduire des temps de « respiration » essentiels et en accord avec l’exigence de concentration qui s’impose pendant les temps pédagogiques.
Une interdiction absolue, sans distinction de lieux ou de moments, peut s’avérer contre-productive pour l'apprentissage de la responsabilité numérique.
Deux objectifs essentiels sont ici poursuivis :
- Le passage d’une logique de prohibition à une logique d’éducation : La déconnexion totale imposée par la loi ne permet pas d'accompagner l'élève dans l'acquisition de bons réflexes (respect du droit à l'image, limitation du temps d'écran, civilité numérique). Autoriser l'usage dans la cour de récréation offre un cadre concret pour une éducation aux médias en situation réelle, sous le regard de la vie scolaire.
- La cohérence avec les besoins de la vie quotidienne : Pour de nombreuses familles, le téléphone est un outil de coordination essentiel, notamment lors des temps de pause ou en fin de journée. Permettre son usage hors des espaces d'enseignement répond à une demande sociale légitime sans pour autant perturber la concentration nécessaire aux apprentissages.
En limitant l’interdiction aux espaces strictement dédiés à l’enseignement, cet amendement assure un juste équilibre entre l'exigence de concentration pédagogique et l'apprentissage de la citoyenneté numérique.
Dispositif
Compléter l’alinéa 4 par la phrase suivante :
« Dans les lycées, à défaut de dispositions spécifiques dans le règlement intérieur, l’utilisation d’un téléphone mobile est autorisée dans les espaces de restauration et sur les temps de récréation. »
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Depuis la loi du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite Loi Studer, les fabricants d'appareils connectés (smartphones, tablettes...) sont obligés d'installer un dispositif de contrôle parental et de proposer son activation gratuite lors de la première mise en service de l'appareil..
Les décrets sont tous parus et cette loi n'est active depuis un peu plus d'un an. A ce stade, les fabricants d'appareils réunis notamment par l'AFNUM (Alliance française des industries du numérique) ont rempli leurs obligations mais n'ont pas encore le recul pour donner des statistiques de réelle mise en place de ce contrôle parental. Soulignons aussi leur travail avec Internetsanscrainte.fr, e-enfance, Tralalère et autres réseaux associatifs qui font de l'éducation et de la sensibilisation au numérique.
Il est proposé par cet amendement d'étendre ce devoir d'information aux fournisseurs d'accès qui eux sont par nature français.
Des dispositifs techniques de contrôle d'accès à partir de la connexion internet (sim mineurs et box internet) peuvent être mis en place et seraient compatibles avec la règlementation européenne et ses lignes directrices.
Cela nécessite un temps de travail, une concertation et une inscription dans un projet de loi, qui irait bien au-delà de cette proposition de loi. Des députés ont proposé ce type d'amendement, qui ont été rejetés en Commission, devant être retravaillés.
C'est une piste sérieuse et opérante. A ce stade dans la rédaction de l'article 1 réécrit par le Conseil d'Etat, nous pourrions arriver à ce que des plateformes de partage de vidéos et des services de réseaux sociaux arrivent à devenir inaccessibles à tous les utilisateurs d'une même connexion internet partagée, singulièrement dans les wifis publics.
Dispositif
Le n du I de l’article L. 33‑1 du code des postes et des communications électroniques est complété par deux phrases ainsi rédigées :
« Cette information doit systématiquement prévoir la mise en œuvre du contrôle parental sur les communications électroniques pour tous les contrats personnels qui pourraient être mis à disposition par l’utilisateur à un mineur. Cette information doit aussi mentionner les risques liés à l’utilisation prolongée des terminaux et tous les outils de communication électronique. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement des députés socialistes et apparentés vise à décaler l’entrée en vigueur du présent article au 1er septembre 2027.
Compte-tenu des nombreuses prérogatives nouvelles confiées à l’Arcom, du temps nécessaire aux procédures de notification à la Commission européenne (qui impose un délai supplémentaire de 3 à 6 mois) et d’adoption définitive de la présente loi nous suggérons de décaler son entrée en vigueur pour laisser le temps aux administrations concernées de s’y préparer et de prévoir l’ensemble des mécanismes de protection des utilisateurs.
Dispositif
À la fin de l’alinéa 12, substituer à la date :
« 1er septembre 2026 »
la date :
« 1er septembre 2027 ».
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
La rédaction actuelle du 2° peut prêter à confusion en laissant penser que l’accord préalable exprès d’un administrateur légal permettrait l’accès du mineur à l’ensemble des services, y compris ceux figurant sur la liste établie en application du 1°. Or l’intention du dispositif est de distinguer clairement :
– d’une part, les services inscrits sur la liste prévue au 1°, dont l’accès est interdit aux mineurs de quinze ans sans dérogation ;
– d’autre part, les services ne figurant pas sur cette liste, pour lesquels l’accès ne peut être autorisé qu’à la condition que le mineur justifie d’un accord préalable exprès d’un administrateur légal.
Le présent amendement vise donc à lever toute ambiguïté d’interprétation et à sécuriser la portée normative du texte.
Dispositif
Au début de la première phrase de l’alinéa 8, substituer au mot :
« Soit »
les mots :
« Pour les services ne figurant pas sur la liste mentionnée au 1°, soit ».
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Les réseaux sociaux reposent sur des mécanismes de conception dits « addictifs », particulièrement problématiques lorsqu’ils s’adressent à des mineurs. Comme le souligne Bruno Patino, auteur de La civilisation du poisson rouge, le modèle économique de ces plateformes se fonde sur la captation et la rétention maximale de l’attention des utilisateurs.
Le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs insiste sur le fait que ce modèle de « l’économie de l’attention » favorise la diffusion et la mise en avant de contenus radicaux, plus susceptibles de capter l’attention d’utilisateurs déjà sur-sollicités. Les interfaces construites autour de flux continus et de sollicitations répétées contribuent à l’apparition de comportements compulsifs et de risques accrus pour la santé mentale des mineurs.
Le présent amendement vise à protéger les mineurs de ces mécanismes en interdisant, pour les services de réseaux sociaux, les interfaces de conception persuasive qui ont pour objet ou pour effet d’encourager une utilisation intensive ou de générer des schémas comportementaux compulsifs, notamment au moyen de flux infinis de contenus ou de sollicitations automatiques de l’attention.
Il s’inscrit dans la droite ligne des recommandations n° 1 et 2 du rapport de la commission d’enquête sur les effets psychologiques de TikTok, qui préconisent l’interdiction des flux « addictifs » pour les mineurs et du défilement à l’infini de vidéos.
Dispositif
Après l’alinéa 10, insérer les deux alinéas suivants :
« Sont interdites, pour les utilisateurs mineurs de services de réseaux sociaux, les interfaces de conception persuasive visant à encourager une utilisation intensive ou à engendrer des schémas comportementaux compulsifs. Cette interdiction porte notamment sur les fonctionnalités d’affichage continu de contenus et les mécanismes de sollicitation automatique de l’attention.
Un décret en Conseil d’État précise la liste des fonctionnalités et caractéristiques de conception interdites en application. »
Art. TITRE
• 22/01/2026
DISCUTE
Exposé des motifs
Les données de santé publique France, comme celles de l'ANSES, étudient l'exposition au numérique, aux écrans, et ne fournissent aucune données discriminantes sur les seuls réseaux sociaux.
La PPL dans sa version issue de la Commission veut légiférer sur les plateformes de partage de vidéos en ligne, qui ne sont pas des réseaux sociaux, au sens du DSA. De même, elle veut interdire les smartphones dans les lycées qui ne servent pas exclusivement, ni même peut-être principalement à consulter les réseaux sociaux.
L'erreur avait déjà été faite de consacrer une commission d'enquête en ne visant qu'un seul réseau social, il serait dangereux d'inscrire dans la loi et son titre que seuls les réseaux sociaux présentent des risques pour les mineurs.
Il s'agit bien d'une éducation et d'une vigilance sur le numérique et les écrans à mettre en oeuvre.
Dispositif
Rédiger ainsi le titre :
« visant à sensibiliser les mineurs aux risques auxquels les expose l’utilisation immodérée des écrans et des applications numériques ».
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Les mineurs sont aujourd’hui exposés, sur les réseaux sociaux, à une pression commerciale continue : publicité ciblée, placements de produits, contenus de créateurs sponsorisés, recommandations algorithmiques orientant vers des produits ou services parfois inadaptés à leur âge. Cette exposition est d’autant plus problématique que les adolescents disposent d’outils limités pour identifier la nature publicitaire d’un contenu et prendre du recul face aux injonctions de consommation qui leur sont adressées.
Certains produits ou services, régimes extrêmes, compléments alimentaires non encadrés, contenus liés au dopage, jeux d’argent déguisés, paris sportifs, produits de vapotage, etc., peuvent avoir des effets particulièrement délétères sur la santé physique ou mentale des mineurs, en favorisant troubles du comportement, anxiété, addictions ou mise en danger.
Le présent amendement vise à fixer deux exigences simples de protection :
- les fournisseurs de services de réseaux sociaux doivent garantir que les mineurs ne sont pas soumis à une pression commerciale excessive ;
- la promotion de produits ou services susceptibles d’altérer la santé physique ou mentale des mineurs est proscrite sur les interfaces spécifiquement destinées à ce public.
Dispositif
Après l’alinéa 10, insérer les deux alinéas suivants :
« Les fournisseurs de services de réseaux sociaux garantissent que les mineurs ne sont pas exposés à une pression commerciale excessive.
La promotion de produits ou services susceptibles d’altérer la santé physique ou mentale des mineurs est proscrite sur les interfaces de réseaux sociaux spécifiquement destinées aux mineurs. »
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
La dégradation de la santé mentale des enfants et des adolescents constitue un enjeu majeur de santé publique. Une étude publiée le 21 octobre 2025 dans PLOS Medicine, coordonnée par le professeur Nicolas Hoertel, met en évidence une association forte entre l’usage excessif des réseaux sociaux et l’augmentation du risque de dépression chez les jeunes. Selon cette recherche, cet usage serait associé à 590 000 cas supplémentaires de dépression, 799 décès par suicide et près de 4 milliards d’euros de coûts économiques et sociaux pour la génération née entre 1990 et 2012.
Dans le même temps, la prévalence annuelle de la dépression chez les adolescents est passée de 2 % en 2014 à 9 % en 2021, parallèlement à l’augmentation du temps passé sur les réseaux sociaux. Si cette étude ne permet pas d’établir un lien de causalité direct, elle représente néanmoins le plus haut niveau de preuve scientifique disponible et souligne la nécessité de renforcer les politiques de prévention ciblées.
De plus, le rapport fait au nom de la commission d'enquêtes sur les effets psychologiques de tiktok révèle que certaines plateformes sont conscientes des risques délétères de leurs applications sans pour autant en informer le public. Les principaux effets relevés par les scientifiques et notamment Jonathan Haidt, mettent en lumière des conséquences sur la santé mentale des adolescents : comparaison sociale qui peut entraîner une dévalorisation des jeunes, manque de sommeil, entraînant de l’anxiété, de l’irritabilité, des difficultés d’apprentissage, trouble de l'attention, addiction.
Le présent amendement vise donc à imposer aux plateformes une obligation de sensibilisation aux risques pour la santé mentale, notamment lors du signalement de contenus inappropriés ou dangereux, par l’affichage de messages de prévention et de numéros de soutien psychologique. Cette mesure proportionnée et opérationnelle s’inscrit dans une logique de prévention et de protection renforcée des mineurs.
Dispositif
La section 3 du chapitre II du titre Ier de la loi n°2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique est complétée par un article 6‑9-1 ainsi rédigé :
« Art. 6‑9-1. – Les fournisseurs de réseaux sociaux sont légalement tenues de délivrer une information sur l’existence de services d’information et d’assistance sur la santé mentale lorsqu’un contenu est signalé par un mineur où concerne un mineur. »
Art. ART. 4
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement du Groupe Écologiste et Social vise à rétablir les mesures de prévention prévues dans la première mouture de la proposition de loi, supprimées en commission, une interdiction simple ne pouvant être efficace et pertinente sans mesures de prévention.
Le nouvel article 4 reprendrait ainsi la version initiale de l'article, complété d'une sensibilisation et d'une formation au fonctionnement des algorithmes et, plus largement, des services numériques fondés sur des mécanismes de captation de l’attention.
Il s’agit notamment de permettre une sensibilisation au fonctionnement de ces plateformes, reposant sur les algorithmes et les principes de l’économie de l’attention. Une compréhension approfondie de ces mécanismes, ainsi que de leur emprise sur les utilisateurs, est essentielle pour aider les élèves — futurs adultes et professionnels — à mieux appréhender les logiques à l’œuvre dans l’industrie des plateformes numériques, qu’il s’agisse de réseaux sociaux ou d’autres services.
Cette meilleure connaissance des stratégies déployées par les acteurs du numérique doit ainsi contribuer à former de jeunes utilisateurs capables de développer un usage critique, éclairé et responsable des outils numériques.
Dispositif
Rétablir cet article dans la rédaction suivante :
« Le deuxième alinéa de l’article L. 312‑9 du code de l’éducation est ainsi rédigé :
« Cette formation comporte également :
« – une sensibilisation sur l’interdiction du harcèlement commis dans l’espace numérique, la manière de s’en protéger et les sanctions encourues en la matière ;
« – une sensibilisation à l’impact environnemental des outils numériques ainsi qu’un volet relatif à la sobriété numérique ;
« – une sensibilisation aux enjeux de protection de la santé mentale liés à l’usage des outils numériques, et notamment aux conséquences psychologiques d’une utilisation de services de réseaux sociaux en ligne ;
« – une sensibilisation aux fonctionnements des algorithmes, de l’économie de l’attention et des impacts cognitifs de l’usage excessif des écrans. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement du Groupe Écologiste et Social vise à automatiquement inscrire sur la liste des services pour lesquels l'accès des mineurs de moins de 15 ans serait restreint les services de réseaux sociaux en ligne qui proposent des interfaces problématiques pour les mineurs.
C'est le cas en particulier des services:
- qui exposent les mineurs à des contenus inappropriés ;
- dont les suggestions sont basées sur le profilage des mineurs ;
- qui mettent à disposition un service conversationnel personnalisé basé sur une intelligence artificielle ;
- qui ne garantissent pas la transparence du fonctionnement de leurs algorithmes.
Cet amendement facilitera l'inscription de ces réseaux sociaux sur la liste établie par un décret en Conseil d’État pris après avis de l’Autorité de régulation de la communication audiovisuelle et numérique.
Dispositif
Après l’alinéa 7, insérer les quatre alinéas suivants :
« Sont regardés comme figurant sur cette liste les services qui :
« a) mettent à disposition des contenus suggérés à des mineurs de quinze ans, lorsque ces contenus sont basés sur du profilage au sens de l’article 4 du règlement (UE) 2016/679, ;
« b) ne disposent pas de mécanismes mis en place pour garantir un accès, des paramétrages et un affichage de contenus adaptés aux mineurs de quinze ans ;
« c) mettent à disposition un service conversationnel personnalisé basé sur une intelligence artificielle ;
« d) ne garantissent pas la transparence du fonctionnement de leurs algorithmes de contenu. »
Art. APRÈS ART. PREMIER
• 22/01/2026
RETIRE
Exposé des motifs
La protection des mineurs relève de l’ordre public et de l’intérêt supérieur de l’enfant. Elle ne saurait être subordonnée à des interprétations restrictives. Cet amendement affirme clairement la primauté de ces principes.
Dispositif
Les dispositions de la présente loi s’appliquent sans préjudice de l’objectif de protection de l’ordre public et de l’intérêt supérieur de l’enfant, qui constituent des exigences fondamentales de la République.
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Quelle forme prend cet accord ? En quoi est-il opposable ? comment est-il manifesté aux sites et services ? Comment peut on écrire la nature des contenus accessibles et ceux qui ne le seraient pas ?
Qui contrôle la durée maximale d'utilisation et les heures d'utilisation ? Il s'agit probablement d'un auto-contrôle ou d'un contrôle parental informel. En conséquence, doit-on écrire dans la loi un tel accord intra familial ?
Ou est-il envisagé un contrôle par les sites, services ou plateformes des durées d'utilisation des connexions ? d'un appareil ? D'une box partagée ? D'un wifi public ?
Si l'idée de maitriser les temps d'écran est louable, on ne peut rester sur un principe non opérationnel.
Cet alinéa doit être réécrit avec nécessairement un avis de la CNIL.
En complément du renforcement des obligations des réseaux sociaux et de l’obligation légale existante sur les terminaux depuis la loi Studer de 2022 (contrôle parental), les fournisseurs d’accès internet devraient également être intégrés à cette chaîne de responsabilités.
La mise en place d’un contrôle d’accès via la connexion internet constitue un levier complémentaire juridiquement applicable et opérationnel. Ce dispositif pourrait reposer sur un mécanisme de blocage, pour les mineurs, de certains services ou contenus identifiés comme inadaptés par un décret en Conseil d’Etat. Il devrait couvrir l’ensemble des modalités de connexion, tant sur les réseaux mobiles (cartes SIM dédiées aux mineurs) que sur les accès fixes (box internet et réseaux wifi).
L’intégration des opérateurs télécom dans ce dispositif permettrait d’aligner l’ensemble des acteurs de la chaîne numérique autour d’un objectif commun :
les fabricants, responsables de l’intégration d’outils de contrôle parental dans les équipements ;
les opérateurs, responsables de l’accès au réseau et de la mise en oeuvre de mécanismes de filtrage au niveau de la connexion ;
les plateformes, responsables des contenus, des fonctionnalités et des mécanismes de recommandation.
Cette approche présente un double avantage. D’une part, elle renforce l’effectivité de la protection des mineurs en multipliant les niveaux de sécurisation. D’autre part, elle évite de faire peser l’ensemble de la responsabilité sur un seul acteur, en organisant une responsabilité partagée et complémentaire entre tous les acteurs techniques de l’écosystème.
Dispositif
Supprimer l'alinéa 8.
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement propose de réécrire l’article premier.
Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.
Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.
Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen.
Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.
Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.
Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.
Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.
Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L’utilisation de méthodes efficaces d’assurance de l’âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires. Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».
Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA.
Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.
Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.
Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.
La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.
Dispositif
Substituer aux alinéas 5 à 10 les quatre alinéas suivants :
« Art. 6‑9. – I. – L’accès à un service de réseau social en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans.
« II. – Le présent article ne s’applique ni aux encyclopédies en ligne, ni aux répertoires éducatifs ou scientifiques ni aux plateformes de développement et de partage de logiciels libres.
« III. – L’Autorité de régulation de la communication audiovisuelle et numérique veille, dans les conditions prévues au chapitre IV du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) et aux articles 9‑1 et 9‑2 de la présente loi, au respect du présent article.
« Elle signale tout soupçon de manquement à l’interdiction prévue au présent article commis par des plateformes en ligne fournissant un service de réseau social en ligne établies dans d’autres États membres de l’Union européenne aux autorités compétentes pour faire respecter le Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 précité. »
II. – En conséquence, compléter l’alinéa 12 par les mots :
« , y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française. Pour les comptes d’accès aux services de réseaux sociaux créés avant cette date, il s’applique dans un délai de quatre mois à compter de cette date ».
Art. APRÈS ART. 3 BIS
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vise à rendre obligatoire la formation des professionnels de santé aux risques engendrés par la surexposition des mineurs aux écrans. En effet, selon une étude ELFE publiée en avril 2023 menée par Santé Publique France, le temps quotidien d’écran des enfants français est en hausse depuis plusieurs années, atteignant 56 minutes à deux ans et plus de 1h34 à cinq ans et demi. Le chiffre dépasse quatre heures pour les enfants âgés de six à dix-sept ans. L’étude rappelle que la surexposition aux écrans d’un enfant de 0 à 3 ans multiplie par trois le risque de développer des troubles primaires du langage, ainsi que des troubles de la motricité.
Le manque de formation peut entraîner des erreurs de diagnostic, et face à l’augmentation et la complexité des symptômes, il nous semble nécessaire d’apporter une formation aux professionnels travaillant auprès des enfants.
Dispositif
Les professionnels de santé et du secteur médico-social ainsi que les professionnels de la petite enfance bénéficient, au cours de leur formation initiale ou continue, d’une formation obligatoire spécifique sur les risques associés aux différents degrés d’exposition aux écrans numériques pour les enfants et les adolescents. "
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement propose de réécrire l’article premier.
Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.
Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.
Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.
Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen.
Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.
Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.
Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L'utilisation de méthodes efficaces d'assurance de l'âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires. Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».
Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 drèglement DS.
Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.
Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.
Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.
La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.
Dispositif
Substituer aux alinéas 5 à 10 les quatre alinéas suivants :
« Art. 6‑9. – I. – L’accès à un service de réseau social en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans.
« II. – Le présent article ne s’applique ni aux encyclopédies en ligne, ni aux répertoires éducatifs ou scientifiques ni aux plateformes de développement et de partage de logiciels libres.
« III. – L’Autorité de régulation de la communication audiovisuelle et numérique veille, dans les conditions prévues au chapitre IV du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) et aux articles 9‑1 et 9‑2 de la présente loi, au respect du présent article.
« Elle signale tout soupçon de manquement à l’interdiction prévue au présent article commis par des plateformes en ligne fournissant un service de réseau social en ligne établies dans d’autres États membres de l’Union européenne aux autorités compétentes pour faire respecter le Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 précité. »
II. – En conséquence, compléter l’alinéa 12 par les mots :
« , y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française. Pour les comptes d’accès aux services de réseaux sociaux créés avant cette date, il s’applique dans un délai de quatre mois à compter de cette date ».
Art. ART. 6
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement vise à exclure spécifiquement les étudiants du dispositif d’interdiction des portables au lycée.
De nombreux lycées disposent de formations de l’enseignement supérieur et nous estimons que leur interdire le téléphone portable constitue une rupture d’égalité manifeste avec les étudiants des autres établissements d’enseignement supérieur.
Par cet amendement, il s'agit de respecter l’avis du Conseil d’État qui demande de compléter la proposition de loi afin de "mentionner expressément" que l’interdiction d’usage ne s’applique pas pour les élèves qui suivent, dans les lycées, une formation d’enseignement supérieur.
Or, la rédaction proposée par la rapporteure mentionne uniquement une possibilité de déroger à cette interdiction pour les étudiants, par la voie du règlement intérieur. Nous pensons que cette exemption doit être de principe pour tous les étudiants.
Dispositif
À la fin de l’alinéa 4, substituer aux mots :
« Dans les lycées disposant de formations de l’enseignement supérieur, le règlement intérieur peut déroger à cette interdiction pour les étudiants. »
les mots :
« Les dispositions prévues au présent article ne s’appliquent pas aux étudiants de l'enseignement supérieur. »
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Les réseaux sociaux peuvent être dangereux pour les mineurs : harcèlement, contenus choquants, manipulations, problèmes de santé mentale, incitations à se donner la mort et utilisation des données personnelles.
Pour protéger les mineurs, il est important de mettre en place des règles strictes. Cela permettra de garantir leur sécurité en ligne. Les plateformes, les parents, les mineurs et les autorités doivent tous être responsables.
Cet article vise à règlementer l'accès des mineurs aux réseaux sociaux, de les responsabiliser ainsi que leurs responsables légaux, de surveiller leur utilisation et de les sensibiliser aux dangers.
Dispositif
Entre 15 et 18 ans, lorsqu’un mineur s’inscrit sur un réseau social, il doit signer une charte de bonne conduite.
Au moins l’un des deux administrateurs légaux doit être impliqué dès l’inscription. Il est obligatoirement inscrit sur le compte de l’enfant et doit donner ses coordonnées.
Le parent signe également la charte et devient responsable du respect des règles.
En cas de non-respect et selon le degré de gravité, le mineur est exclu des réseaux jusqu’à ses 18 ans.
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le principe d'une liste noire des services et plateforme s'il peut sembler robuste, sera nécessairement attaqué par les responsables de ces services ou plateformes, surtout si, comme dans cette proposition de loi, nous ne reprenons pas les définitions du DSA et notamment la discrimination par la taille des services et plateforme.
Cette non prise en compte des définitions du DSA est évidemment "nécessaire" pour ne pas montrer que cette PPL empiète sur les compétences exclusives de l'Union européenne.
Par cet amendement, il est proposé de mieux définir ce qui justifierait l'inscription sur une liste noire afin de montrer aux opérateurs qu'elle ne relève pas du simple arbitraire.
Cet amendement a été écrit avec le soutien de l'AFNUM et de Samsung.
Dispositif
Après l’alinéa 6, insérer les quatre alinéas suivants :
« Ce décret précise les critères pris en compte pour l’inscription des services sur la liste susvisée, qui doivent notamment avoir pour objet de tenir compte :
– des contenus que les services visés au premier alinéa du I rendent accessibles, des comportements et contacts qu’ils sont susceptibles de provoquer et des pratiques commerciales mises en œuvre par les services ;
– de l’impact que la nature et le paramétrage des systèmes de recommandation, notamment lorsqu’ils sont basés sur du profilage au sens de l’article 4 du règlement (UE) 2016/679, sont susceptibles d’avoir sur les mineurs de seize ans ;
– des mécanismes mis en place pour garantir un accès, des paramétrages et l’affichage de contenus adaptés aux mineurs de seize ans. »
Art. APRÈS ART. 3
• 22/01/2026
DISCUTE
Exposé des motifs
Lors des auditions menées par la rapporteure, les associations nous ont interpellé sur l’existence de dispositifs facilitant l’exposition des jeunes enfants à des écrans via des fixations pour poussettes ou lits pour enfants. Ces dispositifs contribuent à l’accroissement de l’exposition de plus en plus précoce des enfants aux écrans,contrevenant de fait aux recommandations des autorités sanitaires interdisant l’exposition aux écrans pour les enfants de moins de 3ans et de façon limitée pour les moins de 6 ans.
Ces dispositifs sont en libre accès sur les plateformes de vente en ligne.
Les outils qui ont explicitement et systématiquement pour vocation de favoriser le temps d’écran des enfants, souvent les plus jeunes, malgré le consensus scientifique sur leur dangerosité doivent être interdits. C’est l’objet de cet amendement.
Dispositif
Après le livre VI de la troisième partie du code de la santé publique, il est inséré un livre VI bis ainsi rédigé :
« Livre VI bis
« Prévention des risques liés à l’exposition des jeunes enfants aux écrans numériques
« Titre unique
« Chapitre unique
« Art. L. 3632‑1. – À compter du 1er septembre 2026, sont interdites la fabrication, l’importation, l’exportation et la mise sur le marché à titre onéreux ou gratuit d’appareils permettant à titre principal de mettre à disposition des enfants des smartphones, tablettes,ordinateurs, télévisions ou tout autre appareil numérique disposant d’un écran. »
Art. ART. 3 BIS
• 22/01/2026
DISCUTE
Exposé des motifs
L’article 3 bis résulte a été introduit dans la proposition de loi en commission des affaires culturelles et de l’éducation. Il modifie le II de l’article L. 214‑1‑1 du code de l’action sociale et des familles, relatif aux obligations des personnes physiques ou morales qui assurent l’accueil du jeune enfant. Sept obligations sont énumérées, dont « [veiller] à la santé, la sécurité, au bien-être et au développement physique, psychique, affectif, cognitif et social des enfants qui leur sont confiés ».
L’article 3 bis introduit une nouvelle obligation pour ces personnes : « [assurer] la protection du développement des enfants de moins de trois ans en leur évitant toute exposition aux écrans (smartphone, tablette, ordinateur, télévision) ».
En réalité, cet article est déjà largement satisfait par la rédaction en vigueur de l’article L. 214‑1-1 précité, l’exposition aux écrans des enfants de moins de trois ans étant dangereuse pour leur santé, leur bien-être, leur développement physique, cognitif et social. C’est sur le fondement de cet article que le ministère de la santé s’est appuyé pour interdire l’exposition aux écrans dans tous les lieux d’accueil du jeune enfant : crèches, haltes-garderies, lieux d’accueil proposés par les assistants maternels. Cette interdiction a été édictée par un arrêté du 27 juin 2025 modifiant la charte nationale pour l’accueil du jeune enfant.
Si l’intention poursuivie par la commission est parfaitement louable, il apparaît donc qu’elle est satisfaite par l’état du droit, c’est pourquoi le présent amendement propose de supprimer l’article 3 bis.
Dispositif
Supprimer cet article.
Art. ART. 4 BIS
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement du groupe Écologiste et Social vise à assortir l'obligation faite aux fabricants de téléphone et aux plateformes de réseaux sociaux en ligne d'agir en faveur de la prévention et de la sensibilisation aux risques numériques d'une sanction en cas de manquement à cette obligation pouvant aller jusqu'à la fermeture temporaire du site internet du fournisseur de services de réseaux sociaux en ligne et une sanction financière de 1 % du chiffre d'affaires réalisé en France.
Dispositif
Compléter cet article par les quatre alinéas suivants :
« II. – En cas de manquement à l’obligation prévue au I du présent article, l’autorité administrative compétente peut, après avoir mis en demeure dans un délai qu’elle fixe et qui ne peut être inférieur à huit jours l’auteur du manquement de se conformer à ses prescriptions et de présenter ses observations :
« 1° Prononcer la fermeture temporaire du site internet du fournisseur de services de réseaux sociaux en ligne exerçant leur activité en France.
« 2° Prononcer une sanction financière à l’encontre de l’auteur du manquement et, le cas échéant, assortir cette amende d’une astreinte journalière qui ne peut être supérieure à 10 000 € par jour lorsque l’auteur de l’infraction ne s’est pas conformé à ses prescriptions à l’issue d’un délai fixé par une mise en demeure.
« III. – Le montant de la sanction financière ne peut être supérieur à 1 % du chiffre d’affaires réalisé en France par l’auteur du manquement lors du dernier exercice clos, dans la limite de dix millions d’euros. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
L’encadrement de l’usage des réseaux sociaux par les mineurs repose aujourd’hui largement sur les parents, sans que ceux-ci disposent toujours des outils adaptés pour accompagner concrètement leurs enfants. Dans de nombreux cas, les dispositifs de contrôle existants sont peu lisibles, difficiles d’accès ou conditionnés à la création d’un compte personnel par le parent sur le service concerné, ce qui constitue un frein majeur.
Le présent amendement vise à renforcer la capacité effective des représentants légaux à jouer pleinement leur rôle éducatif dans l’environnement numérique, sans porter atteinte à l’autonomie progressive du mineur.
Dispositif
Après l’alinéa 10, insérer les trois alinéas suivants :
« Les services de réseaux sociaux mettent à disposition des représentants légaux des outils de supervision simples et ergonomiques, activables sans obligation pour ces derniers de disposer d’un compte personnel sur ledit service.
« Ces outils permettent l’accompagnement du mineur dans son usage du service, dans le respect de son autonomie progressive.
« Les fonctionnalités minimales de ces outils, ainsi que les conditions garantissant leur simplicité d’accès, sont déterminées par décret en Conseil d’État. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Comme le rappelle l'article 1146 du code civil : « Sont incapables de contracter [...] les mineurs non émancipés », un mineur ne peut donc pas conclure un contrat.
Il est "dangereux" d'inscrire dans cette proposition que les contrats conclus avant la date d'entrée en vigueur de cette loi ne seraient plus valables à l'expiration d'un délai de six mois. Ces contrats sont d'ores et déjà nuls et non avenus.
Dans les faits, la proposition de loi aboutit à un contrat entre le mineur et ses administrateurs légaux.
Rappelons le dispositif proposé : un mineur ne pourrait s'inscrire sur un site qui est listé par un décret du Conseil d'Etat pris après avis de l'ARCOM. Et par un esprit de responsabilité tout à fait inouï des services et plateformes, elle s'interdirait d'accepter ce mineur sur leur plateforme, sans obligation de vérifier leur âge, leur identité, ni même l'accord des parents. Car aucun dispositif n'est prévu dans cette proposition de loi pour le faire.
L'éventuelle sanction serait d'interdire ces services et plateformes sur le territoire national, méconnaissant que c'est une compétence de l'Union, que ce serait contraire aux droits de l'enfant et donc probablement non constitutionnel. Ou plus probablement on interdirait ces réseaux et services pour tous les citoyens, majeurs comme mineurs. C'est dans les faits ce qui s'est passé pour des sites pornographiques qui ne vérifiaient pas réellement les conditions d'âge. La pornographie est encadrée et l'exposition des mineurs interdite. Ce n'est assurément pas le cas du partage de vidéos ou de l'usage de réseaux sociaux.
A ne prévoir aucun dispositif pour vérifier l'âge ou pour limiter l'accès aux services de plateformes ou de réseaux, il n'y a assurément nul contrat, passé, présent ou futur. Cette proposition n'inscrit aucune obligation nouvelle pour les plateformes, mais invitent, incitent les mineurs à ne pas s'inscrire sur ces plateformes et à leurs seuls administrateurs légaux de s'en assurer.
Par ailleurs, on pourrait éventuellement s'interroger sur l'accès aux réseaux et services de plateforme des mineurs anticipés.
Dispositif
Supprimer l’alinéa 10.
Art. APRÈS ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne destinés aux mineurs et une intervention active au moyen d’un algorithme de mise en avant des contenus au moyen d’un classement fondé sur le profilage du destinataire du service, en la qualifiant d’activité d’édition.
En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.
Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.
Par ailleurs, cette clarification de responsabilité, limitée aux contenus à destination des mineurs, doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.
Dispositif
La section 3 du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, dans sa rédaction résultant de la présente loi, est complétée par un article 6‑9‑1 ainsi rédigé :
« Art. 6‑9-1. – I. – Lorsqu’ils suggèrent ou hiérarchisent, au moyen d’un système de recommandation, des informations fournies par des destinataires du service, les fournisseurs de services de réseaux sociaux en ligne sont réputés exercer, pour ces informations, une activité d’édition lorsque la mise en avant est destinée à un compte identifié comme appartenant à une personne mineure, au moyen d’un classement fondé sur le profilage du destinataire du service.
« II. – Pour les informations ainsi mises en avant, la responsabilité du fournisseur peut être engagée en qualité d’éditeur, sans préjudice de la responsabilité de l’auteur de l’information et du destinataire du service l’ayant fournie.
« III. – Sont considérées comme « mises en avant », au sens du présent article, les informations présentées au public autrement que dans un affichage strictement chronologique reposant uniquement sur les abonnements de l’utilisateur, notamment au moyen d’un fil personnalisé, de rubriques de tendances, de suggestion de comptes ou de contenus, de lecture automatique, de notifications, ou de toute fonctionnalité équivalente. »
Art. ART. PREMIER
• 22/01/2026
DISCUTE
Exposé des motifs
Cet amendement du groupe Socialistes et apparentés vise à réécrire l’article premier de la présente proposition de loi en cherchant une solution plus consensuelle et moins complexe à appliquer.
Il s’agit de reprendre le dispositif adopté à l’unanimité par le Sénat il y a moins d’un mois lors de l’examen de la proposition de loi visant à protéger les jeunes des risques liés à l’exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique. Cette proposition de loi, à l’initiative de la Sénatrice Catherine Morin-Dessailly du groupe Union Centriste, est la preuve que ce sujet mérite un consensus politique plus large pour protéger les mineurs face aux dangers des réseaux sociaux.
Ce dispositif s’inscrit également dans la lignée des préconisations du Parlement européen et de la loi dite Marcangeli.
Il s'agit donc de donner une certaine cohérence à l’action publique en matière de régulation du numérique.
Ce dispositif prévoit
- l’interdiction stricte des réseaux sociaux aux utilisateurs âgés de moins de 13 ans – ce qui est la borne d’âge minimal sur la plupart des plateforme et correspond également à l’âge minimal pour consentir au traitement de ses données selon le RGPD, à son article 8 qui précise que « les États membres peuvent prévoir par la loi un âge inférieur pour ces finalités pour autant que cet âge inférieur ne soit pas en dessous de 13 ans ».
– et l’accord d’un des titulaires de l’autorité parentale pour les utilisateurs âgés de 13 à 16 ans.
À ce stade, et en l’attente de dispositifs nationaux ou européens de vérification d’âge opérationnels, nous sommes contraints de nous contenter d’un mécanisme de vérification d’âge sur la base d’un référentiel proposé par l’Arcom, après avis de la CNIL. Ce mécanisme devrait être temporaire pour ensuite s’appuyer exclusivement sur un principe de vérification en double anonymat. En tout état de cause, ces mécanismes devront respecter la vie privée des utilisateurs et la protection des données.
Un mécanisme de sanction des plateformes est prévu en cas de manquement à l’application du présent dispositif.
Dispositif
Substituer aux alinéas 5 à 12 les dix-sept alinéas suivants :
« Art. 6‑9. – I. – Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France refusent l’inscription à leurs services des mineurs de treize ans. Ils suspendent également, dans les meilleurs délais, les comptes déjà créés et détenus par ces mineurs.
« Ils refusent l’inscription à leurs services des mineurs âgés de plus de treize ans et de moins de seize ans, sauf si l’autorisation de cette inscription est donnée par l’un des titulaires de l’autorité parentale sur le mineur. Ils recueillent également, dans les mêmes conditions et dans les meilleurs délais, l’autorisation expresse de l’un des titulaires de l’autorité parentale relative aux comptes déjà créés et détenus par des mineurs âgés de plus de treize ans et de moins de seize ans.
« Lors de l’inscription, les fournisseurs de services de réseaux sociaux en ligne délivrent une information à l’utilisateur de moins de seize ans et aux titulaires de l’autorité parentale sur les risques liés aux usages numériques et les moyens de prévention de ces risques. Ils délivrent également à l’utilisateur de moins de seize ans une information claire et adaptée sur les conditions d’utilisation de ses données et de ses droits garantis par la loi n° 78‑17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.
« L’un des titulaires de l’autorité parentale peut demander aux fournisseurs de services de réseaux sociaux en ligne la suspension du compte du mineur de seize ans.
« Lors de l’inscription d’un mineur, les fournisseurs de services de réseaux sociaux en ligne activent un dispositif permettant de contrôler le temps d’utilisation de leurs services et informent régulièrement l’usager de cette durée par des notifications.
« Afin de vérifier l’âge des utilisateurs finaux et l’autorisation de l’un des titulaires de l’autorité parentale, les fournisseurs de services de réseaux sociaux en ligne utilisent des solutions techniques conformes à un référentiel élaboré par l’Autorité de régulation de la communication audiovisuelle et numérique, après consultation de la Commission nationale de l’informatique et des libertés.
« II. – Lorsqu’il constate qu’un fournisseur de services de réseaux sociaux en ligne n’a pas mis en œuvre de solution technique certifiée pour vérifier l’âge des utilisateurs finaux et l’autorisation par l’un des titulaires de l’autorité parentale de l’inscription des mineurs âgés de plus de treize ans et de moins de seize ans, le président de l’Autorité de régulation de la communication audiovisuelle et numérique adresse à ce fournisseur, par tout moyen propre à en établir la date de réception, une mise en demeure de prendre toutes les mesures requises pour satisfaire aux obligations mentionnées au I. Le fournisseur dispose d’un délai de quinze jours à compter de la mise en demeure pour présenter ses observations.
« III. – Lorsque le fournisseur de services de réseaux sociaux en ligne concerné ne se conforme pas à la mise en demeure qui lui est adressée en application du II, l’Autorité de régulation de la communication audiovisuelle et numérique peut prononcer une sanction pécuniaire dans les conditions prévues à l’article 42‑7 de la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication.
« Le montant de la sanction prend en compte la nature, la gravité et la durée du manquement, les avantages tirés de ce manquement et les manquements commis précédemment.
« Le montant de la sanction ne peut excéder la somme de 150 000 euros ou 2 % du chiffre d’affaires mondial hors taxes réalisé au cours de l’exercice précédent, le plus élevé des deux montants étant retenu. En cas de réitération du manquement dans un délai de cinq ans à compter de la date à laquelle la première sanction est devenue définitive, ce maximum est porté à 300 000 euros ou à 4 % du chiffre d’affaires mondial hors taxes, le plus élevé des deux montants étant retenu.
« Les sanctions pécuniaires sont recouvrées comme les créances de l’État étrangères à l’impôt et au domaine.
« IV. – Les obligations mentionnées au I ne s’appliquent ni aux encyclopédies en ligne à but non lucratif ni aux répertoires éducatifs ou scientifiques à but non lucratif.
« V. – Les modalités d’application du présent article sont déterminées par un décret en Conseil d’État, pris après avis de la Commission nationale de l’informatique et des libertés. » ;
« 2° Le I de l’article 57 est ainsi modifié :
« a) Au premier alinéa, les mots : « 1er à 12 » sont remplacés par les mots : « 1er à 6‑8, 7 à 12 » ;
« b) Après le même premier alinéa, il est inséré un alinéa ainsi rédigé :
« L’article 6‑9 de la présente loi est applicable en Nouvelle-Calédonie, en Polynésie française et à Wallis-et-Futuna dans sa rédaction résultant de la loi n° du visant à protéger les jeunes des risques liés à l’exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique. »
Art. APRÈS ART. 4
• 21/01/2026
DISCUTE
Exposé des motifs
Le présent article impose la création et la nomination, au sein de chaque établissement scolaire, de plusieurs référents numériques, qui peuvent être des CPE, des enseignants ou d’autres personnels de l’établissement, accessibles aux élèves et à leurs représentants légaux.
Si la formation à l’usage des outils numériques et la sensibilisation aux risques qui y sont associés sont déjà dispensées dans les établissements, il apparaît nécessaire de désigner des personnes ressources identifiées, aptes à répondre aux questions des élèves et de leurs familles, à accompagner la mise en œuvre des actions de sensibilisation et à veiller à la promotion d’usages responsables du numérique.
Les missions de ces référents, précisées par décret en Conseil d’État, permettront d’assurer une cohérence pédagogique, de renforcer la prévention des risques numériques et d’offrir un point de contact concret et continu pour l’ensemble de la communauté éducative.
Cette mesure vise à compléter la formation existante en offrant aux élèves et aux familles un accompagnement pratique et accessible, favorisant l’éducation à la citoyenneté numérique et la protection des mineurs dans l’usage des outils numériques.
Dispositif
La section 3 du chapitre II du titre Ier du livre III de la deuxième partie du code de l’éducation est complétée par un article L. 312‑9 bis ainsi rédigé :
« Art. L. 312‑9 bis. – Chaque établissement scolaire désigne, au sein de l’équipe pédagogique, plusieurs référents numériques, accessibles aux élèves et à leurs représentants légaux.
« Leurs missions, notamment en matière de prévention, de sensibilisation et d’accompagnement des usages numériques, sont précisées par décret en Conseil d’État.
« Le nom et les coordonnées de ces référents sont communiqués en début d’année scolaire aux élèves et à leurs représentants légaux.
« L’exercice de cette mission ne donne pas lieu, en tant que telle, à l’attribution d’une indemnité spécifique. »
Art. APRÈS ART. 7
• 21/01/2026
DISCUTE
Exposé des motifs
A travers cet amendement, ses auteurs souhaitent qu'un rapport puisse être remis au Parlement dans les trois années suivants la promulgation de cette proposition de loi afin d'évaluer si les usages des réseaux sociaux par les mineurs ont évolué et s'ils sont davantage sensibilisés aux dangers qu'ils représentent pour leur santé.
Ce rapport aura également vocation à évaluer les résultats de l'interdiction du téléphone portable au collège et au lycée.
Dispositif
Dans un délai de trois ans à compter de la promulgation de la présente loi, le Gouvernement remet au Parlement un rapport évaluant, sur les trois années précédant cette remise, ce qu’il en est de l’utilisation par les mineurs de moins de 15 ans des réseaux sociaux et s’ils sont mieux sensibilisés aux dangers de ceux-ci. Ce rapport évalue également l’impact de l’interdiction du portable dans les établissements scolaires.
Art. ART. PREMIER
• 21/01/2026
DISCUTE
Exposé des motifs
Le présent amendement vise à préciser la périodicité de mise à jour de la liste indicative des services publiée par l’ARCOM, en prévoyant explicitement qu’elle soit actualisée au moins une fois par an.
Cette précision poursuit un objectif de sécurité juridique et d’effectivité de la régulation. Dans un environnement numérique caractérisé par l’émergence rapide de nouveaux services et usages, l’absence de référence temporelle explicite est susceptible de fragiliser la portée opérationnelle de cette liste.
En fixant une périodicité minimale d’actualisation, l’amendement vise à garantir que les services nouvellement apparus ou ayant fait évoluer leurs pratiques puissent être pris en compte dans des délais raisonnables, notamment lorsqu’ils sont susceptibles de présenter des risques pour les mineurs.
Il contribue ainsi à prévenir tout contournement durable du cadre légal et à assurer une application dynamique et effective des mécanismes de protection des mineurs, en cohérence avec l’objectif de responsabilité poursuivi par le législateur.
Dispositif
À l’alinéa 9, après le mot :
« jour »
insérer les mots :
« au moins une fois par an ».
Art. ART. 3
• 21/01/2026
DISCUTE
Exposé des motifs
Les cosignataires de cet amendement souhaitent rétablir cet article qui intègre de nouvelles dispositions afin de mieux sensibiliser la population sur les risques d’un usage incontrôlé des réseaux sociaux, notamment chez les plus jeunes.
Il ne peut y avoir de mesures d'interdiction sans des mesures de prévention et de sensibilisation aux effets nocifs qu'engendrent les algorithmes des réseaux sociaux.
Dispositif
Rétablir cet article dans la rédaction suivante :
« Le chapitre III du titre III du livre Ier de la deuxième partie du code la santé publique est complété par deux articles L. 2133‑3 et L. 2133‑4 ainsi rédigés :
« Art. L. 2133‑3. – Les messages publicitaires en faveur de services de réseaux sociaux en ligne définis à l’article 6 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique doivent contenir une information à caractère sanitaire. Dans le cas des messages publicitaires sur internet, télévisés ou radiodiffusés, cette obligation ne s’applique qu’aux messages émis et diffusés à partir du territoire français et reçus sur ce territoire. La même obligation d’information s’impose à toute promotion, destinée au public, par voie d’imprimés et de publications périodiques édités par les producteurs ou distributeurs de ces services.
« Le non‑respect de cette obligation d’information par les annonceurs et promoteurs est puni de 37 500 euros d’amende. Le montant de cette amende peut être porté à 30 % des dépenses consacrées à l’émission et à la diffusion des messages mentionnés au premier alinéa ou à la réalisation et à la distribution des imprimés et publications mentionnés au même premier alinéa.
« Les modalités d’application du présent article sont déterminées par décret en Conseil d’État. »
« Art. L. 2133‑4. – Les unités de conditionnement, emballages extérieurs, suremballages et boîtes de téléphones mobile et autres équipements terminaux de communications électroniques connectés à internet comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de treize ans.
« Les modalités d’application et de contrôle des dispositions prévues au premier alinéa sont déterminées par décret en Conseil d’État.
« Le non‑respect des dispositions prévues au premier alinéa est puni de 37 500 euros d’amende. Les personnes physiques ou morales reconnues coupables encourent également la peine complémentaire de confiscation des produits dont l’unité de conditionnement, l’emballage extérieur, le suremballage ou la boîte méconnaît les dispositions prévues au premier alinéa.
« La récidive est punie d’une amende de 200 000 euros. »
Art. APRÈS ART. 7
• 21/01/2026
DISCUTE
Exposé des motifs
Les mesures adoptées par le Parlement n’auront aucune efficience si elles ne s’accompagnent pas d’un renforcement des moyens, notamment humain à travers des professionnels formés. C’est pourquoi cet amendement vise à observer si l’État met bien tous les moyens en œuvre pour accompagner le développement de la formation visée à l’article L. 312‑9 du code de l’Éducation.
Sans des professionnels formés, ces mesures ne seront que peu appliquées et les résultats insuffisants. C’est ce que cette demande de rapport défend.
Dispositif
Dans un délai d’un an à compter de la promulgation de la présente loi, le Gouvernement remet au Parlement un rapport évaluant les moyens actuellement alloués à la formation visée par l’article L. 312‑9 du code de l’éducation et si elle est bien dispensée dans chaque établissement. À défaut, le rapport s’attache à évaluer quels sont les besoins supplémentaires pour atteindre l’effectivité de cette mesure.
Art. APRÈS ART. 4
• 21/01/2026
IRRECEVABLE_40
Art. ART. 6
• 21/01/2026
DISCUTE
Exposé des motifs
Les auteurs de cet amendement partagent la philosophie de cet article visant à limiter l'utilisation du téléphone portable au lycée. Toutefois, inscrire son interdiction dans la loi dans les lycées est une mesure inefficace et redondante.
Inefficace, car les lycéens et lycéennes ont la possibilité de sortir de l'enceinte des établissements lors des pauses ce qui leur permet d'utiliser librement leur téléphone.
Redondante enfin, car la quasi totalité des établissements ont déjà interdit l'utilisation des portables au sein leur enceinte dans leurs règlements intérieurs. Il n'y a donc aucune raison de l'inscrire dans la loi.
Dispositif
Supprimer cet article.
Art. ART. 6
• 21/01/2026
DISCUTE
Exposé des motifs
Si l’ambition de l’article 6, visant à étendre aux lycées l’interdiction de l’utilisation des téléphones portables, est louable, elle paraît toutefois démesurée au regard des comportements et des besoins des élèves de cet âge.
De plus, cet article prévoit la possibilité de dérogations au profit des étudiants inscrits dans des formations de l’enseignement supérieur au sein des lycées, sans offrir de cadre équivalent pour les lycéens. Cette différence de traitement apparaît difficilement justifiable.
Plutôt que d’imposer une interdiction générale, il paraît préférable de créer des espaces d’usage restreint du téléphone, comme cela peut se faire dans certains établissements d’ores et déjà. Il s’agit de les responsabiliser davantage.
Par ailleurs, l’ENT constitue fréquemment un outil essentiel de communication entre l’établissement, les élèves et leurs parents. En cas de changement d’emploi du temps, d’annulation de cours ou d’incident dans la journée, il est nécessaire de pouvoir autoriser un accès ponctuel en journée. Une interdiction stricte et généralisée priverait les élèves de ce canal utile et pourrait entraver le bon fonctionnement de l’organisation scolaire.
En outre, une interdiction stricte dans les lycées pourrait avoir un effet contre-productif, en incitant certains élèves à quitter l’établissement pendant les pauses pour utiliser leur téléphone, alors que l’objectif est précisément de favoriser un usage encadré et sécurisé.
Le présent amendement vise donc à clarifier ces règles : il prévoit que le règlement intérieur doit définir précisément les lieux et conditions d’utilisation du téléphone portable, et que dans tous les autres lieux, son usage est interdit, sauf accord explicite de l’enseignant.
Dispositif
Substituer aux alinéas 2 à 7 les quatre alinéas suivants :
« L'article L. 511‑5 est ainsi modifié :
« a) Au deuxième alinéa, les mots : « peut interdire l’utilisation » sont remplacés par les mots : « doit préciser les lieux et les conditions d’utilisation » ;
« b) Après le même deuxième alinéa, il est inséré un alinéa ainsi rédigé :
« À défaut de dispositions spécifiques dans le règlement intérieur, l’utilisation de ces appareils est interdite pendant les cours, sauf demande explicite de l’enseignant. Elle est également interdite dans les couloirs, mais autorisée dans une zone définie de la cour. ».
Art. ART. 6
• 21/01/2026
DISCUTE
Exposé des motifs
Les auteurs de cet amendement ne sont pas favorables à l'inscription dans la loi de l'interdiction du téléphone portable dans les lycées, cette interdiction étant déjà présente dans les règlements intérieurs des établissements.
Cet amendement propose de reculer sa mise en oeuvre à la rentrée 2027-2028.
Dispositif
À la fin de l'alinéa 8, substituer aux mots :
« 2026‑2027 »
les mots :
« 2027‑2028 ».
Art. ART. 6
• 21/01/2026
DISCUTE
Exposé des motifs
Rédactionnel.
L’article 6 n’a pas pour objet d’introduire à l’article L. 511‑5 du code de l’éducation une interdiction générale et absolue de l’utilisation du téléphone mobile au sein des lycées. Comme cela est déjà prévu aujourd’hui pour les collèges, le règlement intérieur des lycées pourra déroger à cette interdiction dans certaines circonstances, notamment les usages pédagogiques, et dans certains lieux. Les exceptions en vigueur seront donc maintenues, en plus de celles qui s’appliquent aux étudiants qui relèvent de l’enseignement supérieur.
À l’issue de l’adoption de la proposition de loi, la rédaction du premier alinéa de l’article L. 511‑5 du code de l’éducation sera la suivante : « L’utilisation d’un téléphone mobile ou de tout autre équipement terminal de communications électroniques par un élève est interdite dans les écoles maternelles, les écoles élémentaires, les collèges et les lycées et pendant toute activité liée à l’enseignement qui se déroule à l’extérieur de leur enceinte, à l’exception des circonstances, notamment les usages pédagogiques, et des lieux dans lesquels le règlement intérieur l’autorise expressément. Dans les lycées dispensant des formations de l’enseignement supérieur, le règlement intérieur peut déroger à cette interdiction pour les étudiants. »
Dispositif
À l’alinéa 4, substituer aux mots :
« disposant de »
les mots :
« dispensant des ».
Art. ART. 6
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI s’oppose à l’extension du dispositif « Portable en pause » aux lycées. Mesure phare du plan gouvernemental et d’Emmanuel Macron pour lutter contre les effets néfastes des réseaux sociaux chez les mineurs, l’extension dans la précipitation de l’interdiction des téléphones portables au lycée est totalement irréaliste et fait fi des nombreuses réserves soulevées par les syndicats.
En effet, alors que le dispositif a été généralisé au collège à la rentrée scolaire 2025, selon une enquête menée par le syndicat SNPDEN-UNSA en septembre dernier, seuls 8,5 % des principaux de collèges se sont conformés au dispositif. A contrario, près de 67 % ont assuré qu’ils ne comptaient pas appliquer de nouvelles mesures et 25 % qu’ils ne savaient pas encore. Parmi les principales raisons évoquées, figurent notamment la question centrale du financement de la mesure (alors que sa mise en place nécessiterait par exemple l’augmentation des dotations versées aux collectivités territoriales, et notamment les régions pour les lycées, afin de financer des équipements supplémentaires dans les établissements pour conserver les téléphones portables, mais que le budget austéritaire actuellement examiné à l’Assemblée ne le prévoit pas) mais également de nombreuses questions très concrètes en termes d’organisation et de périmètre (responsabilité en cas de vol de l’appareil, recrutements supplémentaires d’assistants d’éducation pour faire appliquer l’interdiction...).
Toutes ces raisons expliquent les réactions très mitigées des syndicats sur la question. Ainsi, Isabelle Vuillet, co-secrétaire générale de la CGT Educ’action (Le Parisien, 07/01/26) rappelle qu’« Il est déjà compliqué de faire respecter l’interdiction au collège, alors au lycée, nous avons un vrai doute sur la faisabilité. Cela ressemble à un effet de com du Gouvernement ». De son côté, Sophie Vénétitay, secrétaire générale du SNES-FSU (RMC, 29/11/25) était également très claire à ce sujet : « On ne peut pas vouloir généraliser une mesure qui est un échec » alors même que « Plus de la moitié des collèges n’ont pas pu appliquer le dispositif. Soit parce qu’ils n’ont pas eu les moyens de s’équiper ou tout simplement par manque de personnel ». Et à Christelle Kauffmann, proviseure de lycée dans le Tarn et membre de l’exécutif du SNPDEN, le principal syndicat des chefs d’établissement, d’ajouter Nous ne contestons pas qu’il y ait un problème d’addiction des jeunes au portable. Mais il s’agit d’un problème de société qui, une fois de plus, retombe sur l’école. » (Le Parisien, 07/01/26).
Par conséquent, nous souhaitons la suppression de l’extension du dispositif, d’autant plus qu’en l’état actuel du droit (art. L. 511‑5 du code de l’éducation) : une modification du règlement intérieur d’un lycée permet déjà d’« interdire l’utilisation par un élève des appareils [...] dans tout ou partie de l’enceinte de l’établissement ainsi que pendant les activités se déroulant à l’extérieur de celle-ci ».
Dispositif
Supprimer cet article.
Art. ART. 3
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI réitère son soutien à une approche préventive des risques posés par une surexposition incontrôlée aux écrans et aux contenus qui s'y affichent.
Supprimé en commission sur des considérations qui n'avaient aucun lien avec le fond des dispositions du présent article, ce dernier prévoit notamment la diffusion d'une information à caractère sanitaire dans les messages publicitaires en faveur de services de réseaux sociaux et est inspirée d'une obligation similaire applicable en matière de publicité en faveur de certains aliments ou boissons (art. L. 2133-1 du code de la santé publique : « les messages publicitaires en faveur de boissons avec ajouts de sucres, de sel ou d’édulcorants de synthèse ou de produits alimentaires manufacturés doivent contenir une information à caractère sanitaire »). Or, dans le cadre des travaux de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs, Mme Sarah Sauneron, directrice générale de la santé par intérim, indique que : « ces messages publicitaires font l’objet d’évaluations rigoureuses menées par l’Institut national de la santé et de la recherche médicale (Inserm) et par Santé publique France (SPF). Les études démontrent que ces messages, mis en place depuis 2007, ont significativement contribué à une meilleure connaissance des repères nutritionnels, désormais bien intégrés par la population ». Par conséquent, l'extension de ce principe aux réseaux sociaux ne peut qu'être bénéfique et apporter des éléments supplémentaires aux familles sur les risques que leur utilisation excessive et incontrôlée posent.
Par ailleurs, la mention "Déconseillé aux mineurs de moins de 13 ans" sur les emballages permettra également aux familles souhaitant doter leurs enfants d'un smartphone de prendre conscience des potentiels risques liés à leur usage - en leur laissant toutefois la liberté de fixer les limites en toute connaissance de cause, dans le respect de l'autorité parentale qu'ils exercent sur leurs enfants.
Néanmoins, nous rappelons que cette approche préventive doit absolument être couplée avec une politique ambitieuse de régulation du fonctionnement des plateformes, fondées sur la captation de l'attention à travers l'usage d'outils numériques sophistiqués (comme des algorithmes de recommandations), qui créé des risques majeurs pour les mineurs, mais également pour l'ensemble des utilisateurs.
Dispositif
Rétablir cet article dans la rédaction suivante :
« Le chapitre III du titre III du livre Ier de la deuxième partie du code la santé publique est complété par deux articles L. 2133‑3 et L. 2133‑4 ainsi rédigés :
« Art. L. 2133‑3. – Les messages publicitaires en faveur de services de réseaux sociaux en ligne définis à l’article 6 de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique doivent contenir une information à caractère sanitaire. Dans le cas des messages publicitaires sur internet, télévisés ou radiodiffusés, cette obligation ne s’applique qu’aux messages émis et diffusés à partir du territoire français et reçus sur ce territoire. La même obligation d’information s’impose à toute promotion, destinée au public, par voie d’imprimés et de publications périodiques édités par les producteurs ou distributeurs de ces services.
« Le non‑respect de cette obligation d’information par les annonceurs et promoteurs est puni de 37 500 euros d’amende. Le montant de cette amende peut être porté à 30 % des dépenses consacrées à l’émission et à la diffusion des messages mentionnés au premier alinéa ou à la réalisation et à la distribution des imprimés et publications mentionnés au même premier alinéa.
« Les modalités d’application du présent article sont déterminées par décret en Conseil d’État. »
« Art. L. 2133‑4. – Les unités de conditionnement, emballages extérieurs, suremballages et boîtes de téléphones mobile et autres équipements terminaux de communications électroniques connectés à internet comportent un message de prévention visant à informer les consommateurs que ces produits sont déconseillés aux mineurs de moins de treize ans.
« Les modalités d’application et de contrôle des dispositions prévues au premier alinéa sont déterminées par décret en Conseil d’État.
« Le non‑respect des dispositions prévues au premier alinéa est puni de 37 500 euros d’amende. Les personnes physiques ou morales reconnues coupables encourent également la peine complémentaire de confiscation des produits dont l’unité de conditionnement, l’emballage extérieur, le suremballage ou la boîte méconnaît les dispositions prévues au premier alinéa.
« La récidive est punie d’une amende de 200 000 euros. »
Art. APRÈS ART. 7
• 20/01/2026
IRRECEVABLE
Art. APRÈS ART. 7
• 20/01/2026
IRRECEVABLE
Art. ART. PREMIER
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI rappelle son opposition totale à la mesure d'interdiction des réseaux sociaux aux moins de 15 ans, qui relève avant tout d'un démagogisme numérique.
Tout d'abord, cette mesure est particulièrement attentatoire aux droits fondamentaux en ligne. En effet, elle remettrait en cause des principes cardinaux comme celui du droit à l'anonymat en ligne - principe régulièrement affirmé en droit national et européen (par exemple, le considérant 14 de la directive e-commerce no 2000/31 précise que « La présente directive ne peut pas empêcher l'utilisation anonyme de réseaux ouverts tels qu'Internet »). Par ailleurs, les critères selon lesquels a été fixé la majorité numérique sont particulièrement flous et semblent être en réalité totalement arbitraires : un contenu considéré comme dangereux et/ou illégal est-il ainsi plus acceptable à 15 ans et 1 jour qu'à 14 ans et 364 jours ? D'autant plus que cette majorité numérique est différente selon les différents pays – rien qu’au sein de l’Union européenne, celle-ci varie selon les différents pays entre 13 et 16 ans (par exemple, 14 ans en Espagne ou encore 13 ans au Danemark).
De plus, elle est facilement contournable via divers dispositifs techniques tels que les « Virtual Private Network » (VPN), dont l'objectif initial est de renforcer la protection de ses données lors d’une connexion Internet et notamment utilisé pour contourner des systèmes de censures numériques mis en place dans certains pays. Or, ces derniers peuvent également être utilisé pour contourner la mesure d'interdiction prévue au présent article, la rendant de fait inapplicable.
En réalité, ces mesures représentent un véritable renoncement à réguler les réseaux sociaux, transférant la responsabilité des conséquences de leurs usages sur les utilisateurs et utilisatrices. Même les conclusions de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs publié en septembre dernier et à l'origine de la présente proposition de loi le soulignait (p.28) : « Nous ferions d’abord reposer la charge de la responsabilité sur les jeunes plutôt que sur l’entreprise privée qui est à l’origine du problème ». L’UNICEF souligne également que « Les gouvernements doivent veiller à ce que les lois et réglementations relatives à l’âge ne se substituent pas aux obligations des entreprises d’investir dans la conception de plateformes plus sûres et dans une modération efficace des contenus ». Or, aucune mesure de la présente proposition de loi ne s'y attaque - alors qu'il s'agit du coeur du problème. La nouvelle rédaction issue de l'avis du Conseil d'Etat du 8 janvier 2026 rend ce transfert de responsabilité encore plus explicite puisque désormais, l'interdiction pèse directement sur les mineurs de moins de 15 ans qui ne peuvent pas avoir un compte sur les réseaux sociaux (alors qu'auparavant, cette obligation incombait aux plateformes, même si cette rédaction n'était pas non plus satisfaisante).
Enfin, et alors que cette mesure particulièrement liberticide est notamment justifiée au nom de la protection de la santé mentale des mineurs, qui est un objectif que nous ne remettons évidemment pas en cause dans l'absolu, faut-il rappeler qu'une véritable politique publique en la matière passe avant tout par l'augmentation des moyens alloués au système de soins ? Or, l'inaction de la Macronie en la matière est palpable, et on se retrouve aujourd'hui dans une situation de déficit chronique : ainsi, à titre d'illustration, en matière de santé scolaire, on ne compte qu'environ un médecin scolaire pour 13 000 élèves, un psychologue pour 1 500 élèves et un infirmier pour 1 300 élèves. En ce qui concerne les médecins scolaires, entre 2018 et 2023, le ministère de l’éducation nationale a recruté seulement 133 nouveaux médecins pour 300 postes offerts, soit un taux de couverture de seulement 44 %.
Pour toutes ces raisons, nous considérons que seule une approche combinant la prévention (en milieu scolaire et en dehors) et une véritable politique publique d'accompagnement à la parentalité numérique ainsi qu'une véritable régulation des réseaux sociaux en questionnant leur modèle économique fondé sur l'économie de l'attention et la captation du temps disponible des utilisateurs au travers une conception addictive, est capable de lutter à long-terme contre les effets néfastes des réseaux sociaux tout en préparant les individus à vivre dans un monde de plus en plus connecté.
Dispositif
Supprimer cet article.
Art. ART. 4
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI souhaite souligner l'importance d'adopter une approche préventive des risques liés aux usages du numérique, et notamment des réseaux sociaux.
Face à une société de plus en plus numérisée, il semble illusoire d'interdire purement et simplement à une catégorie ou un groupe spécifique de la population l'usage d'outils numériques au prétexte des risques que cela pourrait causer. En effet, cela poserait de nombreuses questions de préservation des droits fondamentaux en ligne (comme le droit à l'anonymat), mais également d'applicabilité concrète de la mesure (l'usage de certains outils comme le VPN permettant de contourner ce type de législation) et d'absence de mesures visant à réguler les plateformes elle-même, qui sont les premières responsables de ces dérives en raison de leur modèle économique fondé sur la captation de l'attention et qui entraîne une surexposition aux contenus clivants, dangereux et/ou illicites pour générer des revenus (notamment publicitaires). Dans ce contexte, il nous semble indispensable de renforcer l'éducation au numérique - seule façon de doter durablement les individus des bons réflexes face aux écrans.
Cette prévention est d'autant plus justifiée que son usage est déjà fortement développé au sein de l'Education nationale. En effet, on assiste à la multiplication d'initiatives structurantes sur le sujet (« Stratégie du numérique pour l’éducation » (2023-2027) qui a été rejetée en CSE en raison notamment de la place prépondérante qu'elle donne aux acteurs de la Edtech et participant ainsi à la privation du service public de l’enseignement ou encore d’un « cadre d’usage de l’intelligence artificielle en éducation ») ainsi que de sa présence dans le quotidien des élèves (consultation de Pronote et de leur environnement numérique de travail (ENT), accès aux ressources numériques), et qui doit donc logiquement s'accompagner en parallèle d'une prévention sur les risques encourus.
Dans ce contexte, nous ne pouvons que désapprouver la suppression du présent article en commission, et demandons son rétablissement dans sa version initiale - accompagnée évidemment des moyens humains et financiers nécessaires à son application concrète, alors que le budget prévu dans le PLF 2026 prévoit à nouveau de nombreuses coupes budgétaires qui risquent de menacer l'effectivité de l'enseignement de l'éducation au numérique.
Dispositif
Rétablir cet article dans la rédaction suivante :
« Le deuxième alinéa de l’article L. 312‑9 du code de l’éducation est ainsi rédigé :
« Cette formation comporte également :
« – une sensibilisation sur l’interdiction du harcèlement commis dans l’espace numérique, la manière de s’en protéger et les sanctions encourues en la matière ;
« – une sensibilisation à l’impact environnemental des outils numériques ainsi qu’un volet relatif à la sobriété numérique ;
« – une sensibilisation aux enjeux de protection de la santé mentale liés à l’usage des outils numériques, et notamment aux conséquences psychologiques d’une utilisation de services de réseaux sociaux en ligne. »
Art. ART. PREMIER
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI réaffirme son opposition à l'interdiction des réseaux aux moins de 15 ans, qui est avant tout une mesure de communication tendant à faire croire que le Gouvernement s'est saisie du sujet.
Les raisons de notre opposition totale à cette mesure sont nombreuses (mesure liberticide affaiblissant la protection des données personnelles des utilisateurs, inapplicabilité de la mesure car facilement contournable avec l'usage de dispositifs techniques tels que les VPN, déplacement de la responsabilité de l'exposition aux contenus dangereux voires illicites des plateformes vers les utilisateurs...) et semblent être vérifiées empiriquement. L'exemple de l'Australie en la matière est particulièrement éclairant.
Le 28 novembre 2024 le Parlement australien a approuvé un texte visant à obliger les différentes plateformes de réseaux sociaux telles que X, TikTok, Instagram ou Facebook à prendre « des mesures raisonnables » pour interdire aux mineurs de moins de 16 ans de conserver ou de créer un compte, et à prévoir des amendes en cas de non-respect de cette obligation (environ 28 millions d'euros). Or, dès son examen, les limites du texte avaient été soulevées : les contours flous de son application car le texte ne fournit quasiment aucun détail sur ses modalités d’application concrètes, les questions de protection des droits fondamentaux en ligne au vu des différentes solutions envisagées par les plateformes numériques pour tenter de contrôler l’âge de leurs utilisateurs (recours à un tiers extérieur qui détient les informations personnelles des utilisateurs, demander à l’utilisateur de se prendre en selfie, surveillance des habitudes de consommation des utilisateurs pour tenter de déduire leur âge comme par exemple, contrôler les contenus consultés ou encore voir les messages d’anniversaires reçus…), ou encore la question du contournement de ces mesures avec les VPN... D’ailleurs, comme une forme d'aveu du Gouvernement australien, celui-ci a rapidement reconnue qu'« Aucune solution ne sera probablement efficace à 100 % tout le temps ».
A peine un mois après son entrée en vigueur le 10 décembre 2025, la presse rapporte ainsi déjà que de nombreux utilisateurs ont recours à diverses techniques pour faire face à cette nouvelle interdiction : migration vers des plateformes plus petites et non concernées à ce stade par cette obligation (Coverstar, Lemon8, Yope, Rednote...), usage d'un VPN, recours à des proches plus âgés pour passer les filtres de vérification de l'âge (scan de visage...)... Ainsi, le cas australien tend à confirmer l'inefficacité de cette mesure, et la nécessité de mettre en place une véritable politique de régulation des plateformes numériques, accompagné d'un renforcement de la prévention des risques associés.
Dispositif
À la fin de l’alinéa 12, substituer à la date :
« 1er septembre 2026 »
la date :
« 1er septembre 2027 ».
Art. ART. PREMIER
• 20/01/2026
DISCUTE
Exposé des motifs
Cet amendement est issu de la proposition de loi de notre collègue la Sénatrice Catherine Morin-Desailly.
En 2023, le législateur français a souhaité instaurer une majorité numérique. La loi n° 2023‑566 du 7 juillet 2023, dite « loi Marcangeli », visant à établir cette majorité et à lutter contre la haine en ligne, n’est toutefois jamais entrée en vigueur. Son application dépendait d’un décret, qui n’a jamais été adopté par le Gouvernement, suite aux observations de la Commission européenne sur la compatibilité du texte avec le droit de l’Union européenne.
Le 14 juillet 2025, la Commission européenne a publié ses lignes directrices sur l’application du règlement sur les services numériques (RSN), prenant en compte l’appel de la France à mettre en place une restriction d’accès aux réseaux sociaux pour les mineurs. Elle y indique notamment que le recours à un dispositif de vérification de l’âge est approprié « lorsque le droit national prescrit un âge minimum pour accéder à une plateforme en ligne, y compris des catégories spécifiques de services de médias sociaux en ligne ». Chaque État membre peut ainsi désormais fixer un âge minimal d’accès aux réseaux sociaux.
La Commission a également présenté un prototype d’application de vérification de l’âge, fondé sur l’architecture du Portefeuille Européen d’Identité Numérique, actuellement évalué en partenariat avec les États membres, dont la France, ainsi que les plateformes et les utilisateurs finaux.
Dans ce cadre, le présent amendement vise à obliger les plateformes à interdire l’accès aux réseaux sociaux aux mineurs de moins de 13 ans et à mettre en place un système de vérification de l’âge robuste, conforme à un référentiel établi par l’Arcom. Si plusieurs plateformes fixent déjà un âge minimal de 13 ans, elles ne vérifient pas réellement l’âge de leurs utilisateurs.
Par ailleurs, l’amendement prévoit que les mineurs âgés de 13 à 16 ans devront obtenir l’autorisation parentale pour leur inscription sur un réseau social. Cette mesure vise à responsabiliser les parents et à leur permettre d’engager un dialogue avec leurs enfants sur leurs usages numériques.
Cet amendement est conforme à la position adoptée par le Parlement européen le 26 novembre 2025, dans le rapport d’initiative de Christel Schaldemose sur la protection des mineurs, et présente l’avantage d’être susceptible d’une adoption harmonisée au niveau européen, ce qui faciliterait son application.
L’objectif de ce dispositif est de protéger les mineurs contre les effets négatifs des réseaux sociaux, qu’ils soient sanitaires, liés au cyberharcèlement ou à d’autres atteintes à leur sécurité et à leur bien-être, tels que documentés par les nombreuses études scientifiques disponibles à ce jour.
Dispositif
Substituer aux alinéas 5 à 12 les dix-sept alinéas suivants :
« Art. 6‑9. – I. – Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France refusent l’inscription à leurs services des mineurs de treize ans. Ils suspendent également, dans les meilleurs délais, les comptes déjà créés et détenus par ces mineurs.
« Ils refusent l’inscription à leurs services des mineurs âgés de plus de treize ans et de moins de seize ans, sauf si l’autorisation de cette inscription est donnée par l’un des titulaires de l’autorité parentale sur le mineur. Ils recueillent également, dans les mêmes conditions et dans les meilleurs délais, l’autorisation expresse de l’un des titulaires de l’autorité parentale relative aux comptes déjà créés et détenus par des mineurs âgés de plus de treize ans et de moins de seize ans.
« Lors de l’inscription, les fournisseurs de services de réseaux sociaux en ligne délivrent une information à l’utilisateur de moins de seize ans et aux titulaires de l’autorité parentale sur les risques liés aux usages numériques et les moyens de prévention de ces risques. Ils délivrent également à l’utilisateur de moins de seize ans une information claire et adaptée sur les conditions d’utilisation de ses données et de ses droits garantis par la loi n° 78‑17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.
« L’un des titulaires de l’autorité parentale peut demander aux fournisseurs de services de réseaux sociaux en ligne la suspension du compte du mineur de seize ans.
« Lors de l’inscription d’un mineur, les fournisseurs de services de réseaux sociaux en ligne activent un dispositif permettant de contrôler le temps d’utilisation de leurs services et informent régulièrement l’usager de cette durée par des notifications.
« Afin de vérifier l’âge des utilisateurs finaux et l’autorisation de l’un des titulaires de l’autorité parentale, les fournisseurs de services de réseaux sociaux en ligne utilisent des solutions techniques conformes à un référentiel élaboré par l’Autorité de régulation de la communication audiovisuelle et numérique, après consultation de la Commission nationale de l’informatique et des libertés.
« II. – Lorsqu’il constate qu’un fournisseur de services de réseaux sociaux en ligne n’a pas mis en œuvre de solution technique certifiée pour vérifier l’âge des utilisateurs finaux et l’autorisation par l’un des titulaires de l’autorité parentale de l’inscription des mineurs âgés de plus de treize ans et de moins de seize ans, le président de l’Autorité de régulation de la communication audiovisuelle et numérique adresse à ce fournisseur, par tout moyen propre à en établir la date de réception, une mise en demeure de prendre toutes les mesures requises pour satisfaire aux obligations mentionnées au I. Le fournisseur dispose d’un délai de quinze jours à compter de la mise en demeure pour présenter ses observations.
« III. – Lorsque le fournisseur de services de réseaux sociaux en ligne concerné ne se conforme pas à la mise en demeure qui lui est adressée en application du II, l’Autorité de régulation de la communication audiovisuelle et numérique peut prononcer une sanction pécuniaire dans les conditions prévues à l’article 42‑7 de la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication.
« Le montant de la sanction prend en compte la nature, la gravité et la durée du manquement, les avantages tirés de ce manquement et les manquements commis précédemment.
« Le montant de la sanction ne peut excéder la somme de 150 000 euros ou 2 % du chiffre d’affaires mondial hors taxes réalisé au cours de l’exercice précédent, le plus élevé des deux montants étant retenu. En cas de réitération du manquement dans un délai de cinq ans à compter de la date à laquelle la première sanction est devenue définitive, ce maximum est porté à 300 000 euros ou à 4 % du chiffre d’affaires mondial hors taxes, le plus élevé des deux montants étant retenu.
« Les sanctions pécuniaires sont recouvrées comme les créances de l’État étrangères à l’impôt et au domaine.
« IV. – Les obligations mentionnées au I ne s’appliquent ni aux encyclopédies en ligne à but non lucratif ni aux répertoires éducatifs ou scientifiques à but non lucratif.
« V. – Les modalités d’application du présent article sont déterminées par un décret en Conseil d’État, pris après avis de la Commission nationale de l’informatique et des libertés. » ;
« 2° Le I de l’article 57 est ainsi modifié :
« a) Au premier alinéa, les mots : « 1er à 12 » sont remplacés par les mots : « 1er à 6‑8, 7 à 12 » ;
« b) Après le même premier alinéa, il est inséré un alinéa ainsi rédigé :
« L’article 6‑9 de la présente loi est applicable en Nouvelle-Calédonie, en Polynésie française et à Wallis-et-Futuna dans sa rédaction résultant de la loi n° du visant à protéger les jeunes des risques liés à l’exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique. »
Art. ART. 6
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI réitère son opposition à l'extension du dispositif, d'autant plus que la date d'entrée en vigueur à la rentrée scolaire 2026 est peu réaliste.
En effet, alors que le dispositif a été généralisé au collège à la rentrée scolaire 2025, selon une enquête menée par le syndicat SNPDEN-UNSA en septembre dernier, seuls 8,5% des principaux de collèges se sont conformés au dispositif. Parmi les principales raisons explicatives de cette situation, figure le manque de moyens spécifiques alloués à cette mesure, notamment par les collectivités territoriales à qui on applique à chaque budget des coupes toujours plus massives qui les empêchent de mener leurs missions à bien. Dans ce contexte, Sophie Vénétitay, secrétaire générale du SNES-FSU (RMC, 29/11/25) rappelle qu': « On ne peut pas vouloir généraliser une mesure qui est un échec » alors même que « Plus de la moitié des collèges n'ont pas pu appliquer le dispositif. Soit parce qu'ils n'ont pas eu les moyens de s'équiper ou tout simplement par manque de personnel ». Par conséquent, l'entrée en vigueur d'une généralisation du dispositif au lycée à la prochaine rentrée scolaire 2026 relève avant tout d'un voeu pieux.
Par ailleurs, des études internationales, comme celle menée par The Lancet en février 2025, tendent à remettre en cause l’efficacité des mesures d’interdiction des téléphones portables dans les établissements scolaires, qui n’améliorent ni les résultats scolaires, ni le bien-être des élèves. Et elle nous invite à minima, à prendre davantage le temps de la réflexion pour repenser de façon intelligente la place du numérique à l'école.
Dispositif
À la fin de l'alinéa 8, substituer aux mots :
« 2026‑2027 »
les mots :
« 2027‑2028 ».
Art. APRÈS ART. 7
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI souhaite évaluer les effets de l'interdiction des écrans aux moins de 3 ans, afin d'établir un bilan précis des effets positifs et négatifs engendrés par cette mesure.
Prévu par l'arrêté du 2 juillet 2025 sur l'interdiction des écrans dans les lieux d'accueil pour jeunes enfants, l'examen du texte en commission a permis d'inscrire son principe dans la loi, lui conférant ainsi un niveau de protection juridique supérieure. Si de nombreuses études ont mis en évidence le caractère délétère d'une exposition trop précoce des enfants aux écrans, il nous semble néanmoins indispensable de disposer d'une évaluation de cette interdiction dans les lieux d'accueil pour enfants afin notamment d'établir les potentielles conséquences que cela pourrait poser en termes d'organisation et d'accueil des familles. Ainsi, le rapport permettra le cas échéant, de proposer des potentielles modifications du cadre juridique applicable afin de prendre en compte les difficultés rencontrées sur le terrain par l'interdiction des écrans.
Dispositif
Dans un délai de six mois à compter de la promulgation de la présente loi, le Gouvernement remet au Parlement un rapport évaluant les effets de l'interdiction des écrans dans les lieux d'accueil pour jeunes enfants.
Art. ART. 6
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI souhaite maintenir l'état actuel du droit en matière d'interdiction du portable au lycée.
En effet, en l'état actuel du droit (art. L.511-5 du code de l'éducation), une modification du règlement intérieur d'un lycée permet déjà d'"interdire l'utilisation par un élève des appareils [...] dans tout ou partie de l'enceinte de l'établissement ainsi que pendant les activités se déroulant à l'extérieur de celle-ci". Par conséquent, il est déjà possible de l'interdire, et son extension est d'autant moins justifiée que les syndicats se sont majoritairement exprimés contre cette mesure.
Ainsi, lors d'une réunion du Conseil Supérieur de l'Education (CSE) le 7 janvier 2026, la quasi-unanimité des organises représentés ont rejeté cette mesure, le SNES dénonçant par exemple une mesure d'affichage, sans moyens nouveaux et une nouvelle instrumentalisation de l'école. Cela est d'autant plus incompréhensible que dans le même temps, l'Education nationale favorise le développement du numérique à l'école, à travers par exemple la publication de stratégies de développement comme la « Stratégie du numérique pour l’éducation » (2023-2027) qui a été rejetée en CSE en raison notamment de la place prépondérante qu'elle donne aux acteurs de la Edtech et participant ainsi à la privatisation du service public de l’enseignement ou encore d’un « cadre d’usage de l’intelligence artificielle en éducation » tout en développant son usage auprès des élèves et des parents (consultation de Pronote et de leur environnement numérique de travail (ENT), accès aux ressources numériques) - ce qui n’est pas sans poser de questions notamment en termes de renforcement du stress des élèves - rendant le discours global sur la place du numérique à l'école incompréhensible.
Pour toutes ces raisons, nous considérons qu'à minima, il est nécessaire de conserver le cadre actuel et de mener une véritable réflexion d'ampleur sur la place du smartphone et du numérique à l'école.
Dispositif
Supprimer l'alinéa 5.
Art. APRÈS ART. 4
• 20/01/2026
DISCUTE
Exposé des motifs
Cet amendement issu de la proposition de loi de notre collègue la sénatrice Catherine Morin-Desailly a pour objectif d’assurer que tous les enfants de moins de dix-huit ans reçoivent une information et une sensibilisation aux risques pour la santé et la sécurité liés à une utilisation excessive des écrans, ainsi qu’aux effets potentiellement addictifs des réseaux sociaux, en s’appuyant sur les données scientifiques et les études disponibles.
Dispositif
Chaque année, les ministres chargés de l’éducation nationale, de la santé et du numérique organisent, en coopération avec l’Autorité de régulation de la communication audiovisuelle et numérique et la Commission nationale de l’informatique et des libertés, une campagne de sensibilisation nationale sur les risques liés à une exposition non raisonnée des enfants aux écrans.
Art. ART. 4 BIS
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement de cohérence, le groupe LFI réaffirme l'importance du rôle des personnels de l'Education nationale, et notamment les enseignants, en matière de prévention des risques liés à l'usage du numérique.
L'usage du numérique à l'école est déjà omniprésent. En effet, outre l'inscription dans le code de l'éducation à l'article L. 312-9 du principe selon lesquel les élèves bénéficient d'une formation à l'utilisation responsable des outils et des ressources numériques, de façon très concrète, ces derniers font usage de nombreux outils numériques au quotidien - à travers par exemple l'usage de Pronote et leur environnement numérique de travail (ENT). Dans ce contexte, les enseignants sont les plus à même de faire de la prévention auprès de leurs élèves sur les différents risques encourus en ligne : conception addictive des plateformes pour retenir l'attention des utilisateurs (algorithmes de recommandation...), nécessité de protéger ses données personnelles en ligne, risques psychosociaux liés à un usage incontrôlé...
Cette inscription des enseignants parmi les responsables de la prévention ne doit néanmoins pas faire oublier qu'elle doit s'accompagner des moyens nécessaires pour la rendre effective. Cette question des moyens est d'autant plus centrale que l'examen actuel du projet de loi de finances pour 2026 prévoit en matière éducative des coupes budgétaires particulièrement importantes, comme la suppression de 4 018 postes d'enseignants, alors même qu'il est déjà difficile aujourd'hui de terminer l'étude du programme scolaire en raison notamment du manque de professeurs présents dans les classes. Par conséquent, si l'adoption de cet article de principe va dans le bon sens, elle doit s'accompagner des moyens nécessaires pour ne pas rester lettre morte.
Dispositif
Après le mot :
« internet »,
insérer les mots :
« ainsi que les professionnels de l’éducation, ».
Art. ART. PREMIER
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI souhaite s’attaquer réellement aux dangers posés par l’usage des écrans, auprès notamment des enfants, en questionnant le modèle économique des plateformes fondés sur la captation de l’attention des utilisateurs.
Cette captation de l’attention repose sur des outils désormais connu de toutes et tous : fondée sur une captation massive de données et métadonnées numériques personnelles (quitte à ne pas toujours respecter la réglementation en vigueur), ces dernières alimentent des interfaces conçues de manière addictive à travers l’usage d’outils techniques et numériques particulièrement sophistiqués relevant parfois davantage de la manipulation (scrolling infini de contenu, algorithmes de recommandations ultra-personnalisés...) permettant aux plateformes de créer des interactions de plus en plus importante et de monétiser ces dernières (à travers par exemple la mise en avant de publicités, qui est aujourd’hui centrale en termes de retombées économiques générées). Alors que les dangers posés par ce modèle sont de plus en plus documentés – comme le souligne le rapport de la commission d’enquête – les utilisateurs mineurs constituent une cible particulièrement vulnérable face à ces outils : or, la présente proposition de loi ne propose rien pour en réguler les effets.
Par conséquent, nous proposons à travers cet amendement de questionner concrètement ce modèle, en interdisant aux plateformes numériques confrontées au profil d’un utilisateur mineur d’avoir recours à des algorithmes de recommandation pour mettre en avant des contenus plutôt que d’autres, fondé sur l’analyse de ses préférences individuelles. Notre proposition est en réalité parfaitement cohérente avec les dispositions du Règlement européen sur les services numériques, dont l’article 28 sur la protection des mineurs prévoit notamment que « Les fournisseurs de plateformes en ligne ne présentent pas sur leur interface de publicité qui repose sur du profilage [...] en utilisant des données à caractère personnel concernant le destinataire du service dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur ». C’est seulement à ce prix que nous pourrons protéger les mineurs des dangers auxquels les expose les réseaux sociaux, tout en s’attaquant structurellement aux causes de cette exposition : l’absence de régulation des plateformes.
Dispositif
Substituer aux alinéas 5 à 12 les alinéas suivants :
« Art. 6‑9. I. – Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France ne peuvent faire usage d’outils techniques ou numériques, quelque soit sa nature, fondés sur l’analyse des données et métadonnées numériques permettant de révéler les préférences individuelles des utilisateurs et en conséquence, de favoriser la mise en avant de certains contenus sur les profils numériques de ces derniers, tel que les algorithmes de recommandations, lorsque ce profil appartient à un mineur de moins de 18 ans.
« II. – Le fait pour un fournisseur de services de réseaux sociaux en ligne de ne pas satisfaire aux obligations prévues au présent I est puni d’une amende pouvant atteindre jusqu’à 6 % de son chiffre d’affaires mondial pour l’exercice précédent.
« III. – Un décret pris en Conseil d’État, après avis de la Commission nationale de l’informatique et des libertés, précisera les modalités d’application du présent article. »
Art. APRÈS ART. 4
• 20/01/2026
DISCUTE
Exposé des motifs
Les articles L. 121‑1 et suivants du code de l’éducation définissent les objectifs et missions du service public d’éducation. Dans ce cadre, les écoles, collèges, lycées et établissements d’enseignement supérieur contribuent notamment à l’éducation à la responsabilité civique, y compris en matière d’utilisation d’internet et des services de communication en ligne, et assurent une mission d’information sur les violences, y compris celles commises en ligne.
Cet amendement issu de la proposition de loi de notre collègue la Sénatrice Catherine MORIN-DESAILLY vise à compléter les missions du service public d’éducation par une prévention des risques liés à une utilisation excessive des écrans et à une possible dépendance aux réseaux sociaux. Cette modification étend également ces obligations aux établissements privés sous contrat, qui participent au service public de l’éducation nationale. En 2024, plus de deux millions d’élèves étaient scolarisés dans des établissements privés sous contrat du premier et du second degré.
Dispositif
L’article L. 121‑1 du code de l’éducation est complété par un alinéa ainsi rédigé :
« Ils sensibilisent aux risques liés à une exposition non raisonnée des élèves aux écrans et au caractère addictif des réseaux sociaux. »
Art. ART. 6
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI réitère son opposition à l'extension du dispositif "Portable en pause" aux lycées.
Outre le fait que cette mesure d'interdiction revient de facto à renoncer à réguler les dérives de l'usage des écrans et des réseaux sociaux et à faire porter la responsabilité de leurs dérives sur les lycéens et lycéennes du pays - ce qui est un renoncement politique supplémentaire de la Macronie en matière éducative - le bilan de la généralisation du dispositif au collège à la rentrée 2025-2026 est une preuve supplémentaire de l'amateurisme avec lequel les décisions politiques sont prises par le Gouvernement.
En effet, alors que le dispositif a été généralisé au collège à la rentrée scolaire 2025, selon une enquête menée par le syndicat SNPDEN-UNSA en septembre dernier, seuls 8,5% des principaux de collèges se sont conformés au dispositif. A contrario, près de 67% ont assuré qu'ils ne comptaient pas appliquer de nouvelles mesures et 25% qu'ils ne savaient pas encore. Parmi les principales raisons évoquées, figurent notamment la question centrale du financement de cette mesure (alors que sa mise en place nécessiterait par exemple l'augmentation des dotations versées aux collectivités territoriales, et notamment les régions pour les lycées, afin de financer des équipements supplémentaires dans les établissements pour conserver les téléphones portables, mais que le budget, composé essentiellement de coupes budgétaires, actuellement examiné à l'Assemblée ne le prévoit pas) mais également de nombreuses questions très concrètes en termes d'organisation et de périmètre (responsabilité en cas de vol de l'appareil, recrutements supplémentaires d'assistants d'éducation pour faire appliquer l'interdiction...).
Par conséquent, nous proposons à travers cet amendement de revenir sur cette extension du dispositif au lycée, d'autant plus qu'en l'état actuel du droit (art. L.511-5 du code de l'éducation), une modification du règlement intérieur d'un lycée permet déjà d'"interdire l'utilisation par un élève des appareils [...] dans tout ou partie de l'enceinte de l'établissement ainsi que pendant les activités se déroulant à l'extérieur de celle-ci".
Dispositif
Supprimer l'alinéa 3.
Art. APRÈS ART. 7
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI souhaite s’assurer que la réforme proposée des programmes scolaires soit réellement effective.
Nous avons toujours défendu une réforme des programmes scolaires afin d’y intégrer une sensibilisation aux dangers du numérique – comme lors des discussions autour du projet de loi visant à « sécuriser et réguler l’espace numérique » (PJL SREN) – car nous considérons que seule une approche préventive permet de lutter durablement contre les dangers d’une exposition incontrôlée. Or, en matière éducative (comme partout ailleurs), la Macronie nous a habitué à lancer des projets de réformes sans moyens supplémentaires alloués, ce qui s’est vérifié dans toutes les dernières réformes gouvernementales en la matière. Or, sans moyens supplémentaires, cette réforme des programmes risque de rester lettre morte, alors que son importance est désormais centrale au vu des enjeux soulevés.
Cette question des moyens est d’autant plus centrale que l’examen actuel du projet de loi de finances pour 2026 prévoit en matière éducative des mesures budgétaires particulièrement austéritaires, comme la suppression de 4 018 postes d’enseignants, alors même qu’il est déjà difficile aujourd’hui de terminer l’étude du programme scolaire en raison notamment du manque de professeurs présents dans les classes. Par conséquent, nous souhaitons ouvrir la réflexion sur les moyens alloués à cette réforme des programmes scolaires, afin que chaque élève en France puisse en bénéficier et être mieux armé face aux dangers du numérique.
Dispositif
Dans un délai de six mois à compter de la promulgation de la présente loi, le Gouvernement remet au Parlement un rapport visant à analyser les moyens alloués à l’éducation nationale pour prendre en compte la réforme des programmes scolaires introduisant une sensibilisation sur l’interdiction du harcèlement commis dans l’espace numérique, une sensibilisation à l’impact environnemental des outils numériques, un volet relatif à la sobriété numérique, ainsi qu’une sensibilisation aux enjeux de protection de la santé mentale liés à l’usage des outils numériques, et notamment aux conséquences psychologiques d’une utilisation de services de réseaux sociaux en ligne. Le rapport détermine notamment les éventuelles difficultés rencontrées dans sa mise en place et présente le cas échéant, des pistes afin d’y pallier.
Art. ART. 4 BIS
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI souhaite insister sur la nécessité de faire de la prévention vis-à-vis des conceptions addictives des plateformes, qui expliquent en grande partie les difficultés posées aujourd'hui par l'usage des écrans et des réseaux sociaux.
Les principales plateformes numériques utilisées aujourd'hui reposent sur le même modèle économique : la captation de l'attention de leurs utilisateurs, afin de la monétiser (ventes d'espaces publicitaires...). Or, et pour augmenter toujours plus leurs profits, ces dernières développent des outils toujours plus efficaces (comme les algorithmes de recommandation ou le défilement automatique) pour retenir les utilisateurs sur leur plateforme, et n'hésitent pas à mettre en avant des contenus particulièrement clivants et choquants, voire dangereux et/ou illégaux, afin de créer de l'engagement (commentaires sur le contenu, "like"....) et de nous retenir toujours plus longtemps. Ainsi, c'est le modèle économique même des plateformes qui, couplé à un désinvestissement public massif de notre système de santé, notamment en matière scolaire, explique que selon un rapport récent publié le mardi 13 janvier 2026 par l'Agence nationale de sécurité sanitaire (Anses), l'usage des réseaux sociaux entraîne une grave dégradation de la santé des adolescents.
La prise de conscience des pouvoirs publics vis-à-vis de ce sujet n'est que très récente. Ainsi, à titre d'illustration, le Parlement européen a adopté à une large majorité le 12 décembre 2023 une résolution visant à dénoncer ces conceptions addictives, et appelant à de nouvelles règles européennes pour lutter efficacement contre celles-ci. Dans ce contexte, la France doit également jouer un rôle majeur pour faire avancer ce combat - tel est l'objet de cet amendement.
Dispositif
Compléter cet article par la phrase suivante :
« Ils contribuent à l’information des enfants sur les dérives entraînées par les conceptions addictives des plateformes. »
Art. ART. 4 BIS
• 20/01/2026
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI souhaite souligner les risques accrus de discriminations de genre posés par un usage immodéré des réseaux sociaux et des écrans, qui pèsent davantage sur les filles que sur les garçons.
Le mardi 13 janvier 2026, l'Agence nationale de sécurité sanitaire (Anses) a publié une vaste étude sur les risques posés par les plateformes de réseaux sociaux sur la santé des 11-17 ans. Tout en rappellant des constats que nous partageons (nécessité de dénoncer le modèle économique des plateformes qui entraîne une captation à tout prix de l'attention des utilisateurs pour la monétiser...), l'étude souligne le fait que les cyberviolences et le cyberharcèlement sont des phénomènes qui touchent davantages les filles que les garçons en ligne. A titre d'illustration, la pratique du "sexting" non consenti (lorsque l’utilisateur subit une pression pour envoyer des images de nature intime) touche davantage les filles, et de manière plus générale, l'importance donnée par les réseaux sociaux aux contenus centrés sur l'image et l'apparence physique - sujets sur lesquels les filles et les femmes subissent de manière plus générale une pression de la société patriarcale - entraîne des complications sanitaires touchant davantage les filles que les garçons en ligne.
Dans ce contexte, l'étude propose notamment de mener des campagnes de santé publique en lien notamment avec la prévention des cyberviolences, ce qui est totalement cohérent avec nos positions sur le sujet. Néanmoins, le sujet ne pourra faire l'économie d'une réflexion plus structurelle sur la régulation des plateformes elle-même, qui constitue la véritable priorité de toute politique publique sur le sujet de la protection des mineurs et des utilisateurs de manière plus générale.
Dispositif
Compléter cet article par la phrase suivante :
« Ils contribuent à l’information des enfants sur l'amplification des discriminations de genre engendrée par l'usage des écrans et réseaux sociaux. »
Art. ART. 4
• 19/01/2026
DISCUTE
Exposé des motifs
La protection des mineurs face aux réseaux sociaux ne peut reposer uniquement sur les algorithmes et les dispositifs techniques.
Il est indispensable de former les jeunes à la responsabilité de leurs actes derrière un écran, où l’anonymat apparent favorise trop souvent des violences verbales aux conséquences dramatiques.
Les comportements de cyberharcèlement peuvent détruire durablement des trajectoires de vie, conduire à des troubles psychiques graves, voire à des passages à l’acte irréversibles.
Cet amendement vise à inscrire explicitement dans l’éducation au numérique une pédagogie de la responsabilité, rappelant que les propos tenus en ligne engagent juridiquement leurs auteurs et peuvent entraîner des sanctions pénales.
Dispositif
Rétablir cet article dans la rédaction suivante :
« Le deuxième alinéa de l’article L. 312‑9 du code de l’éducation est ainsi rédigé :
« Cette formation comporte également :
« – une sensibilisation sur l’interdiction du harcèlement commis dans l’espace numérique, la manière de s’en protéger et les sanctions encourues en la matière ;
« – une sensibilisation à l’impact environnemental des outils numériques ainsi qu’un volet relatif à la sobriété numérique ;
« – une sensibilisation aux enjeux de protection de la santé mentale liés à l’usage des outils numériques, et notamment aux conséquences psychologiques d’une utilisation de services de réseaux sociaux en ligne ;
« – une éducation au respect d’autrui dans l’espace numérique, visant à responsabiliser les élèves sur les conséquences humaines, psychologiques, sociales et pénales des comportements malveillants en ligne, notamment les propos injurieux, diffamatoires, menaçants ou humiliants, ainsi que sur les poursuites judiciaires susceptibles d’en découler. »
Art. ART. PREMIER
• 19/01/2026
DISCUTE
Exposé des motifs
Le cyberharcèlement et les violences numériques sont largement facilités par la création de comptes anonymes ou frauduleux, utilisés pour contourner les règles, multiplier les attaques et échapper aux poursuites.
Cet amendement vise à responsabiliser les utilisateurs en imposant une vérification d’identité à la création des comptes, sans remettre en cause la liberté d’expression ni l’usage d’un pseudonyme public.
L’objectif est clair : mettre fin à l’impunité de ceux qui se cachent derrière de faux profils, tout en donnant aux autorités judiciaires les moyens d’agir efficacement contre les auteurs de violences numériques.
Dispositif
Après l’alinéa 9, insérer les deux alinéas suivants :
« I bis. – Les fournisseurs de services de réseaux sociaux en ligne mettent en œuvre un dispositif de vérification de l’identité des utilisateurs lors de la création d’un compte, reposant sur un document officiel d’identité ou un moyen d’identification électronique sécurisé reconnu par l’État, dans des conditions garantissant la protection des données personnelles.
« Cette vérification ne préjuge pas du nom d’usage affiché publiquement sur le réseau social, mais permet d’identifier l’auteur réel d’un compte en cas de comportement illicite ou malveillant. »
Art. APRÈS ART. 3
• 19/01/2026
DISCUTE
Exposé des motifs
La surexposition aux écrans constitue aujourd’hui un enjeu majeur de santé publique, particulièrement pour les enfants et les adolescents.
Les usages numériques intensifs et précoces sont associés à des effets désormais largement documentés : troubles du sommeil, sédentarité, obésité, anxiété, altération de l’attention, isolement social, exposition accrue à des contenus inadaptés ou violents, ainsi qu’au cyberharcèlement.
Dans ce contexte, il apparaît indispensable de renforcer les actions de prévention en amont, en impliquant directement les fabricants de dispositifs numériques. Ceux-ci jouent en effet un rôle déterminant dans la conception des interfaces et des usages, et doivent être pleinement associés à l’effort de prévention sanitaire.
Le présent amendement vise ainsi à inscrire, dès la conception des appareils, un message de prévention sanitaire visible par l’utilisateur, sans remettre en cause la liberté d’usage ni freiner l’innovation technologique.
À l’instar des messages de prévention existant dans d’autres domaines de santé publique, cette mesure repose sur une logique d’information et de responsabilisation. Elle constitue un levier simple, proportionné et efficace pour sensibiliser les utilisateurs — et en particulier les parents et les mineurs — aux risques liés à une consommation excessive des écrans, et contribuer à un environnement numérique plus protecteur et plus équilibré.
Dispositif
Tout dispositif numérique doté d’un écran et permettant l’accès à des contenus numériques ou à des services de communication au public en ligne intègre, dès sa conception, un dispositif d’information sanitaire relatif aux risques liés à la surexposition aux écrans.
Ce dispositif prend la forme d’un message de prévention sanitaire affiché sur l’écran d’accueil ou lors de la première activation quotidienne de l’appareil.
Ce message, conçu et intégré par le fabricant, est rédigé de manière claire, lisible et compréhensible par tous les publics. Il rappelle notamment que l’usage excessif des écrans a des effets nocifs sur la santé physique et mentale, en particulier chez les enfants et les adolescents.
Un décret précise les modalités d’application du présent article, notamment les conditions d’affichage, de fréquence et d’adaptation du message selon l’âge des utilisateurs.
Scrutins (0)
Aucun scrutin lié à ce texte.