← Retour aux lois
EPR

Protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux

Proposition de loi Adopté en commission
Voir la fiche sur assemblee-nationale.fr →

Répartition des amendements

Par statut

DISCUTE 19 IRRECEVABLE 3 IRRECEVABLE_40 2
Tous les groupes

Amendements (24)

Art. ART. PREMIER • 26/01/2026 DISCUTE
EPR

Exposé des motifs

Il s'agit de mettre en cohérence l'exposé des motifs du Gouvernement et le dispositif de l'article.

La seule exclusion des encyclopédies en ligne, des répertoires éducatifs ou scientifiques et des plateformes de développement et de partage de logiciels libres est une bonne chose, même si les définitions restent faibles. 

Pour autant, rien dans les mentions actuelles du DSA, assurent que les services conçus pour des enfants ne soient pas exclus par l'article 1 tel qu'il est nouvellement rédigé par l'amendement du Gouvernement.

C'est pourquoi il est proposé cet ajout.

Dispositif

Compléter l'alinéa 3 par les mots :

« ni aux services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes. »

Art. ART. PREMIER • 26/01/2026 DISCUTE
EPR

Exposé des motifs

Dans son avis rendu sur la présente proposition de loi, le Conseil d’État indique "qu’en raison de l’ampleur des définitions, l’interdiction générale et absolue d’accès des mineurs de moins de quinze ans aux réseaux sociaux en ligne est susceptible de s’appliquer […] à des services en ligne pour lesquels, à raison de leur contenu ou de leur mode de fonctionnement, il n’est justifié d’aucun risque sur la santé et la sécurité des mineurs, tels par exemple que […] des jeux en ligne proposant des espaces ou des fonctionnalités collaboratives et sociales".


En l'état, l'écriture proposée risque de créer par effet de bord l'interdiction aux mineurs de moins de 15 ans des jeux vidéo en ligne qui ne présentent pas de danger pour eux, leurs fonctionnalités sociales étant marginales. 


Ce sous-amendement permet ainsi de recentrer le présent texte de loi sur les services de réseau social en ligne qui présentent réellement un "danger pour l’épanouissement physique, mental ou moral des mineurs de quinze ans" ainsi que le préconise le Conseil d’État, tout en évitant d’inclure ceux qui n'en présentent objectivement aucun.

Dispositif

Compléter l'alinéa 2 par les mots :

« à moins que cette activité de réseau social ne constitue une fonctionnalité strictement accessoire de la plateforme en ligne. »

Art. ART. PREMIER • 26/01/2026 DISCUTE
EPR

Exposé des motifs

Il s'agit de laisser la possibilité aux plateformes et services de créer des dispositifs spécifiquement destinés aux jeunes et totalement sécurisés, plutôt que de laisser les mineurs se connecter aux seuls réseaux adultes, sans identification.

Il faut donc encourager les plateformes à créer des outils sécurisés et sécurisants pour les mineurs, spécifiques, et à autoriser leur accès dès lors que l’activité de réseau social n’est que strictement accessoire à la plateforme. 

 

Dispositif

Compléter l'alinéa 2 par les mots : 

« à moins que cette activité de réseau social ne constitue qu’une fonctionnalité strictement accessoire de la plateforme en ligne. »

Art. ART. PREMIER • 26/01/2026 IRRECEVABLE
EPR
Contenu non disponible.
Art. ART. PREMIER • 26/01/2026 DISCUTE
EPR

Exposé des motifs

Il y a un un consensus pour ne pas couper les mineurs des échanges interpersonnels avec leurs familles, notamment. Les messageries personnelles, même si elles intègrent des possibilités qui s'apparentent par certains aspects aux réseaux sociaux, sont une des conditions de la libre correspondance des mineurs, principe consacré dans les chartes internationales des droits de l'enfant.

Pour autant,  l’exposé des motifs précise le champ de l’exclusion de l’interdiction des réseaux sociaux aux moins de 15 ans en y incluant les messageries personnelles, le dispositif ne cite qu’expressément les encyclopédies en ligne, les répertoires éducatifs ou scientifiques et les plateformes de développement et de partage de logiciels libres. 

Il faut préserver ces possibilités d'échanges, de socialisation que sont les messageries personnelles, à la condition qu'elles soient bien régulées effectivement par l'Europe.

Dispositif

Compléter l'alinéa 3 par les mots : 

« ni aux services de messagerie privée fondés sur des échanges interpersonnels non publics. »

 

Art. TITRE • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Les données de santé publique France, comme celles de l'ANSES, étudient l'exposition au numérique, aux écrans, et ne fournissent aucune données discriminantes sur les seuls réseaux sociaux.

La PPL dans sa version issue de la Commission veut légiférer sur les plateformes de partage de vidéos en ligne, qui ne sont pas des réseaux sociaux, au sens du DSA. De même, elle veut interdire les smartphones dans les lycées qui ne servent pas exclusivement, ni même peut-être principalement à consulter les réseaux sociaux.

L'erreur avait déjà été faite de consacrer une commission d'enquête en ne visant qu'un seul réseau social, il serait dangereux d'inscrire dans la loi et son titre que seuls les réseaux sociaux présentent des risques pour les mineurs.

Il s'agit bien d'une éducation et d'une vigilance sur le numérique et les écrans à mettre en oeuvre. 

Dispositif

Rédiger ainsi le titre :

« visant à sensibiliser les mineurs aux risques auxquels les expose l’utilisation immodérée des écrans et des applications numériques ».

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Quelle forme prend cet accord ? En quoi est-il opposable ? comment est-il manifesté aux sites et services ? Comment peut on écrire la nature des contenus accessibles et ceux qui ne le seraient pas ?

Qui contrôle la durée maximale d'utilisation et les heures d'utilisation ? Il s'agit probablement d'un auto-contrôle ou d'un contrôle parental informel. En conséquence, doit-on écrire dans la loi un tel accord intra familial ?

 

Ou est-il envisagé un contrôle par les sites, services ou plateformes des durées d'utilisation des connexions ? d'un appareil ? D'une box partagée ? D'un wifi public ?

 

Si l'idée de maitriser les temps d'écran est louable, on ne peut rester sur un principe non opérationnel.

Cet alinéa doit être réécrit avec nécessairement un avis de la CNIL.

En complément du renforcement des obligations des réseaux sociaux et de l’obligation légale existante sur les terminaux depuis la loi Studer de 2022 (contrôle parental), les fournisseurs d’accès internet devraient également être intégrés à cette chaîne de responsabilités. 

La mise en place d’un contrôle d’accès via la connexion internet constitue un levier complémentaire juridiquement applicable et opérationnel. Ce dispositif pourrait reposer sur un mécanisme de blocage, pour les mineurs, de certains services ou contenus identifiés comme inadaptés par un décret en Conseil d’Etat. Il devrait couvrir l’ensemble des modalités de connexion, tant sur les réseaux mobiles (cartes SIM dédiées aux mineurs) que sur les accès fixes (box internet et réseaux wifi). 

L’intégration des opérateurs télécom dans ce dispositif permettrait d’aligner l’ensemble des acteurs de la chaîne numérique autour d’un objectif commun : 

les fabricants, responsables de l’intégration d’outils de contrôle parental dans les équipements ; 
les opérateurs, responsables de l’accès au réseau et de la mise en oeuvre de mécanismes de filtrage au niveau de la connexion ; 
les plateformes, responsables des contenus, des fonctionnalités et des mécanismes de recommandation. 

Cette approche présente un double avantage. D’une part, elle renforce l’effectivité de la protection des mineurs en multipliant les niveaux de sécurisation. D’autre part, elle évite de faire peser l’ensemble de la responsabilité sur un seul acteur, en organisant une responsabilité partagée et complémentaire entre tous les acteurs techniques de l’écosystème. 

Dispositif

Supprimer l'alinéa 8.

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Le présent amendement propose de réécrire l’article premier.

Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.

Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.

Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux. 

Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen.

Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.

Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure.  

Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L'utilisation de méthodes efficaces d'assurance de l'âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires.  Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».

Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 drèglement DS.

Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.

Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.

Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.

La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.

Dispositif

Substituer aux alinéas 5 à 10 les quatre alinéas suivants :

« Art. 6‑9. – I. – L’accès à un service de réseau social en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans.

« II. – Le présent article ne s’applique ni aux encyclopédies en ligne, ni aux répertoires éducatifs ou scientifiques ni aux plateformes de développement et de partage de logiciels libres.

« III. – L’Autorité de régulation de la communication audiovisuelle et numérique veille, dans les conditions prévues au chapitre IV du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) et aux articles 9‑1 et 9‑2 de la présente loi, au respect du présent article.

« Elle signale tout soupçon de manquement à l’interdiction prévue au présent article commis par des plateformes en ligne fournissant un service de réseau social en ligne établies dans d’autres États membres de l’Union européenne aux autorités compétentes pour faire respecter le Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 précité. »

II. – En conséquence, compléter l’alinéa 12 par les mots : 

« , y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française. Pour les comptes d’accès aux services de réseaux sociaux créés avant cette date, il s’applique dans un délai de quatre mois à compter de cette date ».

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Les réseaux sociaux peuvent être dangereux pour les mineurs : harcèlement, contenus choquants, manipulations, problèmes de santé mentale, incitations à se donner la mort et utilisation des données personnelles.
Pour protéger les mineurs, il est important de mettre en place des règles strictes. Cela permettra de garantir leur sécurité en ligne. Les plateformes, les parents, les mineurs et les autorités doivent tous être responsables.
Cet article vise à règlementer l'accès des mineurs aux réseaux sociaux, de les responsabiliser ainsi que leurs responsables légaux, de surveiller leur utilisation et de les sensibiliser aux dangers.

Dispositif

Entre 15 et 18 ans, lorsqu’un mineur s’inscrit sur un réseau social, il doit signer une charte de bonne conduite.

Au moins l’un des deux administrateurs légaux doit être impliqué dès l’inscription. Il est obligatoirement inscrit sur le compte de l’enfant et doit donner ses coordonnées.

Le parent signe également la charte et devient responsable du respect des règles.

En cas de non-respect et selon le degré de gravité, le mineur est exclu des réseaux jusqu’à ses 18 ans.

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Le principe d'une liste noire des services et plateforme s'il peut sembler robuste, sera nécessairement attaqué par les responsables de ces services ou plateformes, surtout si, comme dans cette proposition de loi, nous ne reprenons pas les définitions du DSA et notamment la discrimination par la taille des services et plateforme.

Cette non prise en compte des définitions du DSA est évidemment "nécessaire" pour ne pas montrer que cette PPL empiète sur les compétences exclusives de l'Union européenne.

Par cet amendement, il est proposé de mieux définir ce qui justifierait l'inscription sur une liste noire afin de montrer aux opérateurs qu'elle ne relève pas du simple arbitraire.

 

Cet amendement a été écrit avec le soutien de l'AFNUM et de Samsung.

Dispositif

Après l’alinéa 6, insérer les quatre alinéas suivants :

« Ce décret précise les critères pris en compte pour l’inscription des services sur la liste susvisée, qui doivent notamment avoir pour objet de tenir compte :

– des contenus que les services visés au premier alinéa du I rendent accessibles, des comportements et contacts qu’ils sont susceptibles de provoquer et des pratiques commerciales mises en œuvre par les services ;

– de l’impact que la nature et le paramétrage des systèmes de recommandation, notamment lorsqu’ils sont basés sur du profilage au sens de l’article 4 du règlement (UE) 2016/679, sont susceptibles d’avoir sur les mineurs de seize ans ;

– des mécanismes mis en place pour garantir un accès, des paramétrages et l’affichage de contenus adaptés aux mineurs de seize ans. »

Art. ART. 3 BIS • 22/01/2026 DISCUTE
EPR

Exposé des motifs

L’article 3 bis résulte a été introduit dans la proposition de loi en commission des affaires culturelles et de l’éducation. Il modifie le II de l’article L. 214‑1‑1 du code de l’action sociale et des familles, relatif aux obligations des personnes physiques ou morales qui assurent l’accueil du jeune enfant. Sept obligations sont énumérées, dont « [veiller] à la santé, la sécurité, au bien-être et au développement physique, psychique, affectif, cognitif et social des enfants qui leur sont confiés  ».

L’article 3 bis introduit une nouvelle obligation pour ces personnes : « [assurer] la protection du développement des enfants de moins de trois ans en leur évitant toute exposition aux écrans (smartphone, tablette, ordinateur, télévision)  ».

En réalité, cet article est déjà largement satisfait par la rédaction en vigueur de l’article L. 214‑1-1 précité, l’exposition aux écrans des enfants de moins de trois ans étant dangereuse pour leur santé, leur bien-être, leur développement physique, cognitif et social. C’est sur le fondement de cet article que le ministère de la santé s’est appuyé pour interdire l’exposition aux écrans dans tous les lieux d’accueil du jeune enfant : crèches, haltes-garderies, lieux d’accueil proposés par les assistants maternels. Cette interdiction a été édictée par un arrêté du 27 juin 2025 modifiant la charte nationale pour l’accueil du jeune enfant

Si l’intention poursuivie par la commission est parfaitement louable, il apparaît donc qu’elle est satisfaite par l’état du droit, c’est pourquoi le présent amendement propose de supprimer l’article 3  bis.

Dispositif

Supprimer cet article.

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Demander à l'ARCOM de publier et mettre à jour une liste indicative des services non interdits mais qui pourraient être préjudiciables au mineurs ou à certains d'entre eux est assurément digne de Sysiphe.

A ce stade la proposition de loi se focalise, sans les définir sur les plateformes de partage de vidéos ou sur les réseaux sociaux, mais cela pourrait aussi concerner les sites internet qui ne cessent d'innover, de solliciter des inscriptions et de proposer des contenus personnalisés. En effet, faute de définition robuste, qui existent pourtant au niveau européen, la proposition pourrait conduire à un travail titanesque.

D'après les données de 2024, 48,6 millions de nouveaux sites web ont été créés cette année. Cela représente environ 177 372 sites par jour. Environ 5,34 % de tous les sites web sont considérés comme nouveaux et ont été créés en 2024. Le total des sites internet reste stable depuis quelques années pour atteindre presque deux milliards de sites dans le monde. A l'heure de la traduction automatique par l'intelligence artificielle, on peut estimer que cet alinéa demandera donc à l'ARCOM de surveiller près de 50 millions de nouveaux sites tous les ans.

SI l'on en reste aux seuls services de plateforme de partages de vidéos, le secteur audiovisuel européen comprend 12 955 services de médias audiovisuels et plateformes de partage de vidéos (décembre 2024) disponibles au sein de l’Europe élargie. Environ trois quarts d’entre eux sont des services linéaires (9 536 chaînes de télévision) et un quart des services non linéaires (3 419 services de VOD et plateformes de partage de vidéos). Ce contrôle ne peut être qu'européen, mais ce n'est pas ce qui est proposé ici.

Par ailleurs la dangerosité d'un site peut être lié à son contenu, à son algorithme, mais aussi voire surtout au temps passé dessus. Tous les sites et services sont donc potentiellement préjudiciables.

De surcroit en précisant "à certains d'entre eux", cela peut concerner tous les mineurs victimes d'épilepsie photosensible qui sont fortement impactés par les stimulii visuels sur les écrans. En France , environ 600 000 personnes sont épileptiques, dont la moitié a moins de 20 ans. Toutes ne sont pas photosensibles, mais chaque service numérique est donc potentiellement préjudiciable.

Il revient donc de supprimer ou de réécrire cet alinéa.

Dispositif

Supprimer l’alinéa 9.

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Comme le rappelle l'article 1146 du code civil : « Sont incapables de contracter [...] les mineurs non émancipés », un mineur ne peut donc pas conclure un contrat.

Il est "dangereux" d'inscrire dans cette proposition que les contrats conclus avant la date d'entrée en vigueur de cette loi ne seraient plus valables à l'expiration d'un délai de six mois. Ces contrats sont d'ores et déjà nuls et non avenus.

Dans les faits, la proposition de loi aboutit à un contrat entre le mineur et ses administrateurs légaux. 

Rappelons le dispositif proposé : un mineur ne pourrait s'inscrire sur un site qui est listé par un décret du Conseil d'Etat pris après avis de l'ARCOM. Et par un esprit de responsabilité tout à fait inouï des services et plateformes, elle s'interdirait d'accepter ce mineur sur leur plateforme, sans obligation de vérifier leur âge, leur identité, ni même l'accord des parents. Car aucun dispositif n'est prévu dans cette proposition de loi pour le faire.

L'éventuelle sanction serait d'interdire ces services et plateformes sur le territoire national, méconnaissant que c'est une compétence de l'Union, que ce serait contraire aux droits de l'enfant et donc probablement non constitutionnel. Ou plus probablement on interdirait ces réseaux et services pour tous les citoyens, majeurs comme mineurs. C'est dans les faits ce qui s'est passé pour des sites pornographiques qui ne vérifiaient pas réellement les conditions d'âge. La pornographie est encadrée et l'exposition des mineurs interdite. Ce n'est assurément pas le cas du partage de vidéos ou de l'usage de réseaux sociaux.

A ne prévoir aucun dispositif pour vérifier l'âge ou pour limiter l'accès aux services de plateformes ou de réseaux, il n'y a assurément nul contrat, passé, présent ou futur. Cette proposition n'inscrit aucune obligation nouvelle pour les plateformes, mais invitent, incitent les mineurs à ne pas s'inscrire sur ces plateformes et à leurs seuls administrateurs légaux de s'en assurer. 

 

Par ailleurs, on pourrait éventuellement s'interroger sur l'accès aux réseaux et services de plateforme des mineurs anticipés.

Dispositif

Supprimer l’alinéa 10.

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Le présent amendement propose de réécrire l’article premier.

Depuis plusieurs années, les pouvoirs publics sont engagés dans une action continue de protection des mineurs face aux risques avérés et documentés liés à l’usage de certains services numériques. Cette priorité s’est traduite au niveau européen par l’adoption du règlement du 19 octobre 2022 relatif à un marché unique des services numériques (règlement DSA), puis, au niveau national, par l’adoption de la loi du 21 mai 2024 visant à sécuriser et réguler l’espace numérique, qui a notamment permis la mise en place de dispositifs de vérification de l’âge pour l’accès à certains contenus. Dans la continuité de cette dynamique, la protection de l’enfance en ligne appelle désormais l’instauration d’un âge minimal pour l’accès aux réseaux sociaux.

Les services de réseaux sociaux en ligne constituent aujourd’hui un média d’audience massive auprès des jeunes et concentrent, à ce titre, des risques particulièrement élevés pour les enfants. Les travaux parlementaires menés sur le sujet, ainsi que le rapport de la commission d’experts « Écrans » remis en avril 2024, ont mis en évidence les menaces spécifiques que ces services font peser sur le développement, la santé et le bien-être des enfants et des adolescents. L’avis rendu le 16 décembre 2025 par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail apporte à cet égard un éclairage déterminant pour fonder et justifier la présente politique publique. Il souligne que les risques associés aux réseaux sociaux ne tiennent pas uniquement aux contenus auxquels les mineurs peuvent être exposés, mais résultent également, de manière structurelle, de la conception même de ces services. Fondés sur des modèles économiques reposant sur la captation et la maximisation de l’attention des utilisateurs, les réseaux sociaux recourent à des mécanismes tels que la diffusion de contenus audiovisuels courts, l’enchaînement algorithmique de recommandations, les effets de spirale, les logiques de ciblage comportemental ou encore certaines modalités d’interaction sociale, qui peuvent exploiter les fragilités des utilisateurs, en particulier des plus jeunes. Le rapport de l’ANSES qualifie explicitement cette « conception comme source de risque ». Ces constats mettent en évidence que les risques liés aux réseaux sociaux vont bien au-delà des seules problématiques de contenus et concernent également les comportements en ligne, les interactions sociales, le profilage commercial, ainsi que les phénomènes de harcèlement, de cyberharcèlement, d’extorsion ou de manipulation. Les travaux de l’ANSES rejoignent en cela, dans des termes similaires, les conclusions de la mission « Enfants et écrans » de 2024, en soulignant que la logique de maximisation de l’engagement peut conduire à des parcours d’usage marqués par des effets de renforcement et de polarisation, exposant progressivement les utilisateurs à des contenus plus extrêmes ou plus clivants. Ces analyses convergent enfin avec celles formulées par plusieurs organisations internationales, notamment Amnesty International dans son rapport d’octobre 2025, confirmant le caractère systémique de ces risques et le rôle déterminant joué par l’architecture et les fonctionnalités mêmes des plateformes dans leur survenance, en particulier s’agissant des mineurs.

Dans le cadre du dialogue engagé avec la Commission européenne, l’adoption des lignes directrices relatives à l’application de l’article 28 du règlement DSA en matière de protection de l’enfance en ligne a consacré la pleine légitimité d’un État membre à fixer, dans son droit national, un seuil d’âge minimal pour l’accès à un réseau social. C’est sur ce fondement que le présent amendement propose de réécrire l’article 1er de la proposition de loi afin d’instaurer en France une règle générale fixant à 15 ans l’âge minimal pour accéder aux services de réseaux sociaux, dans le respect du cadre européen. 

Cette mesure poursuit un objectif de protection de l’enfance en ligne sans porter une atteinte disproportionnée à la liberté d’information des mineurs concernés, lesquels conservent un accès large à internet et peuvent notamment recourir aux moteurs de recherche pour consulter des sites dont les contenus sont publiés sous la responsabilité éditoriale de leurs éditeurs et légalement accessibles aux mineurs, lire des articles de presse, consulter des blogs, visionner des contenus audiovisuels proposés par des éditeurs de médias ou par des plateformes de partage de vidéos, écouter des programmes radio ou encore s’abonner à des lettres d’information. En outre, les informations diffusées par les éditeurs de presse et de médias sur leurs comptes de réseaux sociaux sont, dans la très grande majorité des cas, initialement publiées et librement accessibles sur leurs propres sites internet, auxquels les mineurs peuvent continuer d’accéder sans restriction. Ces services constituent des sources d’information alternatives et substituables aux réseaux sociaux.

Par ailleurs, l’interdiction instituée par le présent amendement ne couvre pas l’ensemble des plateformes en ligne : les encyclopédies collaboratives en ligne, les répertoires éducatifs ou scientifiques, les plateformes de développement et de partage de logiciels libres, les services spécifiquement conçus pour un public mineur et dépourvus de fonctionnalités sociales ouvertes, ainsi que les services de messagerie privée fondés sur des échanges interpersonnels non publics, demeurent expressément exclus du champ de l’interdiction.

Afin de garantir l’effectivité de la règle posée par le présent amendement et d’éviter tout contournement par des effets de report, le champ d’application de l’interdiction est défini au plus près des usages réels des services numériques par les mineurs. Sont ainsi naturellement visés les principaux services de réseaux sociaux en ligne largement utilisés par les adolescents. Toutefois, le dispositif ne se limite pas à ces seules plateformes : il vise également les services qui, indépendamment de leur qualification commerciale, présentent les critères et fonctionnalités caractéristiques des réseaux sociaux, notamment lorsqu’ils permettent la création de comptes, l’interaction entre utilisateurs, la diffusion publique ou semi-publique de contenus ou la participation à des communautés d’utilisateurs. Peuvent ainsi être concernés des services lorsqu’ils permettent des interactions publiques, certaines fonctionnalités semi-publiques de services de messagerie instantanée, à l’exclusion stricte de la messagerie privée, ainsi que les fonctionnalités sociales intégrées à certains jeux vidéo en ligne lorsque ces fonctionnalités exposent les utilisateurs à des risques avérés en matière de contacts, de contenus ou d’interactions.

Les services de réseaux sociaux se fondent aujourd’hui majoritairement sur des déclarations d’âge, aisément contournables et insuffisantes pour garantir une protection effective des mineurs. Afin d’assurer l’effectivité de l’interdiction prévue par le présent amendement, le présent amendement s’inscrit dans le cadre européen posé par les lignes directrices de l’article 28 du DSA. La Commission considère que le recours à des restrictions d’accès fondées sur des méthodes de vérification de l’âge constitue une mesure appropriée et proportionnée pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs, pour divers services qui présentent un risque élevé pour les mineurs, et notamment lorsque le droit de l’Union ou le droit national fixe un âge minimal pour accéder à certains produits ou services, dont les services de réseaux sociaux en ligne. En établissant cet âge minimal à 15 ans, cet amendement s’inscrit dans ce cadre : les plateformes devront mettre en œuvre des dispositifs de vérification d’âge pour assurer l’effectivité de cette mesure. 

Ces lignes directrices fixent également à l’échelle européenne les critères attendus de conception des outils de vérification et d’estimation d’âge pour garantir l’équilibre entre le respect de la vie privée, la protection des données personnelles des utilisateurs et la robustesse de la vérification de l’âge. L’utilisation de méthodes efficaces d’assurance de l’âge devra être conforme aux principes posés par les lignes directrices : être précises, fiables, robustes, non intrusives et non discriminatoires. Plusieurs technologies peuvent être envisagées pour garantir la sécurité de l’usager, comme les tiers de confiance ou les « zero-knowledge proof ».

Les dispositifs d’assurance de l’âge devront être opérationnels à la date d’entrée en vigueur de la loi et conformes aux critères techniques définis par les lignes directrices adoptées par la Commission européenne pour l’application de l’article 28 du règlement DSA.

Il existe déjà un écosystème d’outils et des technologies d’estimation ou de vérification d’âge, qui sont, pour certains, utilisés sur d’autres services que les services de réseau social pour vérifier l’accès à ces sites ou pour limiter l’accès à certains contenus préjudiciables. Des solutions d’estimation d’âge sont ainsi utilisées sur des sites à caractère pornographique ou sur certains services de réseaux sociaux pour limiter l’accès à des contenus qui présentent des risques élevés pour les mineurs.

Complémentairement à cet écosystème, ces exigences s’inscrivent dans une dynamique européenne plus large visant à développer des solutions techniques à la fois protectrices et interopérables. À ce titre, des travaux sont conduits au niveau européen, notamment dans le cadre d’expérimentations initiées par la Commission, auxquelles la France participe activement en tant que pays pilote. Ces travaux portent en particulier sur le dispositif dit de « mini-wallet », destiné à permettre la transmission d’un signal d’âge strictement limité à l’atteinte ou non du seuil requis, sans communication de données d’identité supplémentaires. L’objectif est une mise à disposition de ce dispositif auprès du public à l’horizon 2026.

Concrètement, le présent amendement procède ainsi à une réécriture générale de l’article 1er de la proposition de loi. Il vise à insérer un nouvel article dans la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique afin d’établir l’interdiction d’accès aux réseaux sociaux pour les mineurs de moins de quinze ans, conformément au cadre fixé par le règlement DSA et par les lignes directrices de la Commission européenne relatives à son article 28.

La catégorie des réseaux sociaux visés par la règle d’interdiction est définie par référence aux définitions portées par le droit de l’Union au sein du règlement DSA ainsi que du règlement du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique, dit règlement DMA (Digital Markets Act). Le dispositif prévoit par ailleurs une disposition expresse pour le traitement des comptes de réseaux sociaux créés avant la date d’entrée en vigueur de la loi et exclut du champ d’application les encyclopédies et répertoires en ligne éducatifs à but non lucratif. Le régime de sanction est strictement placé dans le cadre de gouvernance du règlement DSA, en confiant la mission de contrôle à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM), dans les conditions prévues par la loi dite « SREN » et par les prérogatives qui sont les siennes au titre du règlement DSA.

Dispositif

Substituer aux alinéas 5 à 10 les quatre alinéas suivants :

« Art. 6‑9. – I. – L’accès à un service de réseau social en ligne fourni par une plateforme en ligne est interdit aux mineurs de quinze ans.

« II. – Le présent article ne s’applique ni aux encyclopédies en ligne, ni aux répertoires éducatifs ou scientifiques ni aux plateformes de développement et de partage de logiciels libres.

« III. – L’Autorité de régulation de la communication audiovisuelle et numérique veille, dans les conditions prévues au chapitre IV du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) et aux articles 9‑1 et 9‑2 de la présente loi, au respect du présent article.

« Elle signale tout soupçon de manquement à l’interdiction prévue au présent article commis par des plateformes en ligne fournissant un service de réseau social en ligne établies dans d’autres États membres de l’Union européenne aux autorités compétentes pour faire respecter le Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 précité. »

II. – En conséquence, compléter l’alinéa 12 par les mots : 

« , y compris à Wallis-et-Futuna, en Nouvelle-Calédonie et en Polynésie française. Pour les comptes d’accès aux services de réseaux sociaux créés avant cette date, il s’applique dans un délai de quatre mois à compter de cette date ».

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Dans son rapport d'initiative sur la protection des mineurs en ligne, le Parlement européen s'est largement exprimé en faveur de l'introduction d'une majorité numérique harmonisée au niveau européen,  avec deux bornes d'âge : interdiction d’accès aux réseaux sociaux en dessous de 13 ans, possiblement étendue à d’autres plateformes « à risque » (partage vidéo, chatbots, assistants IA, etc.) ; et accès autorisé aux réseaux sociaux et autres plateformes à risque uniquement via le contrôle parental entre 13 et 16 ans.

Ce rapport a été largement adopté grâce au travail conséquent notamment de la députée européenne, Stéphanie Yon-Courtin.

Ces bornes d'âge correspondent au cadre règlementaire européen existant, à savoir le RGPD qui fixe à 16 ans l'âge par défaut au-delà duquel un enfant peut consentir seul au traitement de ses données personnelles pour les services en ligne, sans l'autorisation parentale. Ces bornes d'âge correspondent également aux conditions générales d'utilisation de la plupart des plateformes de réseaux sociaux, qui interdisent déjà en principe l'inscription aux personnes âgées de moins de 13 ans.

Ces propositions s'inscrivent dans le cadre des travaux en cours au sein de la Commission européenne, qui s'est engagée à faire au cours de l'année à venir des propositions dans le sens d'une majorité numérique européenne. Dans ce cadre, la Commission prévoit de mettre en place et réunir très prochainement un panel d'experts dédié à la majorité numérique. Ce groupe d'experts est censé fournir des recommandations sur la définition des bornes d'âge et l'identification des plateformes et services numériques qui devraient être soumis à une restriction d'accès liée à l'âge.

Par ailleurs, le contrôle d'âge et d'identité, par la mise en place d'une identité numérique européenne est en cours.

Cet amendement est là aussi pour rappeler que les avancées sur le contrôle du numérique, dans toutes ses dimensions, sont européennes. La France a été motrice dans la mise en place de ces règlementations. Il est étonnant aujourd'hui de voir le Sénat et l'Assemblée par deux propositions et le Gouvernement par un théorique projet de loi vouloir légiférer au seul niveau national, sans les moyens légaux et techniques de cette ambition.

Dispositif

À l’alinéa 5, substituer aux mots :

« quinze ans » 

les mots :

« treize ans ».

Art. ART. 4 BIS • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Introduit en commission, l'article 4 bis vise à insérer de nouvelles obligations de prévention aux représentants légaux, aux fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France et aux fournisseurs de téléphone mobiles et autres équipements terminaux de communications électroniques connectés à internet. Le fait d'imposer de nouvelles obligations à ces acteurs pourrait être de nature à contrevenir au Digital service act et au droit de l'UE. 

En sus, attribuer des missions de prévention et de sensibilisation aux fournisseurs sur leur propres services peut susciter des réserves. Confier ces missions à des institutions publiques et/ou indépendantes pourrait sembler plus adapté. 

C'est pourquoi le present amendement prévoit la suppression du nouvel article 4 bis. 

Dispositif

Supprimer cet article.

Art. APRÈS ART. 7 • 22/01/2026 IRRECEVABLE
EPR
Contenu non disponible.
Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Cet amendement vise à définir plus précisément le périmètre d’application du texte en excluant les plateformes de partage de vidéos des obligations imposées aux réseaux sociaux par cet article. Le Conseil d’Etat recommande en effet dans son avis de se référer aux définitions établies par le Règlement sur les services numériques et le Règlement sur les marchés numériques. Le recours aux définitions du Règlement sur les services numériques et du Règlement sur les marchés numériques permet d’appliquer une qualification dite distributive: plateforme de partage de vidéos pour une partie du service et réseau social pour l’autre partie.


Le modèle de ces plateformes est par ailleurs significativement différent de celui des réseaux sociaux: si elles reposent également sur la monétisation de contenus, il ne peut leur être imputé ce qui est principalement reproché aux réseaux sociaux comme TikTok, Instagram ou Snapchat, les fonctionnalités sociales invasives et le défilement continu. Les plateformes comme YouTube, Dailymotion ou Vimeo constituent en outre un répertoire de ressources pédagogiques auxquelles les professeurs renvoient largement leurs élèves pour parfaire leurs connaissances.


Dans son ouvrage The Anxious Generation, le chercheur et psychologue social Jonathan Haidt, relève que YouTube est souvent utilisé pour la consommation de contenu (apprendre, regarder des tutoriels ou des vidéos longues) plutôt que pour la comparaison sociale constante et la recherche de validation (likes, commentaires sur son propre physique) qui caractérise les réseaux sociaux d'image.

Par ailleurs, lors de premières évaluations avec l'entreprise Google, responsable du service YouTube, présente en Australie, il apparait que l'interdiction d'accès aux mineurs a abouti à un effet paradoxal. Faute d'identifications spécifiques, YouTube ne peut plus protéger les mineurs de contenus susceptibles de nuire à leur épanouissement physique, mental ou moral.

En effet, ces services sont accessibles avec inscription et processus de vérification d'âge protégeant ainsi les mineurs. Faute d'inscription ou inscription "frauduleuse" comme majeur, tous les contenus deviennent accessibles.

Le mineur ne pourra plus créer un profils spécifique et protecteur sur ces plateformes. Il lui restera à accéder avec le profil de ses parents ou de son foyer ou de la box familiale. 

Les applications Lemon8 et yope, qui ne sont pas concernées par l’interdiction à ce stade en Australie, ont grimpé en flèche dans les classements des téléchargements . Selon Meta, de nombreuses applications n’offrent pas les mêmes fonctionnalités de sécurité que les siennes, comme les comptes spécifiques aux adolescents.



Cet amendement a été écrit avec le soutien de YouTube, filiale de Google-Alphabet.

Dispositif

I. – À l’alinéa 5, supprimer les mots :

« à un service de plateforme de partage de vidéos au sens de l’article 2 de la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication ou ».

II. – En conséquence, à l’alinéa 7, supprimer les mots :

« d’un service de plateforme de partage de vidéos ou »

Art. APRÈS ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Depuis la loi du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, dite Loi Studer,  les fabricants d'appareils connectés (smartphones, tablettes...) sont obligés d'installer un dispositif de contrôle parental et de proposer son activation gratuite lors de la première mise en service de l'appareil..

Les décrets sont tous parus et cette loi n'est active depuis un peu plus d'un an. A ce stade, les fabricants d'appareils réunis notamment par l'AFNUM (Alliance française des industries du numérique) ont rempli leurs obligations mais n'ont pas encore le recul pour donner des statistiques de réelle mise en place de ce contrôle parental. Soulignons aussi leur travail avec Internetsanscrainte.fr, e-enfance, Tralalère et autres réseaux associatifs qui font de l'éducation et de la sensibilisation au numérique.

Il est proposé par cet amendement d'étendre ce devoir d'information aux fournisseurs d'accès qui eux sont par nature français.

Des dispositifs techniques de contrôle d'accès à partir de la connexion internet (sim mineurs et box internet) peuvent être mis en place et seraient compatibles avec la règlementation européenne et ses lignes directrices. 

Cela nécessite un temps de travail, une concertation et une inscription dans un projet de loi, qui irait bien au-delà de cette proposition de loi. Des députés ont proposé ce type d'amendement, qui ont été rejetés en Commission, devant être retravaillés.

C'est une piste sérieuse et opérante. A ce stade dans la rédaction de l'article 1 réécrit par le Conseil d'Etat, nous pourrions arriver à ce que des plateformes de partage de vidéos  et des services de réseaux sociaux arrivent à devenir inaccessibles à tous les utilisateurs d'une même connexion internet partagée, singulièrement dans les wifis publics.

Dispositif

Le n du I de l’article L. 33‑1 du code des postes et des communications électroniques est complété par deux phrases ainsi rédigées : 

« Cette information doit systématiquement prévoir la mise en œuvre du contrôle parental sur les communications électroniques pour tous les contrats personnels qui pourraient être mis à disposition par l’utilisateur à un mineur. Cette information doit aussi mentionner les risques liés à l’utilisation prolongée des terminaux et tous les outils de communication électronique. »

Art. ART. PREMIER • 22/01/2026 DISCUTE
EPR

Exposé des motifs

Cet article issu des travaux de la Commission est radicalement différent de sa version initiale écrite dans la proposition de loi. La rapporteure a assuré que c'était une version réécrite par le Conseil d'Etat que la Présidente de l'Assemblée avait interrogé.

Une proposition de loi adoptée par le Sénat et un projet de loi porté par le gouvernement sur le même sujet sont annoncés. Il serait assurément plus utile de passer par un projet de loi.

En effet, pour avoir déjà adopté plusieurs lois non conformes à la règlementation européenne, seule compétente en la matière, il semble plus raisonnable et efficient de partir d'un projet de loi, avec une étude d'impact sérieuse, que d'une fragile proposition de loi, qui serait une fois encore inopérante.

De plus, la directive européenne et surtout les lignes directrices, qui ont tardé à être publiées, semblent beaucoup plus robustes et opérationnelles que cette proposition de loi. Il serait pertinent que cette proposition devienne une résolution et que cette résolution soit partagée avec plusieurs parlements nationaux, de plusieurs Etats membres.

Si nous voulons accélérer la mise en oeuvre d'une réelle protection des mineurs en ligne, c'est soit en écrivant du droit national robuste et ce n'est assurément pas le cas de cette proposition, soit en accélérant au niveau européen à la réelle mise en oeuvre de toutes les mesures qui pourraient s'imposer aux grandes plateformes et réseaux visés par cette proposition.

Le règlement européen sur les services numériques (DSA) a posé un cadre commun et harmonisé. Il consacre la protection des mineurs comme une exigence centrale, mais il réserve à l’Union européenne la définition des obligations directes pesant sur les plateformes. Dans son avis du 8 janvier 2026, le Conseil d’État a rappelé que le législateur national ne peut, sans risque juridique majeur, imposer seul de nouvelles contraintes aux fournisseurs de réseaux sociaux.

Cette proposition de loi et cet article 1 réécrit fait le choix de faire porter la responsabilité sur les mineurs et leurs parents est maladroit pour le moins, voire dangereux.

En effet, on a "vendu" cette proposition de loi comme protégeant les mineurs de quelques dangereux réseaux tout en les laissant accéder à des réseaux ou services éthiques, sans définir ni les premier ni les seconds. On assure dans les médias qu'il y aura un contrôle d'age, qui n'est pas prévu par ce texte.

A ce stade, par analogie avec le tabac, nous ne demandons plus aux débitants de tabac de ne pas en vendre aux mineurs. Ici, nous demandons aux mineurs de ne pas en acheter et à leurs parents de s'en assurer.

 

Une fois de plus nous aurons légiférer avec une promesse d'agir, et nous ne tiendrons pas cette promesse.

 

Dispositif

Supprimer cet article.

Art. APRÈS ART. 7 • 22/01/2026 IRRECEVABLE
EPR
Contenu non disponible.
Art. APRÈS ART. 7 • 22/01/2026 IRRECEVABLE_40
EPR
Contenu non disponible.
Art. APRÈS ART. PREMIER • 22/01/2026 IRRECEVABLE_40
EPR
Contenu non disponible.
Art. ART. 6 • 21/01/2026 DISCUTE
EPR

Exposé des motifs

Rédactionnel.

L’article 6 n’a pas pour objet d’introduire à l’article L. 511‑5 du code de l’éducation une interdiction générale et absolue de l’utilisation du téléphone mobile au sein des lycées. Comme cela est déjà prévu aujourd’hui pour les collèges, le règlement intérieur des lycées pourra déroger à cette interdiction dans certaines circonstances, notamment les usages pédagogiques, et dans certains lieux. Les exceptions en vigueur seront donc maintenues, en plus de celles qui s’appliquent aux étudiants qui relèvent de l’enseignement supérieur.

À l’issue de l’adoption de la proposition de loi, la rédaction du premier alinéa de l’article L. 511‑5 du code de l’éducation sera la suivante : « L’utilisation d’un téléphone mobile ou de tout autre équipement terminal de communications électroniques par un élève est interdite dans les écoles maternelles, les écoles élémentaires, les collèges et les lycées et pendant toute activité liée à l’enseignement qui se déroule à l’extérieur de leur enceinte, à l’exception des circonstances, notamment les usages pédagogiques, et des lieux dans lesquels le règlement intérieur l’autorise expressément. Dans les lycées dispensant des formations de l’enseignement supérieur, le règlement intérieur peut déroger à cette interdiction pour les étudiants. »

Dispositif

À l’alinéa 4, substituer aux mots :

« disposant de »

les mots : 

« dispensant des ».

Scrutins (0)

Aucun scrutin lié à ce texte.