← Retour aux lois
EPR

Protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux

Proposition de loi adoptée
Voir la fiche sur assemblee-nationale.fr →

Répartition des amendements

Par statut

DISCUTE 20 IRRECEVABLE 13
Tous les groupes

Amendements (33)

Art. ART. PREMIER • 13/01/2026 DISCUTE
ECOS

Exposé des motifs

L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 

Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 

Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.

L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 

La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.

C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Dispositif

Au sixième alinéa, substituer au mot :

« quinze »

le mot :

« treize ».

Art. ART. PREMIER • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. ART. PREMIER • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. PREMIER • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. 3 • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. 3 • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du Groupe Écologiste et Social vise à interdire le profilage des mineurs par les plateformes, à partir de leurs données générées lors de l’utilisation des services de médias sociaux, à des fins de personnalisation des contenus proposés.

Le « profilage » est définit par le RGPD comme « toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique ». 

Le profilage permet aux plateformes d’adapter leurs contenus en fonction des utilisateurs afin de proposer un contenu personnalisé. Le contenu offert étant adapté à ces profils, il est davantage addictogène. L’addiction aux réseaux sociaux, qui entraine une surexposition aux écrans, est nuisible pour le bon développement psychosocial et physiologique des enfants. Les enfants et adolescent étant les plus sensibles aux contenus addictogènes du fait de leur immaturité émotionnelle et psychique, ils doivent en être protégés. 

Par ailleurs, les plateformes tirent des bénéfices de la revente de données personnelles concernant des mineurs, ce qui n’est pas acceptable. Il faut donc interdire le profilage par les réseaux sociaux concernant les mineurs. 

Dispositif

La section 3 bis du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, est complétée par un article 6‑11 ainsi rédigée :

« Art611. – Il est interdit pour les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France de réaliser des profilages pour les mineurs. 

« Le fait pour un fournisseur de services de réseaux sociaux en ligne de ne pas satisfaire aux obligations prévues au II bis est puni d’une amende ne pouvant excéder 3 % de son chiffre d’affaires mondial pour l’exercice précédent. »

Art. APRÈS ART. 3 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du Groupe Écologiste et Social vise à renforcer la protection des mineurs face à l’exposition précoce aux écrans en étendant l’interdiction de la publicité destinée aux enfants de moins de 14 ans pour les téléphones portables à l’ensemble des équipements dotés d’un écran : téléphones, tablettes, ordinateurs, téléviseurs, montres connectées et dispositifs assimilés.

La publicité promouvant ces appareils ou leur usage n’est pas encadrée, notamment en ce qui concerne la publicité visant directement les mineurs. Cette libre publicité de ces appareils vient en contradiction avec les injonctions parentales, scolaires et sanitaires.

Interdire la publicité visant les mineurs de moins de 14 ans vise à réduire l’influence sur un public vulnérable face à ces sollicitations.

La disposition est reprise d’une proposition du groupe sénatorial Groupe Écologiste – Solidarité et Territoires.

Dispositif

À l’article L. 5231‑3 du code de la santé publique, après le mot : « mobile », sont insérés les mots : « , d’un ordinateur, d’une tablette, d’une montre connectée, d’un téléviseur ou d’un produit assimilé ».

Art. ART. 4 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du Groupe Écologiste et Social vise à élargir les thématiques abordées dans les actions de formation et de sensibilisation des élèves concernant leurs usages des écrans, des plateformes de réseaux sociaux et, plus largement, des services numériques fondés sur des mécanismes de captation de l’attention.

Il s’agit notamment de permettre une sensibilisation au fonctionnement de ces plateformes, reposant sur les algorithmes et les principes de l’économie de l’attention. Une compréhension approfondie de ces mécanismes, ainsi que de leur emprise sur les utilisateurs, est essentielle pour aider les élèves — futurs adultes — à mieux appréhender les logiques à l’œuvre au sein des plateformes numériques, qu’il s’agisse de réseaux sociaux ou d’autres services.

Cette meilleure connaissance des stratégies déployées par les acteurs du numérique doit ainsi contribuer à former de jeunes utilisateurs capables de développer un usage critique, éclairé et responsable des outils numériques. 

Dispositif

Compléter cet article par l’alinéa suivant : :

« – une sensibilisation aux fonctionnements des algorithmes, de l’économie de l’attention et des impacts cognitifs de l’usage excessif des écrans. »

Art. APRÈS ART. 3 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Lors des auditions menées par Madame la Rapporteure, les associations nous ont interpellé sur l’existence de dispositifs facilitant l’exposition des jeunes enfants à des écrans via des fixations pour poussettes ou lits pour enfants. Ces dispositifs contribuent à l’accroissement de l’exposition de plus en plus précoce des enfants aux écrans, contrevenant de fait aux recommandations des autorités sanitaires interdisant l’exposition aux écrans pour les enfants de moins de 3 ans et de façon limitée pour les moins de 6 ans.

Ces dispositifs sont en libre accès sur les plateformes de vente en ligne (voir par exemple : https ://www.amazon.fr/Jan %C3 %A9-Smartphone-Poussettes-Multi-Positions-Installation/dp/B0DSJKQ47X/ref=sr_1_6 ?hvexpln=0&hvocijid=4917659963122211468--&hvqmt=e&mcid=a3a4fac8aa8c3edab414990be58bbc74)

Les outils qui ont explicitement et systématiquement pour vocation de favoriser le temps d’écran des enfants, souvent les plus jeunes, malgré le consensus scientifique sur leur dangerosité doivent être interdits. C’est l’objet de cet amendement. 

Dispositif

Après le livre VI de la troisième partie du code de la santé publique, il est inséré un livre VI bis ainsi rédigé :

« Livre VI bis

« Prévention des risques liés à l’exposition des jeunes enfants aux écrans numériques

« Titre unique

« Chapitre unique

« Art. L. 3632‑1. – A compter du 1er septembre 2026, sont interdites la fabrication, l’importation, l’exportation et la mise sur le marché à titre onéreux ou gratuit d’appareils permettant à titre principal de mettre à disposition des enfants des smartphones, tablettes, ordinateurs, télévisions ou tout autre appareil numérique disposant d’un écran. »

Art. ART. 3 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Comme l’attestent les conclusions du rapport « Enfants et écrans : à la recherche du temps perdu », un consensus scientifique se dégage sur les conséquences néfastes des écrans sur plusieurs aspects de la santé des enfants et des adolescents. L’utilisation des réseaux sociaux contribue directement et indirectement à favoriser les déficits de sommeil, la sédentarité, le manque d’activité physique ou encore l’obésité.

À cela s’ajoutent tous les dangers auxquels s’exposent les mineurs, en matière de pornographie et d’extrême violence, exacerbés par la logique financière de certains réseaux sociaux, reposant sur une machine algorithmique, conçue pour capter l’attention et enfermer l’utilisateur dans des contenus similaires. Le rapport de la commission d’enquête sur les effets psychologiques de tik tok sur les mineurs a mis en évidence la stratégie des plateformes qui favorisent par des mécanismes de viralisation des contenus problématiques, ou encore la diffusion de contenus problématiques, la diffusion d’idéologies politiques négatives et contraires aux droits humains.

Pourtant, de nombreux parents ignorent encore aujourd’hui les risques liés à l’exposition de leurs enfants aux réseaux sociaux.

Cet amendement vise donc à s’assurer que les plateformes s’engagent à informer et à sensibiliser sur les risques existants à l’utilisation des réseaux sociaux, à l’instar de ce qui se fait pour la sécurité routière.

Dispositif

Compléter cet article par l’alinéa suivant :

« Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France s’engagent à informer et à sensibiliser à travers des campagnes de publicité sur les risques encourus liés à l’utilisation des réseaux sociaux. »

Art. APRÈS ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

La loi n°2010‑476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne prévoit à son article 28 que les opérateurs de jeux ou de paris en ligne informent en permanence les joueurs de l’existence du service d’information et d’assistance prévu à l’article 29.

Cet amendement vise donc à s’inspirer de ce qui existe déjà en termes de prévention en l’adaptant aux dangers présents sur les réseaux sociaux.

Dispositif

La section 3 bis du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, est complétée par un article 6‑11 ainsi rédigée :

« Art. 6‑11. Les fournisseurs de réseaux sociaux sont légalement tenues de délivrer une information sur l’existence de services d’information et d’assistance au cyberharcèlement lorsqu’un contenu est signalé par un mineur ou concerne un mineur. »

Art. ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Les algorithmes addictogènes et dangereux des plateformes sont la source de biens des maux causés par les réseaux sociaux. Le rapport de la Commission d’enquête relatif à TikTok présente ainsi les choses : 

« TikTok n’est pas une plateforme neutre. C’est une machine algorithmique conçue pour capter l’attention, l’enfermer dans un circuit fermé de contenus similaires, et l’exploiter : c’est le fameux fil « Pour toi » qui tranche avec les débuts des réseaux sociaux où l’interface était basée sur un contenu chronologique nécessitant une action de l’utilisateur pour le personnaliser. Désormais, dès qu’un utilisateur ouvre l’application, il est happé dans une succession de vidéos recommandées par l’algorithme, calibrées pour provoquer une réaction émotionnelle immédiate (rire, choc, colère, par exemple) mais surtout du temps d’attention. Cet effet n’est pas le fruit du hasard, il est l’aboutissement d’un design psychologique pensé pour provoquer une addiction comportementale. C’est ce qu’on appelle l’effet « terrier de lapin », la rapporteure y revient en détail. L’algorithme, dont TikTok refuse toujours de dévoiler les ressorts, observe ainsi chaque interaction de l’utilisateur : temps de visionnage, arrêt sur image, likes, partages. Puis il affine ses suggestions en fonction de ces signaux faibles. C’est un mécanisme de spirale : plus on regarde un certain type de contenu, plus on est exposé à des vidéos similaires. En quelques clics, un adolescent peut passer d’une vidéo de danse anodine à une vidéo anxiogène sur le suicide ou la haine de soi et s’y retrouver enfermé. Cet algorithme était un point central de nos auditions. Des créateurs de contenu aux chercheurs, toutes et tous sont unanimes : il est opaque, incompréhensible et généré selon des paramètres inconnus des utilisateurs, ce qui est évidemment inadmissible ». 

Puisque la méthode algorithmique qui conduit à cette enfermement dans des bulles anxiogènes particulièrement problématique pour les mineurs, plus vulnérables, il est nécessaire d’interdire l’utilisation d’algorithme de cette façon.

L’exposition à des contenus non sollicités peut exposer plus facilement les mineurs à des contenus qui peuvent atteindre leur sensibilité (nudité, softporn, mutiliations, violences, racisme, antisémitisme …). Aucune mesure d’auto-régulation ne peut contre-carrer la proposition de contenus non sollicités et limiter les risques d’exposition à des contenus choquants et le caractère addictogène de cette fonctionnalité. Ces propositions sont strictement déléguées aux préférences algorithmiques des plateformes ne laissant aucune place aux utilisateurs pour contrôler les contenus qui leur sont exposés. 

Cet amendement a pour vocation de traduire la recommandation n°1 du Président de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. 

Dispositif

I. – Après l’alinéa 5, insérer l’alinéa suivant :

« Les services de réseaux sociaux en ligne ne peuvent exposer les usagers mineurs à des contenus auxquels ils n’ont pas explicitement souscrit. »

II. – En conséquence, à la première phrase de l’alinéa 6, après le mot :

« finaux »,

insérer les mots :

« , ou qu’il permet l’accès pour les mineurs à un fil de contenus présentant d’autres contenus que leurs abonnements volontaires ».

Art. ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

La mise en place d’un couvre-feu numérique pour les mineurs âgés de moins de quinze ans est une mesure éprouvée à l’international, n’ayant montré jusqu’à présent que très peu de résultats.

La chercheuse Orsola Kiràly, spécialisée dans la psychologie des joueuses et des joueurs de jeux vidéo et coautrice d’une étude transversale sur les actions visant à contrôler l’accès aux jeux vidéo en ligne pour les jeunes, a démontré l’inefficacité de telles mesures. Elle s’appuie notamment sur la Chine, qui a déjà tenté de mettre en place un couvre-feu numérique, sans y arriver. La Corée, en 2011 a elle aussi instaurée un couvre-feu numérique pour les jeux vidéo à destination des mineurs. Pour des raisons pratiques, liées au manque de vérification facile et efficace de l’âge de l’utilisateur, la plateforme de jeu vidéo ne pouvait vérifier l’âge des utilisateurs et tous les joueurs durent se plier au couvre-feu, menant à une grande vague de mécontentement et à l’abrogation de la mesure.

L’exemple de l’échec de la mise en place d’un arsenal juridique lourd pour endiguer le même problème de fond, les écrans, dans des pays ultra-connectés, nous questionne sur l’efficacité de l’approche verticale.

Enfin, priver les mineurs d’accès aux écrans limite leur droit à la liberté d’information, d’expression et de participation, protégés par la Convention internationale des droits de l’enfant (CIDE).

Bien que nous partagions le constat émis par le rapport « Enfants et écrans : à la recherche du temps perdu » sur les écrans, néfastes pour la santé mentale, le sommeil et les phénomènes d’addiction qu’ils engendrent, nous pensons que la réponse à ce problème complexe se trouve dans la régulation de ces plateformes. Nous ne pas pouvons interdire des espaces que, en tant d’adultes nous utilisons de la même façon, avec les mêmes usages, sans réfléchir à cette consommation.

Par cet amendement, nous souhaitons rappeler l’importance d’une régulation des conceptions addictogènes et enfermantes de certains services numériques, plutôt que d’y bannir les enfants. Nous devons concevoir une approche horizontale, basée sur l’apprentissage progressif de l’usage des réseaux sociaux, pour éviter de lâcher les jeunes et adolescents dans un monde numérique sans soutien.

Dispositif

Supprimer les alinéas 11 à 17.

Art. APRÈS ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement vise à continuer de sensibiliser et de protéger les mineurs aux risques liés aux usages numériques.

L’interdiction des réseaux sociaux avant 15ans ne protège pas les futurs utilisateurs des contenus dangereux auxquels ils pourraient être confrontés. Les réseaux sociaux doivent être des espaces adaptés aux mineurs, régulés et paramétrés pour permettre son usage en toute sécurité.

Le problème n’est pas les réseaux sociaux mais le modèle financier, basé sur une économie de l’attention, cherchant à capturer les données des utilisateurs. Lieux de sociabilisation pour beaucoup d’adolescents, ils garantissent un lien social pour une jeunesse toujours plus isolée.

Retarder la découverte des réseaux sociaux n’est pas une réponse suffisante, notamment quand les adultes cèdent aux mêmes pratiques addictives.

La réponse est à trouver dans une meilleure éducation aux réseaux sociaux et aux espaces numériques, qui ne peut s’articuler uniquement par une interdiction. La responsabilisation des plateformes est nécessaire, afin de prévenir et de sensibiliser.

Dispositif

La section 3 bis du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, est complétée par un article 6‑11 ainsi rédigée :

« Art. 6‑11. Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France s’engagent à prévenir des risques liés aux usages numériques et des moyens de prévention existants pour les utilisateurs de plus de quinze ans, ainsi qu’au titulaire de l’autorité parentale. »

Art. APRÈS ART. 3 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du Groupe Écologiste et Social vise à inscrire dans la loi l’arrêté du 2 juillet 2025 sur l’interdiction des écrans dans les lieux d’accueil pour jeunes enfants

Si cet arrêté constitue une avancée importante en matière de prévention des risques liés à une exposition précoce aux écrans, son caractère réglementaire ne lui confère ni la stabilité ni la portée nécessaires pour garantir une protection durable des jeunes enfants. Son inscription dans la loi permettrait d’en assurer la pérennité, d’en renforcer la lisibilité et de sécuriser juridiquement son application.

En effet, de nombreuses études scientifiques ont mis en évidence les effets délétères d’une exposition précoce aux écrans sur le développement cognitif, langagier, moteur et socio-émotionnel des jeunes enfants. Face à ces constats largement documentés, la prévention de l’exposition aux écrans doit constituer un objectif clair et affirmé de la politique publique en matière de petite enfance.

En consacrant dans la loi l’interdiction de l’exposition des jeunes enfants aux écrans dans les lieux d’accueil, le présent amendement vise à renforcer la protection des enfants, à soutenir les professionnels de la petite enfance dans leurs pratiques éducatives et à garantir aux familles un cadre cohérent, protecteur et fondé sur les connaissances scientifiques actuelles.

Dispositif

Après le 1° du II de l’article L. 214‑1‑1 du code de l’action sociale et des familles, il est inséré un 1° bis ainsi rédigé :

« 1° bis Assurent la protection du développement des enfants de moins de trois ans en leur évitant toute exposition aux écrans (smartphone, tablette, ordinateur, télévision) ; »

Art. APRÈS ART. 3 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du groupe Écologiste et Social vise à compléter les actions de prévention à destination des mineurs, en intégrant une sensibilisation progressive aux risques ainsi qu’une éducation aux usages numériques, adaptée à l’âge des enfants.

Cette éducation aux usages a pour objectif d’accompagner les mineurs vers une pratique raisonnée, éclairée et responsable des outils numériques. Elle peut notamment comprendre des recommandations relatives à la gestion du temps d’écran, à la protection de la vie privée et des données personnelles, à la compréhension des mécanismes de captation de l’attention, à la prévention des risques de dépendance, ainsi qu’à l’adoption de comportements appropriés dans l’environnement numérique.

L’article précise que cette action de sensibilisation doit intervenir à un âge approprié, afin d’éviter toute exposition prématurée à des contenus ou notions inadaptés au développement des plus jeunes enfants. Ainsi, avant l’âge de 3 ans, voire de 6 ans, la priorité doit demeurer la prévention de l’exposition aux écrans ; ce n’est qu’ultérieurement qu’une éducation aux usages numériques trouve pleinement sa pertinence.

Cette approche graduée permet de tenir compte du niveau de maturité des enfants, tout en renforçant progressivement leur capacité à adopter des usages numériques équilibrés à mesure qu’ils grandissent.

Dispositif

Au premier alinéa de l’article L. 2132‑2 du code de la santé publique, les mots : « notamment des examens obligatoires » sont remplacés par les mots : « des examens obligatoires, ainsi qu’une sensibilisation aux risques sanitaires liés à une exposition non raisonnée aux écrans et au caractère addictif des réseaux sociaux, et une éducation à leurs usages adaptée à l’âge de l’enfant ».

Art. APRÈS ART. 3 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du Groupe Écologiste et Social vise à renforcer l’information délivrée aux parents sur les alternatives aux usages des écrans lors des entretiens conduits par les services de protection maternelle et infantile (PMI). Ce dispositif est directement repris d’une proposition portée par le groupe sénatorial Écologiste – Solidarité et Territoires.

Il prévoit d’intégrer explicitement, dans le cadre de ces entretiens de prévention, une information systématique relative aux alternatives aux écrans par les professionnels de la petite enfance.

L’objectif est d’assurer est de renforcer l’accompagnement des parents face aux usages numériques précoces, par la promotion de pratiques favorables au développement psychomoteur, social et cognitif des jeunes enfants.

Cette disposition contribue ainsi à consolider la politique de prévention et de soutien à la parentalité portée dans le champ de l’exposition des jeunes enfants aux écrans.

Dispositif

À la première phrase du dernier alinéa de l’article L. 2112‑2 du code de la santé publique, après la troisième occurrence du mot : « actions », sont insérés les mots : « de prévention de l’exposition non raisonnée des enfants aux écrans, de soutien à la parentalité dans ce domaine, notamment par la délivrance d’une information sur les alternatives aux écrans pour les jeunes enfants, et aux actions ».

Art. APRÈS ART. 7 • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. ART. 7 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement du groupe Écologiste et Social propose la suppression de l’article 7 de la proposition de loi. 

En effet, nous estimons que la charge de la responsabilité ne devrait pas reposer une nouvelle fois sur les épaules des parents mais sur celles des plateformes. Les parents n’ont pas nécessairement les moyens, ni les outils de faire face à l’attrait des écrans et l’addiction nourrie par la puissance des algorithmes. 

Par ailleurs, nous estimons que le droit actuel permet déjà de punir la négligence parentale.

Dispositif

Supprimer cet article. 

Art. ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Le présent amendement du Groupe Écologiste et Social vise à interdire la mise à disposition, par les fournisseurs de services de réseaux sociaux en ligne, d’agents conversationnels fondés sur l’intelligence artificielle à destination des enfants et des mineurs. 

De plus en plus de plateformes de réseaux sociaux intègrent des assistants conversationnels d’intelligence artificielle, présentés comme des outils d’accompagnement, de divertissement ou de discussion personnalisée. Ces dispositifs, accessibles directement au sein des réseaux sociaux – et leurs messageries – les plus utilisés par les jeunes publics, sont susceptibles d’encourager des interactions prolongées et intimes, reposant sur des mécanismes d’« empathie artificielle » particulièrement attractifs pour des utilisateurs en construction psychologique et émotionnelle.

Or, ces agents conversationnels ne constituent ni des interlocuteurs neutres, ni des outils éducatifs encadrés. Leur fonctionnement repose sur des modèles algorithmiques visant à maximiser l’engagement, sans garantie quant à la fiabilité des réponses apportées, à la protection des données personnelles, ni à l’absence de biais ou de contenus inadaptés. Pour les enfants et les adolescents, ces interactions peuvent favoriser des formes de dépendance relationnelle, brouiller les repères sociaux et affectifs, et se substituer à des relations humaines essentielles au développement.

On peut constater les effets délétères de ces intelligence artificielle utilisée comme outils conversationnelle qui ont poussé certains jeunes dans des situations de détresse psychologiques poussées. Le 24 juillet dernier, Zane Shamblin, un jeune américain de 23 ans a passé les derniers instants de sa vie à discuter avec ChatGPT avant de se donner la mort, tout comme Sewell Setzer, un adolescent de 14 ans quelques mois auparavant.

Dans ce contexte, le présent amendement propose d’interdire la mise à disposition d’agents conversationnels d’intelligence artificielle au sein des réseaux sociaux à destination des mineurs, conformément à l’exigence de protection renforcée de l’enfance. Il s’agit d’affirmer clairement que les enfants ne peuvent constituer un public cible pour des technologies conversationnelles susceptibles d’exercer une influence psychologique et émotionnelle profonde, sans encadrement strict ni bénéfice éducatif démontré.

Cette mesure s’inscrit pleinement dans une politique de prévention des usages numériques à risque et dans la volonté de garantir un environnement numérique protecteur, adapté au développement et à l’intérêt supérieur de l’enfant.

Dispositif

I. – Compléter l’alinéa 4 par la phrase suivante :

« Ces fournisseurs de services de réseaux sociaux ne mettent pas à disposition des mineurs des agents conversationnels personnalisés robotisées et basés sur des intelligences artificielles. »

II. – En conséquence, à la première phrase de l’alinéa 6, après le mot : 

« finaux », 

insérer les mots :

« ou qu’il met à disposition des mineurs des agents conversationnels personnalisés robotisées et basés sur des intelligences artificielles ».

Art. APRÈS ART. 3 • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

La loi votée en 2022 prévoyait un contrôle par défaut de l’accès des enfants à certaines applications, sans que les parents n’aient rien à faire. Mais les outils de contrôle du temps passé devant les écrans n’ont pas été mise en place, par défaut. Les parents doivent trouver l’outil adéquat au milieu d’une offre pléthorique, gratuite ou non et comprendre comment l’installer et l’utiliser. Ils veulent des logiciels faciles d’utilisation pour ne pas être dépossédés de leurs rôles.

Ainsi, cet amendement vise donc à rajouter au contrôle parental un dispositif du contrôle d’écran déjà préinstallé sur les appareils électroniques.

Dispositif

Le premier alinéa de l’article L 34‑9‑3 du code des postes et des communications électroniques est complété par les mots : « ainsi que d’un dispositif pré-intégré de contrôle de temps d’écran. »

Art. ART. PREMIER • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. ART. 3 • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement vise à obliger les influenceurs lors de la promotion des réseaux sociaux, d’en rappeler les dangers et les risques existants.

Dispositif

À la deuxième phrase de l’alinéa 2, après le mot :

« radiodiffusés, »

insérer les mots :

« ou émis par des influenceurs comme définit dans l’article 1 de la loi n°2023‑451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux ».

Art. ART. PREMIER • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. 7 • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Comme l’explique le rapport de la Commission d’enquête sur Tiktok, ce réseau social a en effet imposé un nouveau format pour les réseaux sociaux, à savoir le défilement infini de vidéos courtes, ce qui a eu pour effet de favoriser la diffusion de contenus extrêmes, ainsi que le décrit M. Petit : « Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement. TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre ». 

Tant le défilement sans fin et sans temps mort entre les contenus, que le format court et facile à consommer (parfois dénommé « snack content »), sont de nature à désorienter les utilisateurs, notamment en leur faisant perdre la notion du temps.

Depuis plusieurs années l’ensemble des plateformes numériques, créateurs de contenus et publicitaires adoptent les code des formats courts, touchant l’ensemble des tranches d’âge. En 2025, plus de 65 % des 35‑54 ans consomment des vidéos courtes chaque semaine, selon Statista. Le défilement infini impacte d’autant plus les mineurs qui se retrouvent coincés dans ce défilement infini. L’immaturité du neurodéveloppement qui caractérise les enfants et les adolescents se traduit par une incapacité cognitive structurelle à se limiter et à s’autoréguler face aux usages numériques.

Les techniques de captation de l’attention développées par les plateformes numériques depuis le milieu des années 2010 sont largement fondées sur l’analyse comportementale, la captation de l’attention et l’optimisation du temps d’engagement. Ces dispositifs sont explicitement conçus pour maintenir les utilisateurs dans des logiques de dépendance et de captation prolongée, y compris les plus jeunes.

C’est la raison pour laquelle ce défilement sans fin et sans temps morts dans les contenus doit a minima être prohibé pour les plus mineurs. Tel est l’objet de cet amendement. 

Dispositif

I. – Compléter l’alinéa 4 par la phrase suivante :

« Les services de réseaux sociaux en ligne ne permettent pas l’enchaînement automatique de contenus sur les comptes d’usagers mineurs, sans action de leur part. 

II. – En conséquence, à la première phrase de l’alinéa 6, après le mot :

« finaux », 

insérer les mots :

« ou qu’il permet l’accès pour les mineurs à un enchaînement automatique de contenus ». 

Art. ART. PREMIER • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

L’objet de cet amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 

Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 

Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.

L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 

La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.

C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Dispositif

I. – À la fin de la première phrase de l’alinéa 4, substituer au mot :

« quinze »

le mot :

« treize ».

II. – En conséquence, à la seconde phrase du même alinéa, procéder à la même substitution.

Art. APRÈS ART. 7 • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.
Art. APRÈS ART. PREMIER • 09/01/2026 DISCUTE
ECOS

Exposé des motifs

Cet amendement vise à responsabiliser les plateformes face aux contenus présents sur les réseaux sociaux.

Le système financier de la majorité des plateformes de réseaux sociaux repose sur l’économie de l’attention, comme l’a démontré le rapport de la commission d’enquête sur les effets psychologiques de tik tok sur les mineurs. Les plateformes reposent sur des logiques algorithmiques qui favorisent des contenus problématiques et la diffusion d’idéologies politiques négatives, contraires aux droits humains.

Malgré les profits engendrés par les plateformes, il n’existe que peu de modération, bien en deçà du volume de contenus à traiter. Le rapport de la commission d’enquête avait révélé les conditions inhumaines des modérateurs, qui devaient parfois traiter plus de 800 vidéos par service.

C’est pourquoi il nous semble nécessaire de responsabiliser les plateformes, afin de s’assurer d’offrir un espace sûr pour les mineurs. Interdire les réseaux sociaux aux moins de quinze ans ne protège pas des risques encourus.

Dispositif

La section 3 bis du chapitre II du titre Ier de la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique, est complétée par un article 6‑11 ainsi rédigée :

« Art. 6‑11. – Les fournisseurs de services de réseaux sociaux en ligne exerçant leur activité en France demandent aux usagers avant toute publication, si le contenu est adapté au mineur. Si la réponse est négative, les fournisseurs s’engagent à alerter l’Autorité de régulation de la communication audiovisuelle et numérique et à supprimer le contenu dans les vingt-quatre heure. »

Art. APRÈS ART. 3 • 09/01/2026 IRRECEVABLE
ECOS
Contenu non disponible.

Scrutins (0)

Aucun scrutin lié à ce texte.