Les effets psychologiques de TikTok sur les mineurs
Amendements (7)
Art. ART. UNIQUE
• 06/03/2025
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI-NFP souhaite souligner l'approche trop réductrice de cette proposition de résolution. Nous estimons nécessaire d'adopter une lecture psychosociale des risques induits par les réseaux sociaux comme TikTok, plutôt que l'approche purement psychologique actuellement proposée. Cette dernière néglige un aspect fondamental : les conséquences, qu'elles soient positives ou négatives, de l'usage des réseaux sociaux découlent principalement des interactions entre utilisateur•ices en ligne. En élargissant ainsi la perspective, nous pourrons mieux appréhender les enjeux complexes liés à ces plateformes.
L'usage des réseaux sociaux est un phénomène social. Comme le rappellent de nombreuses études, telle que celle menée par Godefroy Dang Nguyen et Virginie Lethiais ("Impact des réseaux sociaux sur la sociabilité. Le cas de Facebook", Revue Réseaux, 2016), les technologies de façon générale, et donc les réseaux sociaux en particulier, parce qu’elles permettent aux individus de communiquer, sont le support d’une forme de sociabilité (défini par Norbert Elias comme « le tissu des relations entre chaque individu [qui] constitue le fondement de la société ») qu’elles peuvent modifier. Elles s'entrelacent alors avec les formes de sociabilité déjà établies et les contenus qui y sont partagés peuvent ainsi influencer nos pensées et nos rapports aux autres. Dans ce contexte, l'existence des "bulles de filtre", interconnectant des utilisateurs entre eux par la diffusion commune de contenus, parfois dangereux, et leur maintien dans ces bulles qui peut entraîner chez les utilisateurs les risques psychiques présentés dans le cadre de la proposition de résolution, est bien le résultat d'une interaction sociale. Or, une approche purement "psychologique" de ces effets reviendrait à totalement exclure cette dimension pourtant centrale, et à attribuer la "responsabilité" de ces effets au seul individu face à son écran, alors que son mal-être psychique est foncièrement lié au résultat de ses interactions numériques.
Dispositif
À l’alinéa 2, substituer au mot :
« psychologiques »
les mots :
« et risques psychosociaux ».
Art. ART. UNIQUE
• 06/03/2025
DISCUTE
Exposé des motifs
Par cet amendement du groupe LFI-NFP, nous souhaitons dénoncer l’instrumentalisation de certains réseaux sociaux par leurs propriétaires qui, à des fins idéologiques, n’hésitent pas à favoriser la diffusion de contenus dangereux et/ou illégaux qui peuvent particulièrement affecter la santé mentale des mineurs.
Les dirigeants de certaines plateformes comme X ou Facebook n’hésitent plus à mettre leurs plateformes au service de leurs idées nauséabondes. A titre d’illustration, Mark Zuckerberg, fondateur de Facebook a déclaré le 10 janvier dernier que « L’énergie masculine est bonne. La société en est remplie, mais la culture d’entreprise essaie de s’en détourner. Toutes ces formes d’énergie sont positives, mais une culture qui fait un peu plus la part belle à l’agressivité a ses mérites. » Or, ces poncifs liés à la pensée masculiniste se diffusent de plus en plus ouvertement sur les réseaux sociaux. Lucie Daniel, experte plaidoyer au sein de l’ONG féministe Equipop et co-autrice du rapport « Contrer les discours masculinistes en ligne » affirme que « les contenus haineux [ont] tendance à être plus viraux que les contenus non haineux » et que par conséquent, les contenus masculinistes « qui suscitent le plus d’interactions, de partages, de commentaires sont ceux qui vont être les plus visibilisés, voire monétisés. » Les dirigeants des plateformes ont donc une part de responsabilité dans l’essor et la visibilité des discours masculinistes, d’autant plus qu’elles sont « souvent régis par des algorithmes qui eux-mêmes ont des biais sexistes ». Les utilisateurs mineurs, confrontés à la multiplication de ces contenus sur leur fil d’actualité peuvent en souffrir du fait notamment que tout les pousse à croire qu’il s’agit d’attentes de la société vis-à-vis d’eux, alors qu’il ne s’agit que d’une manipulation de masse.
Dans ce contexte, la commission d’enquête devra être l’occasion de déterminer avec précision le niveau de responsabilité de chacun des propriétaires des plateformes sur la diffusion des contenus dangereux et/ou illégaux, et proposer des pistes de solutions pour en réduire l’influence, au bénéfice de nos enfants.
Dispositif
Après l’alinéa 3, insérer l’alinéa suivant :
« 2° bis De déterminer, le cas échéant, l’influence directe des dirigeants de plateformes numériques dans la propagation de contenus dangereux et illégaux et les effets psychologiques engendrés par cette diffusion sur les utilisateurs, notamment sur les mineurs ; ».
Art. TITRE
• 06/03/2025
DISCUTE
Exposé des motifs
Par cet amendement rédactionnel, le groupe LFI-NFP souhaite réaffirmer la nécessité d'adopter une lecture "psychosociale" des risques induits par les réseaux sociaux comme TikTok, plutôt que l'approche purement "psychologique" proposée ici, qui néglige le fait que les conséquences, qu'elles soient positives ou négatives, de l'usage des réseaux sociaux découlent principalement des interactions entre utilisateur•ices en ligne.
Face aux enjeux complexes et protéiformes auxquels nous confrontent le sujet de l'évaluation des effets des réseaux sociaux sur la santé mentale et psychique de leurs utilisateurs, notamment mineurs, la question de la précision des termes employés revêt une dimension essentielle pour appréhender au mieux les phénomènes sociaux et psychologiques observés.
Dispositif
Au titre, substituer au mot :
« psychologiques »
les mot :
« et risques psychosociaux ».
Art. ART. UNIQUE
• 06/03/2025
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI-NFP souhaite rappeler que si les effets psychologiques néfastes chez les mineurs de l'usage de TikTok sont avérés, cette dernière n'est absolument pas la seule plateforme dont l'usage pose un souci de santé publique majeur.
La limitation de l'objet de cette proposition de résolution à la seule plateforme TIkTok est incompréhensible. Les auteurs tentent de la justifier en expliquant tout d'abord que les problématiques de santé publique engendrées par TikTok sont spécifiques en raison notamment de l'efficacité de son algorithme. Cependant, n'est-ce pas la même chose pour d'autres plateformes comme X ou Instagram ? Mais surtout, la volonté de la proposition de résolution de se limiter à la seule plateforme TikTok est justifiée par « ses liens avec les autorités chinoises [qui] font peser des risques en matière de souveraineté, d’influence étrangère ou de protection des données personnelles ». Or, sans remettre en cause la véracité de cette préoccupation, ne pourrait-on pas également affirmer la même chose pour les plateformes numériques d'origine américaines, comme Instagram ou X ? L'actuel propriétaire de cette dernière, Elon Musk, n'est-il pas de plus en plus ouvertement en train de s'ingérer dans les affaires intérieures des différents pays européens pour faire monter les différents partis d'extrême-droite ? L'arrivée de Trump au pouvoir n'est-elle pas en train de remettre en cause la protection de nos données personnelles qui sont, dans le cadre d'un accord UE-Etats-Unis, transférées outre-Atlantique, mais dont la commission chargée de la bonne application de l'accord est menacée par les coupes budgétaires drastiques menées par le nouveau locataire de la Maison-Blanche ?
Les effets psychologiques sur les mineurs de l'ensemble des réseaux sociaux - et pas seulement TikTok - sont confirmés par une étude de la division Europe de l’Organisation mondiale de la santé (OMS). Dans un rapport publié le 25 septembre, l’organisation souligne le fait que de plus en plus d’adolescents européens développent un rapport problématique au numérique, « qui se caractérise par des symptômes similaires à ceux de l’addiction » et qu’en quatre ans, la part de jeunes utilisateurs devenus accros aux réseaux sociaux, est passée de 7 à 11 %. Pour lutter contre ce phénomène global, il est donc indispensable d'étudier la "conception addictive" de l'ensemble des réseaux sociaux pour y répondre de manière structurelle.
Dispositif
Après l’alinéa 2, insérer l’alinéa suivant :
« 1° bis De déterminer, le cas échéant, l’opportunité d’évaluer les dispositifs de captation de l’attention utilisés par l’ensemble des plateformes numériques ainsi que leurs effets psychologiques, notamment sur les mineurs ; ».
Art. TITRE
• 06/03/2025
DISCUTE
Exposé des motifs
Par cet amendement rédactionnel, le groupe LFI-NFP souhaite réaffirmer l'importance d'étendre le périmètre de la commission d'enquête à l'ensemble des réseaux sociaux - et pas uniquement TikTok - en cohérence avec les différents amendements que nous avons déposés sur la proposition de résolution.
Comme le rappelle l'étude de la division Europe de l’Organisation mondiale de la santé (OMS), les effets psychologiques sur les mineurs sont causés par l'usage de l'ensemble des différents réseaux sociaux - et ne concerne donc pas uniquement TikTok. En effet, dans un rapport publié le 25 septembre, l’organisation souligne le fait que de plus en plus d’adolescents européens développent un rapport problématique au numérique, « qui se caractérise par des symptômes similaires à ceux de l’addiction » et qu’en quatre ans, la part de jeunes utilisateurs devenus accros aux réseaux sociaux, est passée de 7 à 11 %. Pour lutter contre ce phénomène global, il est donc indispensable d'étudier la "conception addictive" de l'ensemble des réseaux sociaux pour y répondre de manière structurelle.
Dispositif
Au titre, substituer aux mots :
« psychologiques de TikTok »
les mots :
« et risques psychosociaux des réseaux sociaux ».
Art. ART. UNIQUE
• 06/03/2025
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI-NFP souhaite souligner le rôle prépondérant que doit jouer l’éducation, et notamment le système scolaire, dans les politiques de prévention des addictions numériques des jeunes et des enfants.
L’usage des réseaux sociaux de manière générale commence de plus en plus tôt. D’après une enquête de la Commission nationale de l’informatique et des libertés (CNIL) de 2021, la première inscription sur un réseau social interviendrait en moyenne vers l’âge de 8 ans et demi et plus de la moitié des enfants de 10 à 14 ans seraient présents sur ces plateformes. Par ailleurs, l’association Génération Numérique corrobore ces informations puisque selon elle, en 2021, 63 % des moins de 13 ans avaient un compte sur au moins un réseau social, bien que ces réseaux leurs soient en théorie interdits en vertu de leurs conditions générales d’utilisation. Cette situation est aggravée par le fait que les parents supervisent peu ou pas les activités en ligne de leurs enfants. À peine plus de 50 % des parents décideraient du moment et de la durée de connexion de leurs enfants et 80 % déclarent ne pas savoir exactement ce que leurs enfants font en ligne. Pourtant, les risques liés à leur utilisation incontrôlée par les mineurs n’est plus à démontrer.
Dans ce contexte, il est impératif de mener des politiques préventives d’éducation aux risques posés par les différentes plateformes numériques - dont TikTok. En France, l’article L. 312‑9 du code de l’éducation prévoit que « la formation à l’utilisation responsable des outils et des ressources numériques » (...) « contribue notamment »au développement de l’esprit critique« mais également »à la sensibilisation contre la manipulation d’ordre commercial« . Cependant, notamment en raison du manque de moyens alloués à l’Education nationale pour aborder ces questions (avec par exemple, la suppression, sans concertation, de la technologie en 6ème depuis la rentrée 2023, ou encore, un manque structurel de professeurs pour assurer l’enseignement de cette discipline à tous les niveaux au collège comme le dénonce le syndicat d’enseignant SNES-FSU dans un communiqué du 5 juin 2024), les élèves ne bénéficient pas en réalité d’un enseignement à la hauteur des enjeux sur cette question pourtant cruciale. Si le renforcement des moyens de l’Education nationale est donc essentiel en la matière, il s’agit bien d’une politique transversale impliquant l’ensemble des acteurs en contact avec les mineurs (comme les parents) et qui nécessitent l’élaboration de politiques spécifiques (comme l’accompagnement de la parentalité à ce sujet), ce à quoi pourra s’atteler cette commission d’enquête.
Dispositif
Après l’alinéa 2, insérer l’alinéa suivant :
« 1° bis De souligner l’importance du rôle joué par l’éducation pour sensibiliser les enfants et les jeunes aux différents mécanismes mis en œuvre par les acteurs du numérique pouvant engendrer un risque d’addiction et aux conséquences néfastes qui peuvent en résulter et pour déterminer, le cas échéant, les politiques publiques à mener pour en renforcer l’efficacité ; ».
Art. ART. UNIQUE
• 06/03/2025
DISCUTE
Exposé des motifs
Par cet amendement, le groupe LFI-NFP souhaite interroger plus fondamentalement un aspect essentiel de la lutte contre les effets psychologiques néfastes induits par l’usage des plateformes comme TikTok : leur modèle économique fondé sur la captation de l’attention, et dans lequel l’usage des « darks patterns » (ou interfaces truquées) jouent un rôle prépondérant.
Un « dark pattern » est une interface utilisateur qui a été volontairement conçue pour tromper ou manipuler un utilisateur, en usant notamment des biais cognitifs. L’objet d’une « interface truquée » est d’orienter l’utilisateur vers des choix qu’il n’aurait probablement pas faits en connaissance de cause, et qui sont dans l’intérêt de la plateforme. Alors même que les plateformes utilisent déjà des algorithmes de recommandation de plus en plus sophistiqués, capables de jouer avec les biais psychologiques des utilisateurs afin de proposer les contenus les plus « proches » des centres d’intérêts de chacun de leurs utilisateurs et qui tend à les enfermer dans des « bulles de filtre » - des individus en difficultés pouvant être enfermés dans des « bulles de filtre » de contenus néfastes pour leur santé - la mise en place de nombreux éléments de « darks patterns » n’a qu’un seul but : retenir l’attention des utilisateurs le plus longtemps possible (pour pouvoir vendre par exemple toujours plus d’espaces publicitaires, qui représentent l’essentiel des recettes des plateformes numériques).
TikTok utilise par exemple le « scroll infini » (ou défilement infini) de la page. Son usage a tendance à faire augmenter le temps passé sur l’application : en effet, en utilisant le biais de clôture et le mécanisme de récompenses aléatoire, il pousse l’utilisateur à rester sur le service afin de découvrir, hypothétiquement, une information intéressante. Le risque est ainsi d’être toujours plus exposés à des contenus inappropriés et/ou dangereux, uniquement car le modèle économique des plateformes en dépend : par conséquent, si on souhaite s’attaquer à la toxicité des plateformes numériques comme TikTok, des mesures plus ambitieuses de lutte contre l’usage des « darks patterns » qui sont au coeur de leur modèle économique doivent être envisagées. Elles sont d’autant plus indispensables que ces acteurs ont très souvent une position quasi-monopolistique, ce qui les rend pratiquement impossible à contourner par les utilisateurs et relance la nécessité de réfléchir à des mesures pour lutter contre la concentration du secteur.
Dispositif
Après l’alinéa 2, insérer l’alinéa suivant :
« 1° bis D’évaluer les effets potentiellement nocifs sur la santé mentale des utilisateurs, notamment des mineurs, de l’usage d’interfaces truquées qui renforcent leur exposition à des contenus dangereux ; ».
Scrutins (0)
Aucun scrutin lié à ce texte.