proposition de loi visant à protéger les mineurs des risques auxquels les expose l’utilisation des réseaux sociaux

Votes

Amendements

Amendement Vote / Lien Décision Résumé
Voir le PDF
Rejeté 14/01/2026

La surexposition aux écrans constitue aujourd’hui un enjeu majeur de santé publique, en particulier pour les enfants et les adolescents.

Les usages numériques intensifs et précoces sont associés à des effets désormais largement documentés : obésité, troubles du sommeil, sédentarité, anxiété, altération de l’attention, isolement social, exposition accrue à des contenus inadaptés ou violents, ainsi qu’au cyberharcèlement.

Dans ce contexte, il apparaît indispensable de renforcer les actions de prévention en intervenant directement au cœur des usages numériques, là où ils s’exercent concrètement.

Le présent amendement vise à instaurer une obligation d’affichage d’un message de prévention sanitaire visible dès l’écran d’accueil des dispositifs numériques.

À l’instar des messages de prévention existant dans d’autres domaines de santé publique, cette mesure repose sur une logique d’information et de responsabilisation, sans stigmatiser les usages numériques ni entraver l’innovation technologique.

Il s’agit d’un levier simple, proportionné et efficace pour sensibiliser les utilisateurs, et en particulier les parents et les mineurs, aux risques liés à une consommation excessive des écrans, et ainsi contribuer à un environnement numérique plus protecteur et plus équilibré.

Voir le PDF
Non soutenu 14/01/2026

L’extension de l’interdiction d’utilisation des téléphones portables aux lycées constitue une évolution importante du cadre actuel. Toutefois, la mise en œuvre de cette mesure soulève une question concernant son application aux étudiants des formations de l’enseignement supérieur, majeurs ou mineurs, accueillis dans les lycées. 

L’amendement précise que l’interdiction des téléphones portables dans les lycées ne s’appliquerait pas à ces étudiants, dont le statut et le niveau d’autonomie, tant dans leur organisation personnelle que dans leurs usages numériques, justifient un régime distinct.

Voir le PDF
Non soutenu 14/01/2026

L’article 1er crée un régime inédit d’interdiction des réseaux sociaux pour les mineurs de moins de quinze ans et un couvre-feu numérique pour les mineurs entre quinze et dix-huit ans. Ces dispositifs, qui doivent reposer sur des solutions technologiques de vérification de l’âge et sur un contrôle accru de l’Arcom, constituent une évolution majeure de la régulation numérique. Leur effectivité dépendra toutefois étroitement de leur mise en œuvre concrète, de l’adhésion des plateformes et de la capacité des autorités à prévenir les contournements.

Dans ce contexte, il est indispensable que le Parlement puisse disposer d’un suivi précis et régulier non seulement de l’application de ce nouveau cadre, mais aussi de ses conséquences réelles sur les jeunes. Le rapport demandé doit ainsi documenter, au-delà du respect des obligations par les plateformes, les effets de ces mesures sur la sécurité des mineurs : évolution des signalements et des situations de cyberharcèlement, exposition aux contenus préjudiciables, impacts éventuels sur la santé mentale, sur les addictions numériques ou sur les comportements à risque.

Il doit également analyser les effets de ces restrictions sur la vie sociale et éducative des mineurs, notamment en matière de sociabilisation, d’accès à l’information, d’activités périscolaires ou de continuité pédagogique lorsque certains outils numériques sont utilisés dans le cadre scolaire.

Ce suivi renforcé permettra d’évaluer l’atteinte des objectifs poursuivis par la loi, d’identifier les adaptations nécessaires et, le cas échéant, de proposer des ajustements législatifs ou réglementaires afin d’assurer une protection réellement efficace et proportionnée des mineurs dans l’environnement numérique.

Voir le PDF
Non soutenu 14/01/2026

L’utilisation croissante des réseaux-sociaux par les mineurs nécessite une approche globale de prévention, associant non seulement l’école, mais aussi les familles et l’ensemble de l’environnement éducatif. Afin d’identifier les modalités les plus adaptées pour accompagner les parents et les mineurs face aux risques liés aux réseaux sociaux, cet amendement propose la remise d’un rapport évaluant l’opportunité de créer une plateforme nationale dédiée.

Ce rapport permettra de déterminer avec précision les besoins, les publics cibles, les types de contenus pertinents, ainsi que les complémentarités avec les dispositifs déjà existants. En éclairant les conditions d’éventuelle mise en œuvre, il offre aux pouvoirs publics un cadre d’analyse robuste pour renforcer la prévention et la protection des mineurs dans l’environnement numérique, en cohérence avec les objectifs poursuivis par l’article 4.

Voir le PDF
Tombé 14/01/2026

La protection des mineurs face aux réseaux sociaux ne peut reposer uniquement sur les algorithmes et les dispositifs techniques.

Il est indispensable de former les jeunes à la responsabilité de leurs actes derrière un écran, où l’anonymat apparent favorise trop souvent des violences verbales aux conséquences dramatiques.

Les comportements de cyberharcèlement peuvent détruire durablement des trajectoires de vie, conduire à des troubles psychiques graves, voire à des passages à l’acte irréversibles.

Cet amendement vise à inscrire explicitement dans l’éducation au numérique une pédagogie de la responsabilité, rappelant que les propos tenus en ligne engagent juridiquement leurs auteurs et peuvent entraîner des sanctions pénales.

Voir le PDF
Non soutenu 14/01/2026

Cet amendement vise à protéger les mineurs des contenus, en particulier ceux en direct, dont les images ou les propos sont violents ou à caractère sexuel. Ce risque est avéré et concerne tous les mineurs, y compris ceux de 15‑18 ans. Il s’agit de bloquer l’accès aux contenus les plus sensibles, à l’instar de ce qui est mis en place sur Youtube par exemple. Les réseaux sociaux exposent en effet massivement les mineurs à des contenus sensibles, dont la diffusion en direct est particulièrement difficile à anticiper et à modérer. Le simple contrôle de l’âge à l’inscription est insuffisant pour prévenir ces risques.

L’amendement impose donc aux plateformes de s’assurer de l’âge de l’utilisateur préalablement à l’accès à ces contenus sensibles, en cohérence avec l’article 28 du règlement européen sur les services numériques (DSA) et avec les législations nationales relatives à la protection des mineurs en ligne. Cette obligation s’ajoute au dispositif initial de la présente proposition de loi et ne s’y substitue pas.

Voir le PDF
Adopté 14/01/2026

Suivant l’avis du Conseil d’État, le présent amendement vise à donner la possibilité au conseil d’administration des lycées disposant de formations de l’enseignement supérieur de déroger, dans le règlement intérieur, à l’interdiction générale d’utilisation du téléphone mobile pour les étudiants. Il s’agit des étudiants inscrits en section de technicien supérieur (STS) et en classe préparatoire aux grandes écoles (CPGE). A titre d’exemple, le règlement intérieur de la cité scolaire Michelet (Vanves) a prévu que les étudiants en CPGE puissent librement utiliser leur téléphone mobile entre 18 heures et 7 h 45. Au vu de la différence d’âge et de maturité des étudiants par rapport aux lycéens, il convient de donner aux lycées une certaine souplesse dans la mise en œuvre de l’interdiction du téléphone mobile.

Voir le PDF
Adopté 14/01/2026

Le présent amendement prévoit une entrée en vigueur différée de l’interdiction du téléphone mobile au lycée, fixée à la rentrée scolaire 2026‑2027. L’objectif poursuivi consiste à laisser aux conseils d’administration des lycées un délai suffisant pour la mise en œuvre pratique de la mesure et, le cas échéant, adapter leur règlement intérieur. En effet, plusieurs précédents démontrent l’utilité d’une période transitoire précédant l’interdiction sèche dans les établissements. Par exemple, le lycée Lucie-Aubrac de Sommières a d’abord instauré une période avec un jour sans téléphone par semaine, puis deux jours, avant de l’interdire sur l’ensemble de la semaine, cette phase de sevrage progressif ayant été jugée bénéfique pour l’acceptabilité de la mesure par les élèves.

Voir le PDF
Adopté 14/01/2026

Le présent amendement vise à rendre applicable l'extension de l'interdiction du téléphone mobile aux îles Wallis et Futuna.

Voir le PDF
Adopté 14/01/2026

Dans son avis sur la proposition de loi, le Conseil d’État a considéré que l’interprétation de l’article 227‑17 du code pénal par les juridictions judiciaires permettait d’appréhender un large champ de comportements des parents entraînant effectivement un préjudice auprès du mineur. L’objectif poursuivi par le présent article, à savoir sanctionner les défaillances graves des parents en matière numérique, peut déjà être, en substance, satisfait par la rédaction en vigueur de l’article 227‑17.

Voir le PDF
Adopté 14/01/2026

Le présent amendement propose de supprimer l’article 3, pour des motifs de cohérence et de lisibilité de la proposition de loi, dont l’objet principal consiste, d’une part, en l’interdiction de l’accès des mineurs de quinze ans aux réseaux sociaux et, d’autre part, en l’interdiction de l’utilisation du téléphone mobile au sein des lycées. Les questions relatives à la prévention et à la sensibilisation auront vocation à être traitées dans un autre texte. 

Voir le PDF
Adopté 14/01/2026

L’article 5 de la proposition de loi vise à demander au Gouvernement la remise au Parlement d’un rapport évaluant, sur les trois années précédant la remise dudit rapport, le respect par les services de réseaux sociaux en ligne de leurs obligations résultant du règlement européen sur les services numériques, et la persistance éventuelle de risques pour les mineurs dans l’utilisation de ces services.

La remise au Parlement du rapport demandé par le présent article n’apparaît pas nécessaire, dans la mesure où plusieurs institutions travaillent régulièrement sur la problématique des risques auxquels s’exposent les mineurs sur les services de réseaux sociaux en ligne. À titre d’exemple, en septembre 2025, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a publié une étude sur la protection des mineurs en ligne, recensant notamment les contenus problématiques susceptibles d’être visionnés par les mineurs : contenus violents, haineux ou discriminatoires, liés au suicide et à l’automutilation, etc. L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a également mené des travaux sur cette question, qui seront prochainement publiés. En juin 2021, la Commission nationale de l’informatique et des libertés (Cnil) avait publié huit recommandations pour renforcer la protection des mineurs en ligne. Enfin, la rapporteure a mené une analyse approfondie du respect par les services de réseaux sociaux en ligne de leurs obligations découlant du RSN, dans le cadre de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. En parallèle de ces travaux institutionnels, la recherche scientifique contribue à informer les pouvoirs publics sur les risques associés aux réseaux sociaux ; la rapporteure y a consacré un développement dans son rapport d’enquête. 

Pour ces raisons, le présent amendement propose de supprimer l’article 5.

Voir le PDF
Adopté 14/01/2026

Le présent amendement intègre les échanges de la rapporteure avec le Conseil d’État et le ministère de la Justice, qui ont souligné le caractère récent des dispositions modifiées, issues de la loi n° 2024‑449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN), et ont fait ressortir le manque de recul sur la peine complémentaire dite de « bannissement numérique » (suspension des comptes d’accès aux services de plateforme en ligne utilisés pour commettre l’infraction).

Il propose donc la suppression de l'article 2.

 

Voir le PDF
Adopté 14/01/2026

Si la nécessité de sensibiliser les élèves, dès le plus jeune âge, aux enjeux de protection de la santé mentale en ligne et particulièrement aux conséquences psychologiques de l’utilisation des réseaux sociaux ne fait aucun doute, cette mesure pourrait toutefois être mise en œuvre par voie réglementaire.

Les dispositions du présent article sont déjà satisfaites par la dispositions du code de l’éducation. Dans son avis sur la proposition de loi, le Conseil d’État soulignait que ce dernier « comporte déjà plusieurs dispositions de forme législative prévoyant la sensibilisation des élèves aux risques que comporte l’utilisation excessive des outils numériques et à l’acquisition d’un comportement responsable dans leur utilisation, laquelle est déjà susceptible de recourir les enjeux de santé mentale ». Ainsi, l’article L. 312-9 prévoit qu’à l’issue de l’école primaire et du collège, les élèves reçoivent une attestation certifiant qu’ils ont bénéficié d’une sensibilisation au bon usage des réseaux sociaux ainsi qu’aux dérives et aux risques qui y sont liés.

Le présent amendement propose donc la suppression de l'article 4.

Voir le PDF
Rejeté 14/01/2026

La protection des mineurs ne peut reposer uniquement sur les plateformes. Les parents doivent être pleinement responsabilisés. Cet amendement vise à sanctionner les comportements consistant à contourner sciemment les règles d’âge, ce qui affaiblit gravement l’efficacité du dispositif et expose les enfants à des risques avérés.

Voir le PDF
Tombé 14/01/2026

Les contenus faisant la promotion du suicide ont des conséquences particulièrement graves lorsqu’ils touchent des mineurs. Il est indispensable d’aggraver les sanctions dans ces cas afin d’assurer une protection renforcée de l’enfance.

Voir le PDF
Tombé 14/01/2026

Il est désormais établi que l’usage excessif des réseaux sociaux peut entraîner de véritables mécanismes d’addiction. Il est indispensable que l’éducation au numérique aborde explicitement cette réalité afin de prévenir des comportements pathologiques dès le plus jeune âge.

Voir le PDF
Tombé 14/01/2026

La transparence et la responsabilité des grandes plateformes sont indispensables. Cet amendement vise à garantir que leurs dirigeants soient entendus publiquement afin de rendre compte de leurs pratiques devant la représentation nationale.

Voir le PDF
Rejeté 14/01/2026

Par cet amendement, le groupe LFI souhaite s’assurer que la réforme proposée des programmes scolaires soit réellement effective.

Nous avons toujours défendu une réforme des programmes scolaires afin d’y intégrer une sensibilisation aux dangers du numérique – comme lors des discussions autour du projet de loi visant à « sécuriser et réguler l’espace numérique » (PJL SREN) – car nous considérons que seule une approche préventive permet de lutter durablement contre les dangers d’une exposition incontrôlée. Or, en matière éducative (comme partout ailleurs), la Macronie nous a habitué à lancer des projets de réformes sans moyens supplémentaires alloués, ce qui s’est vérifié dans toutes les dernières réformes gouvernementales en la matière. Or, sans moyens supplémentaires, cette réforme des programmes risque de rester lettre morte, alors que son importance est désormais centrale au vu des enjeux soulevés.

Cette question des moyens est d’autant plus centrale que l’examen actuel du projet de loi de finances pour 2026 prévoit en matière éducative des mesures budgétaires particulièrement austéritaires, comme la suppression de 4 018 postes d’enseignants, alors même qu’il est déjà difficile aujourd’hui de terminer l’étude du programme scolaire en raison notamment du manque de professeurs présents dans les classes. Par conséquent, nous souhaitons ouvrir la réflexion sur les moyens alloués à cette réforme des programmes scolaires, afin que chaque élève en France puisse en bénéficier et être mieux armé face aux dangers du numérique.

Voir le PDF
Retiré 14/01/2026

La banalisation culturelle de l’usage du smartphone et des réseaux sociaux chez les très jeunes contribue à normaliser des pratiques dont les effets délétères sont désormais établis. Sans porter atteinte à la liberté de création, cet amendement vise à responsabiliser les producteurs et à informer le public, dans une logique comparable à celle existant pour l’alcool, le tabac ou la violence.

Voir le PDF
Retiré 14/01/2026

L’équipement précoce des enfants en smartphones est largement encouragé par des offres commerciales ciblées. Cet amendement vise à mettre fin à ces pratiques afin de protéger les mineurs et de responsabiliser les acteurs économiques. Il s’inscrit dans une logique de prévention et de protection de l’enfance.

Voir le PDF
Tombé 14/01/2026

Les réseaux sociaux font l’objet de stratégies marketing agressives à destination des plus jeunes, notamment via les influenceurs. Or ces services présentent des risques avérés pour la santé mentale des mineurs. Il est incohérent de reconnaître ces dangers tout en autorisant leur promotion auprès des enfants. Cet amendement vise à mettre fin à cette contradiction.

Voir le PDF
Rejeté 14/01/2026

Par cet amendement, le groupe LFI s’oppose à l’extension du dispositif « Portable en pause » aux lycées. Mesure phare du plan gouvernemental et d’Emmanuel Macron pour lutter contre les effets néfastes des réseaux sociaux chez les mineurs, l’extension dans la précipitation de l’interdiction des téléphones portables au lycée est totalement irréaliste et fait fi des nombreuses réserves soulevées par les syndicats.

En effet, alors que le dispositif a été généralisé au collège à la rentrée scolaire 2025, selon une enquête menée par le syndicat SNPDEN-UNSA en septembre dernier, seuls 8,5 % des principaux de collèges se sont conformés au dispositif. A contrario, près de 67 % ont assuré qu’ils ne comptaient pas appliquer de nouvelles mesures et 25 % qu’ils ne savaient pas encore. Parmi les principales raisons évoquées, figurent notamment la question centrale du financement de la mesure (alors que sa mise en place nécessiterait par exemple l’augmentation des dotations versées aux collectivités territoriales, et notamment les régions pour les lycées, afin de financer des équipements supplémentaires dans les établissements pour conserver les téléphones portables, mais que le budget austéritaire actuellement examiné à l’Assemblée ne le prévoit pas) mais également de nombreuses questions très concrètes en termes d’organisation et de périmètre (responsabilité en cas de vol de l’appareil, recrutements supplémentaires d’assistants d’éducation pour faire appliquer l’interdiction...).

Toutes ces raisons expliquent les réactions très mitigées des syndicats sur la question. Ainsi, Isabelle Vuillet, co-secrétaire générale de la CGT Educ’action (Le Parisien, 07/01/26) rappelle qu’« Il est déjà compliqué de faire respecter l’interdiction au collège, alors au lycée, nous avons un vrai doute sur la faisabilité. Cela ressemble à un effet de com du Gouvernement ». De son côté, Sophie Vénétitay, secrétaire générale du SNES-FSU (RMC, 29/11/25) était également très claire à ce sujet : « On ne peut pas vouloir généraliser une mesure qui est un échec » alors même que « Plus de la moitié des collèges n’ont pas pu appliquer le dispositif. Soit parce qu’ils n’ont pas eu les moyens de s’équiper ou tout simplement par manque de personnel ». Et à Christelle Kauffmann, proviseure de lycée dans le Tarn et membre de l’exécutif du SNPDEN, le principal syndicat des chefs d’établissement, d’ajouter Nous ne contestons pas qu’il y ait un problème d’addiction des jeunes au portable. Mais il s’agit d’un problème de société qui, une fois de plus, retombe sur l’école. » (Le Parisien, 07/01/26). Ainsi, et comme si le Gouvernement envisageait potentiellement déjà l’échec de la mesure d’extension généralisée, le ministère de l’Education nationale évoque la possibilité de retravailler la rédaction du dispositif afin que « Si le texte dispose que la règle générale est que « l’utilisation d’un téléphone mobile (…) par un élève est interdite » dans les lycées, « le règlement intérieur peut déroger à cette interdiction dans certaines circonstances, notamment pour les usages pédagogiques, dans certains lieux et pour les étudiants » (Le Monde, 31/12/25).

Par conséquent, nous souhaitons la suppression de l’extension du dispositif, d’autant plus qu’en l’état actuel du droit (art. L. 511‑5 du code de l’éducation) : une modification du règlement intérieur d’un lycée permet déjà d’« interdire l’utilisation par un élève des appareils [...] dans tout ou partie de l’enceinte de l’établissement ainsi que pendant les activités se déroulant à l’extérieur de celle-ci ».

Voir le PDF
Rejeté 14/01/2026

Ce sous amendement vise à respecter l’avis du Conseil d’État qui demande de mentionner expressément que l’interdiction d’usage ne s’applique pas pour les élèves qui suivent, dans les lycées, une formation d’enseignement supérieur.

Or, la rédaction proposée par la rapporteure mentionne uniquement une possibilité de déroger à cette interdiction pour les étudiants, par la voie du règlement intérieur. Nous pensons que cette exemption doit être de principe pour tous les étudiants. 

À minima, nous demandons à ce que les règlements intérieurs des établissements visés le prévoient de manière systématique.

Voir le PDF
Adopté 14/01/2026

Par cet amendement, le groupe LFI s’oppose à la création d’un délit de négligence numérique qui sanctionnerait les parents qui « exposeraient de façon manifestement abusive et non contrôlée leurs enfants, et notamment les plus jeunes, à des écrans ».

Mesure typique de la Macronie, sa mise en place répond à une logique d’inflation pénale qui ne donne que l’impression d’agir contre les effets néfastes des réseaux sociaux pour les mineurs, alors qu’elle ne fait que transférer la responsabilité des plateformes vers leurs parents. Ces derniers n’étant pas égaux vis-à-vis de la prise de conscience des dangers liés à l’usage des écrans, et des moyens financiers et culturels dont chacun dispose pour y faire face, cette mesure reviendrait à sanctionner plus lourdement les familles de milieux défavorisées qui n’ont ni le temps (horaires de travail décalés), ni les moyens financiers (par exemple, organisations d’activités autre pour les enfants afin qu’ils ne soient pas sur les écrans) de prendre en charge correctement cette problématique. Et parmi les familles les plus défavorisées, on retrouve notamment les familles monoparentales, très majoritairement des femmes et statistiquement plus pauvres que la moyenne (19 % des personnes vivant dans une famille monoparentale sont pauvres contre 7 % des couples avec un ou plusieurs enfants selon l’Observatoire des inégalités en 2024).

Dans ce contexte, la question centrale est celle de l’amélioration des dispositifs d’accompagnement à la parentalité numérique, seule mesure préventive qui permettrait de lutter à long-terme contre les dérives de l’usage des réseaux sociaux par les enfants. Même le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs le souligne : près d’1 parent sur 2 ne se sent pas ou pas suffisamment accompagné pour réguler la consommation des écrans par ses enfants et se sentent donc dépassés par la situation. Tout cela s’inscrivant dans un contexte ou 6 % des Français•es (principalement des femmes) disent être touché•es par le « burn-out » parental (Santé Publique France, 15/05/24) et que comme l’a souligné le rapport d’information en conclusion des travaux d’une mission d’information « sur la santé mentale des mineurs » défendue notamment par la députée FI Anne Stambach-Terrenoir et dont les conclusions ont été publié le jeudi 10 juillet dernier, « si les parents ont conscience des dangers liés au numérique, ils sont démunis pour tenter de réguler l’usage des écrans par leurs enfants. Ils font souvent face à des injonctions multiples et contraires, difficiles à mettre en œuvre ». La création d’un délit de négligence numérique créérait ainsi une double peine inacceptable pour les parents, déjà en grande difficulté.

Plutôt que de s’en prendre une nouvelle fois aux personnes les plus en difficultés, nous considérons que seule une approche fondée sur la prévention et notamment la mise en place d’une véritable politique d’accompagnement à la parentalité numérique permettra à ces derniers d’affronter les dangers liés aux écrans, accompagné d’une véritable réflexion autour de la question de la régulation des plateformes, dont le modèle économique fondé sur la captation de l’attention est un danger pour nos enfants, mais également un danger démocratique.

Voir le PDF
Tombé 14/01/2026

L’évaluation de l’application de la loi doit permettre d’apprécier son efficacité réelle sur la santé et le développement des mineurs.

Le présent amendement vise à enrichir le contenu du rapport remis au Parlement afin qu’il intègre des indicateurs relatifs au capital santé des enfants, au-delà du seul respect formel des obligations par les plateformes.

Il permettra d’éclairer le législateur sur les effets concrets des mesures adoptées et, le cas échéant, d’envisager des ajustements futurs fondés sur des données objectives de santé publique.

Voir le PDF
Tombé 14/01/2026

Les usages intensifs des réseaux sociaux ont des effets multiples sur la santé des enfants et des adolescents. Outre les impacts sur la santé mentale, ils peuvent affecter le sommeil, l’attention, l’activité physique et les relations sociales, éléments constitutifs du capital santé global des mineurs.

Le présent amendement vise à garantir que les messages sanitaires prévus par la proposition de loi reflètent cette réalité multidimensionnelle. Il permet de fonder juridiquement une information complète, cohérente et conforme à l’état des connaissances scientifiques actuelles.

En élargissant le champ des messages sanitaires, cet amendement renforce la portée préventive du dispositif et contribue à une meilleure compréhension des enjeux par les familles et les jeunes.

Voir le PDF
Tombé 14/01/2026

Les parents jouent un rôle central dans l’encadrement des usages numériques des mineurs. Toutefois, ils sont souvent confrontés à des évolutions technologiques rapides et à un manque de repères clairs sur les effets des écrans.

Cet amendement vise à renforcer l’information à destination des titulaires de l’autorité parentale, en reconnaissant explicitement leur rôle dans la construction et la préservation du capital santé numérique de l’enfant.

Il s’agit d’un levier essentiel pour favoriser des pratiques numériques équilibrées, réduire les inégalités d’information et accompagner les familles sans culpabilisation.

Voir le PDF
Tombé 14/01/2026

L’éducation au numérique constitue un levier essentiel de prévention des risques liés aux usages des réseaux sociaux. Elle doit permettre aux élèves d’acquérir non seulement des compétences techniques, mais également une compréhension des impacts des pratiques numériques sur leur santé et leur bien-être.

En intégrant explicitement la notion de capital santé, cet amendement renforce la dimension préventive et éducative de la formation prévue par la proposition de loi et contribue à l’adoption de comportements responsables et équilibrés dès le plus jeune âge.

Voir le PDF
Rejeté 14/01/2026

Par cet amendement, le groupe LFI souhaite s’attaquer réellement aux dangers posés par l’usage des écrans, auprès notamment des enfants, en questionnant le modèle économique des plateformes fondés sur la captation de l’attention des utilisateurs.

Cette captation de l’attention repose sur des outils désormais connu de toutes et tous : fondée sur une captation massive de données et métadonnées numériques personnelles (quitte à ne pas toujours respecter la réglementation en vigueur), ces dernières alimentent des interfaces conçues de manière addictive à travers l’usage d’outils techniques et numériques particulièrement sophistiqués relevant parfois davantage de la manipulation (scrolling infini de contenu, algorithmes de recommandations ultra-personnalisés...) permettant aux plateformes de créer des interactions de plus en plus importante et de monétiser ces dernières (à travers par exemple la mise en avant de publicités, qui est aujourd’hui centrale en termes de retombées économiques générées). Alors que les dangers posés par ce modèle sont de plus en plus documentés – comme le souligne le rapport de la commission d’enquête – les utilisateurs mineurs constituent une cible particulièrement vulnérable face à ces outils : or, la présente proposition de loi ne propose rien pour en réguler les effets.

Par conséquent, nous proposons à travers cet amendement de questionner concrètement ce modèle, en interdisant aux plateformes numériques confrontées au profil d’un utilisateur mineur d’avoir recours à des algorithmes de recommandation pour mettre en avant des contenus plutôt que d’autres, fondé sur l’analyse de ses préférences individuelles. Notre proposition est en réalité parfaitement cohérente avec les dispositions du Règlement européen sur les services numériques, dont l’article 28 sur la protection des mineurs prévoit notamment que « Les fournisseurs de plateformes en ligne ne présentent pas sur leur interface de publicité qui repose sur du profilage [...] en utilisant des données à caractère personnel concernant le destinataire du service dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur ». C’est seulement à ce prix que nous pourrons protéger les mineurs des dangers auxquels les expose les réseaux sociaux, tout en s’attaquant structurellement aux causes de cette exposition : l’absence de régulation des plateformes.

Voir le PDF
Non soutenu 14/01/2026

Les auteurs de cet amendement partagent la philosophie de cet article visant à interdire l’utilisation du téléphone portable au lycée. Toutefois, inscrire son interdiction dans la loi dans les lycées est une mesure inefficace et redondante.

Inefficace, car les lycéens et lycéennes ont la possibilité de sortir de l’enceinte des établissements lors des pauses ce qui leur permet d’utiliser librement leur téléphone.

Redondante enfin, car la quasi totalité des établissements ont déjà interdit l’utilisation des portables au sein de leur enceinte dans leurs règlements intérieurs. Il n’y a donc aucune raison de l’inscrire en plus dans la loi.

Les cosignataires de cet amendement estiment qu’il faudrait surtout davantage de personnels pour sensibiliser les élèves à une utilisation raisonnée des portables et à l’utilisation des réseaux sociaux.

Voir le PDF
Non soutenu 14/01/2026

Cet amendement vise à supprimer cet article car les signataires estiment que la création d’un nouveau délit de négligence numérique n’est pas la solution pour réguler la présence des enfants sur les réseaux sociaux et derrière un écran. 

Dans les faits, il sera très compliqué de mettre en oeuvre ce délit. A partir de quel moment pourrait-on qualifier un usage comme particulièrement abusif ? Sur quelles preuves ? Par ailleurs, nous pensons que cette mesure coercitive ne produira pas d’effets positifs. Seules la prévention et la sensibilisation des parents pourraient permettre de mieux encadrer le temps passé par les enfants sur les écrans et de contrôler les sites sur lesquels ils ne doivent pas naviguer.

Voir le PDF
Tombé 14/01/2026

Cet amendement rédactionnel vise à souligner que le harcèlement est interdit partout, que ce soit dans l’espace numérique, dans les établissements scolaires et toutes les sphères de notre société.

Voir le PDF
Rejeté 14/01/2026

Cet amendement vise à supprimer l’article 6.

Si les députés de notre groupe partagent l’intention louable de limiter l’exposition des écrans sur les plus jeunes, nous considérons que l’interdiction pure et simple des téléphones portables dans les lycées ne résoudra pas cette problématique mais risque d’alourdir la charge de travail des personnels éducatifs. Rappelons par ailleurs, cette interdiction est déjà possible et prévue par le code de l’éducation puisque les règlements intérieurs des lycées peuvent d’ores et déjà interdire les téléphones dans des espaces de l’établissement et pendant les activités à l’extérieur de celle-ci. 

À l’instar de la FCPE qui a publié sa déclaration préalable au CSE du 7 janvier, nous partageons le constat qu’« en pratique, nous savons cette mesure inapplicable et facilement contournable à l’occasion d’une sortie de l’établissement à l’inter-cours ou à la faveur d’un trou dans l’emploi du temps. Ce qui n’est pas possible dans la cour le sera quelques mètres plus loin devant l’entrée de l’établissement. Dans un lycée, concrètement puisque c’est le statut d’étudiant ou de lycéen qui fixera le droit ou l’interdit, des lycéens majeurs ne pourront pas consulter leur portable et des étudiants en BTS ou en prépa le pourront… nous souhaitons bien du courage aux équipes de vie scolaire, aux enseignants et équipes de direction pour faire respecter cette interdiction ». 

Au-delà des contournements très faciles d’une telle interdiction, de la difficulté de contrôler l’usage selon l’élève et du manque de moyens pour les personnels, subsiste une ambivalence à une telle interdiction alors même que les politiques autour du numérique à l’école ont été renforcées depuis plusieurs années. Plutôt qu’une énième interdiction, des moyens réels dédiés à l’éducation au numérique, la lutte contre le cyberharcèlement et la protection des données devraient être mis en place afin de répondre aux enjeux de notre époque. Il est difficilement envisageable d’opérer un retour en arrière dans notre société entièrement dédiée au numérique a fortiori pour des adolescents ou jeunes adultes parfois majeurs.      

Ainsi, le SNES-FSU, dénonce une mesure d’affichage, sans moyens nouveaux et une nouvelle instrumentalisation de l’école.

Le CSE réuni le 7 janvier a voté à la quasi unanimité (93 %) contre cette mesure. 

La méthode interroge également quand on sait que ce Conseil supérieur de l’Éducation nationale a été convoqué en urgence sans que la communauté éducative n’ait été associée à la réflexion en amont. Une telle réforme, qui touche au cœur du fonctionnement quotidien des établissements, ne peut être décidée sans un réel dialogue social et professionnel.

Enfin, alors que cette disposition devrait également figurer dans le projet de loi du Gouvernement, nous ne comprenons pas pourquoi nous légiférons aujourd’hui sur ce point.

Voir le PDF
Adopté 14/01/2026

Cet amendement du groupe Socialistes et apparentés vise à supprimer l’article 7.

Les députés du groupe socialistes et apparentés s’opposent à la création d’un délit de négligence numérique qui, dans un singulier renversement, vient faire peser la responsabilité première du business du sordide créé par les plateformes sur les responsables légaux des enfants, eux-même soumis aux effets addictifs des algorithmes.

C’est pourtant l’algorithme créé par les plateformes qui expose gravement les enfants et adolescents à des contenus dangereux, à l’addiction et aux mécanismes de gamification. 

Lors de la commission d’enquête sur les effets psychologiques de Tiktok sur les mineurs, il a été constaté par exemple que la promotion de contenus incitants à la maigreur excessive, et notamment tendance SkinnyTok, hashtag visant à faire la promotion de la maigreur, était largement mise en avant par l’algorithme de l’application. Amnesty International a d’ailleurs réalisé une expérience permettant de démontrer qu’en moins de 20 minutes d’utilisation sur un compte mineur le fil d’actualité est saturé de vidéos sur la santé mentale, au bout de 45 minutes, des messages explicites sur le suicide apparaissent et qu’au bout de 3 heures tous les contenus proposés par l’algotithme étaient sombres et en rapport avec la dépression ou l’incitation à des comportements dangereux. 

Ces données rappellent que ce ne sont ni les tuteurs ni l’utilisateur qui doivent être tenus pour responsables de l’exposition mais bien les plateformes. 

Au contraire, nous prônons une politique d’accompagnement des familles à l’utilisation du numérique par la mise à disposition d’outils facilités de contrôle parental, d’éducation aux risques et de réponses à donner face au cyberharcèlement ou à l’addiction. 

Cette mesure, qui n’est pas contrôlable, pourrait aggraver la situation de familles désemparées et est totalement à l’opposée des politiques éducatives. Elle pourrait également renforcer les inégalités en ciblant des familles déjà suivies alors même que la surexposition aux écrans concerne l’immense majorité de la population. En outre, tant qu’une politique publique visant à sensibiliser tous les parents aux effets des écrans ne sera pas mise en place, et n’aura pas produit des effets dans le temps, cette mesure sera socialement très discriminante tant on sait que l’exposition aux écrans est corrélée au niveau de revenus et de diplôme des parents.

Voir le PDF
Tombé 14/01/2026

Cet amendement de repli vise à mettre en œuvre le délit de négligence numérique 10 ans après la promulgation de la loi afin d’évaluer sa solidité juridique et sa faisabilité. 

Nous sommes opposés à la création de ce délit qui présente des risques de constitutionnalité et d’opérabilité en plus de faire peser sur l’individu la responsabilité qui incombe pourtant aux plateformes. 

Voir le PDF
Tombé 14/01/2026

Cet amendement de repli vise à supprimer le mot : « excessif » du dispositif créant un délit de négligence numérique. 

En effet, nous ne savons pas quelle est la définition de l’usage excessif des « outils numériques » – cette définition portant un véritable flou interprétatif – alors même qu’ils peuvent présenter un risque dès les premières minutes d’utilisation comme ils ne peuvent n’en présenter aucun après plusieurs heures. 

Avant même l’usage excessif, c’est le type d’usage qui en est fait qui peut comporter un risque pour l’utilisateur en raison des contenus exposés par la plateforme et mis en avant par l’algorithme. Le groupe Socialistes et apparentés est opposé à la création d’un délit de négligence numérique. 

Voir le PDF
Tombé 14/01/2026

Cet amendement de repli vise à supprimer le mot : « inadapté » du dispositif créant un délit de négligence numérique. 

En effet, nous ne connaissons pas la définition de l’usage inadapté des « outils numériques » et sa présence dans un texte de loi risque de créer un flou interprétatif pour le juge. 

Voir le PDF
Tombé 14/01/2026

Cet amendement de repli vise à supprimer les mots : « non surveillé » du dispositif créant un délit de négligence numérique. 

Il est évidemment impossible d’établir une surveillance permanente des jeunes qui peuvent avoir accès à des outils numériques en permanence. 

Par ailleurs, les effets de bord de ce terme sont trop nombreux (à partir de quand et de quoi l’utilisation est-elle surveillée ?) et à ce titre présentent un risque juridique important. En outre, si des dispositifs de contrôle parental existe, le mineur a le droit développer une vie privée. Comme le souligne le défenseur des droits des enfants dans son rapport de 2022, « La nécessité d’espaces et de moments préservés pour les enfants se pose aussi au-delà des lieux où ils vivent. Sur le chemin de l’école, lors des premières sorties sans l’accompagnement d’un adulte et particulièrement au cours de l’adolescence, les enfants et les jeunes ont besoin de ne pas être constamment soumis au regard des adultes. [...] Parallèlement à toutes les questions que cela pose en termes de protection des enfants et d’exploitation de leurs données par les acteurs du numérique, le risque de leur surveillance constante est réel. »

Voir le PDF
Non soutenu 14/01/2026

Cet amendement du Groupe Écologiste et Social vise à interdire le profilage des mineurs par les plateformes, à partir de leurs données générées lors de l’utilisation des services de médias sociaux, à des fins de personnalisation des contenus proposés.

Le « profilage » est définit par le RGPD comme « toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique ». 

Le profilage permet aux plateformes d’adapter leurs contenus en fonction des utilisateurs afin de proposer un contenu personnalisé. Le contenu offert étant adapté à ces profils, il est davantage addictogène. L’addiction aux réseaux sociaux, qui entraine une surexposition aux écrans, est nuisible pour le bon développement psychosocial et physiologique des enfants. Les enfants et adolescent étant les plus sensibles aux contenus addictogènes du fait de leur immaturité émotionnelle et psychique, ils doivent en être protégés. 

Par ailleurs, les plateformes tirent des bénéfices de la revente de données personnelles concernant des mineurs, ce qui n’est pas acceptable. Il faut donc interdire le profilage par les réseaux sociaux concernant les mineurs. 

Voir le PDF
Rejeté 14/01/2026

Lors des auditions menées par Madame la Rapporteure, les associations nous ont interpellé sur l’existence de dispositifs facilitant l’exposition des jeunes enfants à des écrans via des fixations pour poussettes ou lits pour enfants. Ces dispositifs contribuent à l’accroissement de l’exposition de plus en plus précoce des enfants aux écrans, contrevenant de fait aux recommandations des autorités sanitaires interdisant l’exposition aux écrans pour les enfants de moins de 3 ans et de façon limitée pour les moins de 6 ans.

Ces dispositifs sont en libre accès sur les plateformes de vente en ligne (voir par exemple : https ://www.amazon.fr/Jan %C3 %A9-Smartphone-Poussettes-Multi-Positions-Installation/dp/B0DSJKQ47X/ref=sr_1_6 ?hvexpln=0&hvocijid=4917659963122211468--&hvqmt=e&mcid=a3a4fac8aa8c3edab414990be58bbc74)

Les outils qui ont explicitement et systématiquement pour vocation de favoriser le temps d’écran des enfants, souvent les plus jeunes, malgré le consensus scientifique sur leur dangerosité doivent être interdits. C’est l’objet de cet amendement. 

Voir le PDF
Tombé 14/01/2026

Cet amendement du Groupe Écologiste et Social vise à élargir les thématiques abordées dans les actions de formation et de sensibilisation des élèves concernant leurs usages des écrans, des plateformes de réseaux sociaux et, plus largement, des services numériques fondés sur des mécanismes de captation de l’attention.

Il s’agit notamment de permettre une sensibilisation au fonctionnement de ces plateformes, reposant sur les algorithmes et les principes de l’économie de l’attention. Une compréhension approfondie de ces mécanismes, ainsi que de leur emprise sur les utilisateurs, est essentielle pour aider les élèves — futurs adultes — à mieux appréhender les logiques à l’œuvre au sein des plateformes numériques, qu’il s’agisse de réseaux sociaux ou d’autres services.

Cette meilleure connaissance des stratégies déployées par les acteurs du numérique doit ainsi contribuer à former de jeunes utilisateurs capables de développer un usage critique, éclairé et responsable des outils numériques. 

Voir le PDF
Adopté 14/01/2026

Cet amendement du groupe Écologiste et Social propose la suppression de l’article 7 de la proposition de loi. 

En effet, nous estimons que la charge de la responsabilité ne devrait pas reposer une nouvelle fois sur les épaules des parents mais sur celles des plateformes. Les parents n’ont pas nécessairement les moyens, ni les outils de faire face à l’attrait des écrans et l’addiction nourrie par la puissance des algorithmes. 

Par ailleurs, nous estimons que le droit actuel permet déjà de punir la négligence parentale.

Voir le PDF
Rejeté 14/01/2026

Le présent amendement complète le dispositif de protection numérique des mineurs en rendant obligatoire, immédiate et automatique l’activation du contrôle parental et du filtrage réseau sur les terminaux mobiles, dès la détection d’une carte SIM identifiée comme « mineur ».

Alors que les usages numériques se développent dès le plus jeune âge, l’exposition des enfants à des contenus inappropriés, violence, pornographie, harcèlement, incitations aux troubles alimentaires ou à l’automutilation, constitue un enjeu de santé publique majeur. Si la loi impose déjà aux opérateurs de proposer des dispositifs de contrôle parental, ceux-ci restent largement inefficaces lorsqu’ils reposent sur des démarches volontaires de paramétrage, souvent techniques, complexes, et donc peu mises en œuvre.

Le présent article vise à assurer l’effectivité technique de ces protections en mobilisant la chaîne industrielle en amont, notamment les fabricants et distributeurs de terminaux mobiles. Il impose que les appareils reconnaissent automatiquement les cartes SIM souscrites pour un mineur de moins de quinze ans et qu’ils déclenchent immédiatement, sans intervention manuelle de l’utilisateur, l’ensemble des dispositifs de filtrage et de contrôle parental requis.

Cette mesure permet une activation native de la protection des mineurs, de manière non intrusive et sans traitement de données personnelles sensibles, tout en respectant le principe d’anonymat en ligne. Elle constitue une alternative réaliste et équilibrée aux systèmes de vérification d’âge biométriques ou déclaratifs, souvent controversés.

Enfin, afin d’assurer l’effectivité du dispositif, l’amendement prévoit un régime de mise en demeure suivi, en cas d’inexécution persistante, d’une saisine du tribunal judiciaire de Paris par l’ARCOM. Le juge pourra ordonner la mise en conformité et, le cas échéant, prononcer une amende pouvant atteindre 3 % du chiffre d’affaires mondial hors taxes du constructeur ou distributeur défaillant.

Voir le PDF
Tombé 14/01/2026

Cet amendement propose de renforcer les messages de prévention obligatoires sur les unités de conditionnement, emballages extérieurs, suremballages et boîtes de téléphones mobiles et autres équipements terminaux connectés à internet, en précisant que ces produits « ne conviennent pas aux enfants de moins de 6 ans », en complément de l’avertissement existant les déconseillant aux mineurs de moins de 13 ans. 

Le rapport d’experts « Enfants et écrans : À la recherche du temps perdu », remis au président de la République Emmanuel Macron le 30 avril 2024, établit un consensus scientifique sur les risques accrus d’une exposition excessive aux écrans pour les très jeunes enfants : altération du développement cognitif et langagier, troubles du sommeil, sédentarité, et impacts sur les capacités socio-émotionnelles. 

Il préconise explicitement d’interdire tout écran avant 3 ans et de déconseiller fortement leur usage jusqu’à 6 ans, même pour des contenus éducatifs, sauf accompagnement adulte limité. 

Cette précision législative informe mieux les consommateurs, notamment les parents, sur les dangers spécifiques pour les moins de 6 ans, favorisant une prévention précoce essentielle à la santé infantile, tout en complétant harmonieusement les mesures existantes sans restreindre indûment les adultes. 

Voir le PDF
Tombé 14/01/2026

Cet amendement étend l’obligation d’inclure un message sanitaire aux publicités pour les téléphones mobiles et autres équipements terminaux connectés à internet, en complément des services de réseaux sociaux. Ces dispositifs constituent en effet les principaux vecteurs d’accès aux contenus numériques, amplifiant les risques d’exposition excessive aux écrans, particulièrement chez les mineurs. 

Le rapport de la commission d’experts « Enfants et écrans – À la recherche du temps perdu », remis au président Macron en avril 2024, alerte sur les effets néfastes liées à l’hyperconnexion : troubles du sommeil (jusqu’à 40 % des 15 ans manquent de plus de 2 heures de sommeil en semaine), sédentarité (33 % des moins de 3 ans inactifs en extérieur), obésité (21 % des 8‑17 ans en surpoids), myopie croissante, retards cognitifs et langagiers, ainsi que des impacts mentaux comme l’anxiété, la dépression et les addictions. 

En intégrant ces produits et dispositifs dans le champ d’application de cette nouvelle règle, l’amendement sensibilise les consommateurs dès la promotion, favorisant un usage responsable et préventif. Cela renforce la santé publique sans restreindre le marché, aligné sur les préconisations du rapport pour une régulation équilibrée protégeant la jeunesse des dangers invisibles des technologies connectées. 

Voir le PDF
Tombé 14/01/2026

Cet amendement complète l’obligation de message sanitaire dans les publicités pour les réseaux sociaux, téléphones mobiles et équipements connectés en l’étendant aux lieux de vente physiques, où de nombreux achats s’effectuent encore, notamment par les familles. 

Ces dispositifs sont les principaux vecteurs d’exposition excessive aux écrans, dont les effets néfastes sur les enfants sont établis : troubles du sommeil, sédentarité, obésité (21 % des 8‑17 ans en surpoids), myopie, retards cognitifs et impacts mentaux comme l’anxiété ou la dépression, selon le rapport « Enfants et écrans – À la recherche du temps perdu » remis au président Macron en avril 2024. 

L’affichage visible de panneaux préventifs au point de vente, inspiré des modèles réussis pour l’alcool et le tabac (loi Évin), sensibilise les parents au moment décisif de l’achat, favorisant des choix responsables. Cette mesure renforce la prévention en santé publique, protège la jeunesse sans entraver le commerce, et répond aux préconisations du rapport pour une information large et efficace sur les risques de l’hyperconnexion. 

Voir le PDF
Non soutenu 14/01/2026

Cet amendement vise à enrichir la formation initiale des assistants maternels, professionnels chargés de l’accueil d’enfants de moins de six ans, avec une majorité de moins de trois ans. En effet, environ 20 % des enfants de cette tranche d’âge sont confiés à ces assistants, les exposant potentiellement à un usage inapproprié des écrans. 

La nocivité des écrans pour les enfants de moins de trois ans est aujourd’hui scientifiquement établie. Le rapport de la commission d’experts sur l’impact des écrans, remis au président de la République Emmanuel Macron le 30 avril 2024 et intitulé « Enfants et écrans – À la recherche du temps perdu », confirme un consensus sur les effets négatifs : troubles du sommeil, sédentarité accrue, retards dans le développement cognitif et langagier, ainsi que des risques d’exposition à des contenus inappropriés sur les plateformes numériques et réseaux sociaux, favorisant l’hyperconnexion subie. 

Intégrer cette sensibilisation aux risques dans la formation permettra aux assistants maternels de mieux protéger les tout-petits, en promouvant des pratiques éducatives sans écrans excessifs, alignées sur les 29 préconisations du rapport. Cette mesure renforce la prévention précoce, essentielle pour le bien-être infantile. 

Voir le PDF
Rejeté 14/01/2026

Le présent amendement du Groupe Écologiste et Social vise à renforcer la protection des mineurs face à l’exposition précoce aux écrans en étendant l’interdiction de la publicité destinée aux enfants de moins de 14 ans pour les téléphones portables à l’ensemble des équipements dotés d’un écran : téléphones, tablettes, ordinateurs, téléviseurs, montres connectées et dispositifs assimilés.

La publicité promouvant ces appareils ou leur usage n’est pas encadrée, notamment en ce qui concerne la publicité visant directement les mineurs. Cette libre publicité de ces appareils vient en contradiction avec les injonctions parentales, scolaires et sanitaires.

Interdire la publicité visant les mineurs de moins de 14 ans vise à réduire l’influence sur un public vulnérable face à ces sollicitations.

La disposition est reprise d’une proposition du groupe sénatorial Groupe Écologiste – Solidarité et Territoires.

Voir le PDF
Rejeté 14/01/2026

Le présent amendement du Groupe Écologiste et Social vise à renforcer l’information délivrée aux parents sur les alternatives aux usages des écrans lors des entretiens conduits par les services de protection maternelle et infantile (PMI). Ce dispositif est directement repris d’une proposition portée par le groupe sénatorial Écologiste – Solidarité et Territoires.

Il prévoit d’intégrer explicitement, dans le cadre de ces entretiens de prévention, une information systématique relative aux alternatives aux écrans par les professionnels de la petite enfance.

L’objectif est d’assurer est de renforcer l’accompagnement des parents face aux usages numériques précoces, par la promotion de pratiques favorables au développement psychomoteur, social et cognitif des jeunes enfants.

Cette disposition contribue ainsi à consolider la politique de prévention et de soutien à la parentalité portée dans le champ de l’exposition des jeunes enfants aux écrans.

Voir le PDF
Tombé 14/01/2026

Comme l’attestent les conclusions du rapport « Enfants et écrans : à la recherche du temps perdu », un consensus scientifique se dégage sur les conséquences néfastes des écrans sur plusieurs aspects de la santé des enfants et des adolescents. L’utilisation des réseaux sociaux contribue directement et indirectement à favoriser les déficits de sommeil, la sédentarité, le manque d’activité physique ou encore l’obésité.

À cela s’ajoutent tous les dangers auxquels s’exposent les mineurs, en matière de pornographie et d’extrême violence, exacerbés par la logique financière de certains réseaux sociaux, reposant sur une machine algorithmique, conçue pour capter l’attention et enfermer l’utilisateur dans des contenus similaires. Le rapport de la commission d’enquête sur les effets psychologiques de tik tok sur les mineurs a mis en évidence la stratégie des plateformes qui favorisent par des mécanismes de viralisation des contenus problématiques, ou encore la diffusion de contenus problématiques, la diffusion d’idéologies politiques négatives et contraires aux droits humains.

Pourtant, de nombreux parents ignorent encore aujourd’hui les risques liés à l’exposition de leurs enfants aux réseaux sociaux.

Cet amendement vise donc à s’assurer que les plateformes s’engagent à informer et à sensibiliser sur les risques existants à l’utilisation des réseaux sociaux, à l’instar de ce qui se fait pour la sécurité routière.

Voir le PDF
Rejeté 14/01/2026

Cet amendement vise à responsabiliser les plateformes face aux contenus présents sur les réseaux sociaux.

Le système financier de la majorité des plateformes de réseaux sociaux repose sur l’économie de l’attention, comme l’a démontré le rapport de la commission d’enquête sur les effets psychologiques de tik tok sur les mineurs. Les plateformes reposent sur des logiques algorithmiques qui favorisent des contenus problématiques et la diffusion d’idéologies politiques négatives, contraires aux droits humains.

Malgré les profits engendrés par les plateformes, il n’existe que peu de modération, bien en deçà du volume de contenus à traiter. Le rapport de la commission d’enquête avait révélé les conditions inhumaines des modérateurs, qui devaient parfois traiter plus de 800 vidéos par service.

C’est pourquoi il nous semble nécessaire de responsabiliser les plateformes, afin de s’assurer d’offrir un espace sûr pour les mineurs. Interdire les réseaux sociaux aux moins de quinze ans ne protège pas des risques encourus.

Voir le PDF
Rejeté 14/01/2026

La loi n°2010‑476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne prévoit à son article 28 que les opérateurs de jeux ou de paris en ligne informent en permanence les joueurs de l’existence du service d’information et d’assistance prévu à l’article 29.

Cet amendement vise donc à s’inspirer de ce qui existe déjà en termes de prévention en l’adaptant aux dangers présents sur les réseaux sociaux.

Voir le PDF
Rejeté 14/01/2026

Cet amendement vise à continuer de sensibiliser et de protéger les mineurs aux risques liés aux usages numériques.

L’interdiction des réseaux sociaux avant 15ans ne protège pas les futurs utilisateurs des contenus dangereux auxquels ils pourraient être confrontés. Les réseaux sociaux doivent être des espaces adaptés aux mineurs, régulés et paramétrés pour permettre son usage en toute sécurité.

Le problème n’est pas les réseaux sociaux mais le modèle financier, basé sur une économie de l’attention, cherchant à capturer les données des utilisateurs. Lieux de sociabilisation pour beaucoup d’adolescents, ils garantissent un lien social pour une jeunesse toujours plus isolée.

Retarder la découverte des réseaux sociaux n’est pas une réponse suffisante, notamment quand les adultes cèdent aux mêmes pratiques addictives.

La réponse est à trouver dans une meilleure éducation aux réseaux sociaux et aux espaces numériques, qui ne peut s’articuler uniquement par une interdiction. La responsabilisation des plateformes est nécessaire, afin de prévenir et de sensibiliser.

Voir le PDF
Tombé 14/01/2026

Cet amendement vise à obliger les influenceurs lors de la promotion des réseaux sociaux, d’en rappeler les dangers et les risques existants.

Voir le PDF
Non soutenu 14/01/2026

La loi votée en 2022 prévoyait un contrôle par défaut de l’accès des enfants à certaines applications, sans que les parents n’aient rien à faire. Mais les outils de contrôle du temps passé devant les écrans n’ont pas été mise en place, par défaut. Les parents doivent trouver l’outil adéquat au milieu d’une offre pléthorique, gratuite ou non et comprendre comment l’installer et l’utiliser. Ils veulent des logiciels faciles d’utilisation pour ne pas être dépossédés de leurs rôles.

Ainsi, cet amendement vise donc à rajouter au contrôle parental un dispositif du contrôle d’écran déjà préinstallé sur les appareils électroniques.

Voir le PDF
Adopté 14/01/2026

Cet amendement du Groupe Écologiste et Social vise à inscrire dans la loi l’arrêté du 2 juillet 2025 sur l’interdiction des écrans dans les lieux d’accueil pour jeunes enfants

Si cet arrêté constitue une avancée importante en matière de prévention des risques liés à une exposition précoce aux écrans, son caractère réglementaire ne lui confère ni la stabilité ni la portée nécessaires pour garantir une protection durable des jeunes enfants. Son inscription dans la loi permettrait d’en assurer la pérennité, d’en renforcer la lisibilité et de sécuriser juridiquement son application.

En effet, de nombreuses études scientifiques ont mis en évidence les effets délétères d’une exposition précoce aux écrans sur le développement cognitif, langagier, moteur et socio-émotionnel des jeunes enfants. Face à ces constats largement documentés, la prévention de l’exposition aux écrans doit constituer un objectif clair et affirmé de la politique publique en matière de petite enfance.

En consacrant dans la loi l’interdiction de l’exposition des jeunes enfants aux écrans dans les lieux d’accueil, le présent amendement vise à renforcer la protection des enfants, à soutenir les professionnels de la petite enfance dans leurs pratiques éducatives et à garantir aux familles un cadre cohérent, protecteur et fondé sur les connaissances scientifiques actuelles.

Voir le PDF
Retiré 14/01/2026

Le présent amendement vise ainsi à interdire la publicité sur les réseaux sociaux faisant la promotion de la « malbouffe » qui serait susceptible d’être vue par les mineurs afin de lutter contre l’obésité infantile. 

Selon Santé publique France, près de 20 % des enfants et adolescents en France sont aujourd’hui en situation de surpoids, dont 3 à 4 % en situation d’obésité, avec des conséquences durables sur leur santé et un coût de plusieurs milliards d’euros par an pour l’Assurance maladie.

Les réseaux sociaux jouent un rôle central dans cette dynamique. Leur modèle économique repose sur la diffusion massive de contenus publicitaires, souvent via des influenceurs ou des formats immersifs, exposant les mineurs à la promotion répétée de produits alimentaires et de boissons, trop gras, trop sucrés et trop salés, type « malbouffe ». Car en moyenne, les enfants et adolescents âgés de 6 à 17 ans passent plus de 4 heures par jour devant les écrans, selon les données de Santé publique France. Cette surexposition précoce et continue influence directement les préférences alimentaires des enfants et favorise l’installation durable de comportements à risque pour leur santé physique et mentale. 

En effet, les slogans accompagnant les publicités pour les produits alimentaires (« Pour votre santé, mangez au moins cinq fruits et légumes par jour » ou « Évitez de manger trop gras, trop sucré, trop salé »), ont certes permis de sensibiliser la population aux risques sanitaires de l’alimentation ultratransformée, ils n’ont pas permis d’en réduire la consommation. Selon une étude de l’Inserm de 2023, une consommation importante d’aliments ultra-transformés est associée à un surrisque d’obésité, de diabète, de dyslipidémie et de cancer.

Il apparaît dès lors nécessaire d’instaurer une interdiction claire, lisible et objectivée, fondée sur des outils de référence, dont celui reconnu par les pouvoirs publics : le Nutri-Score. Le choix d’interdire la publicité pour les produits de faible qualité nutritionnel et ceux classés C, D et E, selon le Nutri-Score, permet de fonder juridiquement la mesure sur un critère sanitaire transparent, compréhensible et de plus en plus déployé en France.

Cette approche rejoint celle adoptée récemment par le Royaume-Uni, qui a interdit la publicité en ligne pour les produits les plus défavorables à la santé afin de lutter efficacement contre l’obésité infantile, avec des effets attendus significatifs tant sur la santé des enfants que sur la soutenabilité du système de soins.

Le présent amendement vise ainsi à protéger les mineurs dans l’espace numérique des risques sur leur santé du développement de comportements et troubles alimentaires en inscrivant la politique de prévention française dans une logique cohérente, ambitieuse et fondée sur des critères scientifiques reconnus.

Voir le PDF
Retiré 14/01/2026

Le présent amendement vise ainsi à interdire la publicité sur les réseaux sociaux faisant la promotion de l’alcool qui serait susceptible d’être vue par les mineurs afin de préserver leur santé.. 

La loi du 10 janvier 1991, dite loi Évin, encadre strictement la publicité en faveur des boissons alcoolisées afin de préserver la santé publique, en particulier celle des personnes mineures.

Toutefois, alors que la vente d’alcool est interdite aux mineurs de moins de 18 ans, l’effectivité de la loi et ses objectifs d’amélioration de santé publique sont aujourd’hui fragilisées par la diffusion de publicité de produits alcoolisés à communication promotionnelle sur les réseaux sociaux à destination des mineurs. Car en moyenne, les enfants et adolescents âgés de 6 à 17 ans passent plus de 4 heures par jour devant les écrans, selon les données de Santé publique France.

Selon les enquêtes de l’EHESP et de l’OFDT, 79 % des jeunes de 15 à 21 ans déclarent être exposés chaque semaine à des publicités pour l’alcool sur les réseaux sociaux, et 23 % reconnaissent que ces contenus leur ont donné envie de consommer.

Dans un contexte où plus de 80 % des adolescents de 15 à 17 ans ont déjà consommé de l’alcool et où l’alcool demeure la première cause de mortalité évitable chez les 15‑24 ans, il est indispensable de préciser l’esprit de la loi Evin, antérieur à l’avènement des réseaux sociaux, en interdisant la diffusion sur les réseaux sociaux des communications promotionnelles pour l’alcool accessibles aux mineurs.

Le présent amendement vise ainsi à garantir l’effectivité de la loi et la santé des mineurs sur les réseaux sociaux en ligne, sans en modifier l’équilibre.

Voir le PDF
Retiré 14/01/2026

Les réseaux sociaux exposent les mineurs à des risques nouveaux et spécifiques en matière de santé publique. Par leur fonctionnement algorithmique, leur capacité de ciblage et le recours massif à des formats immersifs ou à des influenceurs, ils constituent un vecteur particulièrement puissant de diffusion de communications promotionnelles échappant largement aux cadres de régulation traditionnels. En moyenne, les enfants et adolescents âgés de 6 à 17 ans passent plus de 4 heures par jour devant les écrans, selon les données de Santé publique France.

S’agissant de l’alimentation, Santé publique France indique que près de 20 % des enfants et adolescents sont aujourd’hui en situation de surpoids, dont 3 à 4 % en situation d’obésité, avec des conséquences durables sur leur santé et un coût de plusieurs milliards d’euros par an pour l’Assurance maladie. L’exposition répétée des mineurs à la promotion de produits alimentaires et de boissons trop gras, trop sucrés et trop salés, type « malbouffe » sur les réseaux sociaux influence directement leurs préférences alimentaires et favorise l’installation de comportements à risque et de troubles alimentaires futures. 

Les slogans accompagnant les publicités pour les produits alimentaires (« Pour votre santé, mangez au moins cinq fruits et légumes par jour » ou « Évitez de manger trop gras, trop sucré, trop salé »), ont certes permis de sensibiliser la population aux risques sanitaires de l’alimentation ultra-transformée, ils n’ont pas permis d’en réduire la consommation. Selon une étude de l’Inserm de 2023, une consommation importante d’aliments ultra-transformés est associée à un sur-risque d’obésité, de diabète, de dyslipidémie et de cancer.

S’agissant de l’alcool, la loi du 10 janvier 1991, dite loi Évin, encadre strictement la publicité en faveur des boissons alcoolisées afin de protéger les mineurs. Toutefois, son effectivité est fragilisée par le développement des réseaux sociaux. Selon les enquêtes de l’EHESP et de l’OFDT, 79 % des jeunes de 15 à 21 ans déclarent être exposés chaque semaine à des publicités pour l’alcool sur les réseaux sociaux, et 23 % reconnaissent que ces contenus leur ont donné envie de consommer. Dans un contexte où plus de 80 % des adolescents de 15 à 17 ans ont déjà consommé de l’alcool et où celui-ci demeure la première cause de mortalité évitable chez les 15‑24 ans, ces pratiques constituent un contournement manifeste de l’esprit de la loi Évin.

Face à ces constats, les dispositifs d’autorégulation se révèlent insuffisants. Il apparaît nécessaire de poser des interdictions claires, lisibles et objectivées, adaptées à l’espace numérique. Pour l’alimentation, le recours au Nutri-Score, outil reconnu par les pouvoirs publics, permet de fonder la régulation sur un critère sanitaire transparent, en sus de critères étendus pour évaluer les produits alimentaires et boissons de faible qualité nutritionnel, se retrouvant promus sur les réseaux sociaux actuellement non classés selon le Nutri-Score. 

Pour l’alcool, il s’agit de garantir l’effectivité du droit existant dans l’espace numérique, puisque la vente est interdite aux mineurs de moins de 18 ans, mais que ces derniers sont y exposés via la publicité numérique, dont le cadre n’est pas prévu par la loi Evin.

Le présent amendement vise ainsi à protéger les mineurs des risques sanitaires spécifiques induits par les réseaux sociaux, en interdisant la diffusion, sur ces plateformes, de communications promotionnelles pour des produits et besoins alimentaires de faible qualité nutritionnelle ainsi que pour des boissons alcoolisées lorsqu’elles sont accessibles aux mineurs, sans remettre en cause l’équilibre général des législations existantes.

Voir le PDF
Retiré 14/01/2026

Si l’ambition de l’article 6, visant à étendre aux lycées l’interdiction de l’utilisation des téléphones portables, est louable, elle paraît toutefois démesurée au regard des comportements et des besoins des élèves de cet âge.

Plutôt que d’imposer une interdiction générale, il paraît préférable de créer des espaces d’usage restreint du téléphone, en interdisant son utilisation dans les couloirs de classe mais en la limitant aux récréations ou dans des zones spécifiques comme cela peut se faire dans certains établissements d’ores et déjà. Cette approche permet de concilier protection des jeunes, diminution des usages intempestifs en classe et prévention des effets négatifs d’un usage non encadré. Il s’agit de les responsabiliser davantage.

En outre, une interdiction stricte dans les lycées pourrait avoir un effet contre-productif, en incitant certains élèves à quitter l’établissement pendant les pauses pour utiliser leur téléphone, alors que l’objectif est précisément de favoriser un usage encadré et sécurisé. La suppression de l’article 6 vise donc à privilégier des mesures plus réalistes et adaptées au contexte des lycées, tout en poursuivant les objectifs de socialisation et de diminution des temps d’écran.

Voir le PDF
Tombé 14/01/2026

Cet article de la proposition de loi vise à permettre une meilleure information de la population sur les risques d’un mésusage des réseaux sociaux, notamment chez les enfants et les adolescents. Il vise notamment à imposer sur les emballages des smartphones une mention rappelant qu’ils sont « déconseillés aux mineurs de moins de treize ans » sur le modèle de obligations similaires imposées par le code de la santé publique concernant les produits du tabac. 

L’article 3512‑22 du code de la santé publique détermine ainsi les caractéristiques des emballages du tabac et impose que ces derniers doivent porter un « avertissement sanitaire ». 

Par soucis de cohérence et afin de renforcer la portée préventive de la proposition de loi, cet amendement propose de conserver le même vocabulaire et ainsi remplacer les mots : « message de prévention » par « avertissement sanitaire », ce qui est par ailleurs le vocabulaire retenu dans l’exposé des motifs de ladite proposition de loi. 

Voir le PDF
Adopté 14/01/2026

Cet article souhaite donner la possibilité au juge de sanctionner des parents pour délit de « négligence numérique », autrement dit des parents qui « exposeraient de façon manifestement abusive et non contrôlée leurs enfants à des écrans » en modifiant l’article 227‑17 du code pénal. 

Si l’intention portée par cet article est compréhensible et louable, il parait toutefois quelque peu surdimensionné, ce d’autant plus que notre droit actuel permet déjà de poursuivre et de condamner des parents en cas de « négligence numérique ». 

Il n’existe pas à proprement parler de jurisprudence sur cette question mais cette dernière est toutefois prolixe sur l’impact de la négligence éducative des parents sur la scolarité des enfants ou encore sur leur comportement. Plusieurs arrêts et décisions ont ainsi condamné des parents ou des représentants légaux pour absence de surveillance, absence de réaction malgré des signaux connus, défaut d’encadrement éducatif ou encore tolérance à des comportements dangereux ou illicites. 

Sans préjuger de futurs arrêts ou décision, nous pouvons tout de même estimer qu’une condamnation pour « négligence numérique » pourrait survenir. 

C’est la raison pour laquelle cet amendement propose de supprimer cet article. 

Voir le PDF
Tombé 14/01/2026

Le présent amendement vise à instaurer un principe de protection absolue de la petite enfance (0‑3 ans) face aux écrans numériques.

La recherche scientifique, notamment les travaux de l’INSERM et les avis répétés de l’Académie de médecine, démontre que l’exposition précoce aux écrans agit comme un « perturbateur de développement ». Pour un enfant de moins de trois ans, la construction neuronale dépend de l’interaction humaine et de l’exploration sensorielle du monde physique. L’écran, par sa nature passive et sa captation de l’attention, engendre une « perte de chance » cognitive.

Il est impératif de mettre le droit en conformité avec les messages de prévention officiels. Depuis 2018, le carnet de santé (page 28) (document de référence remis à chaque parent) indique explicitement que les écrans doivent être évités avant 3 ans. Or, sans base légale contraignante ou incitative, cette recommandation reste trop souvent lettre morte face aux stratégies de captation de l’attention des plateformes numériques.

Cet amendement répond à des objectifs de santé publique, il permet de lutter notamment contre la sédentarité précoce et les troubles du sommeil.

Il permet également de prévenir des retards de langage et des troubles de la concentration. Il est aujourd’hui de notoriété scientifique incontestable que l’exposition aux écrans avant 3 ans est corrélée à une baisse significative du temps de parole adressé à l’enfant et des troubles de comportement.

D’autant que la surexposition frappe plus durement les milieux précaires. Cette mesure vise également à instaurer un droit universel à un développement sans écran, protégé par la puissance publique.

Cet amendement est en cohérence avec les préconisations du rapport de la commission d’experts installée par le Président de la République en 2024, il pose les jalons d’une « hygiène numérique » nationale, garantissant que les premières années de vie (cruciales pour la plasticité cérébrale) soient préservées de toute interface numérique.

Voir le PDF
Tombé 14/01/2026

L’article 4 de la présente proposition de loi vise à compléter le contenu de la formation en matière d’usages des outils numériques qui est dispensée aux élèves dans les écoles. Le renforcement de l’information et de la sensibilisation des représentants légaux constitue un levier essentiel pour assurer une prévention efficace et durable.

Cet amendement vise à compléter la définition législative de l’information annuelle dispensée aux représentants légaux des élèves par un membre de l’équipe pédagogique en y intégrant explicitement la sensibilisation aux enjeux de protection de la santé mentale liés à l’usage des outils numériques. Il s’agit notamment d’alerter les représentants légaux sur les risques psychologiques associés à l’exposition aux outils numériques et ainsi renforcer les actions de prévention et l’accompagnement des élèves.

Voir le PDF
Adopté 14/01/2026

L’article 4 de la présente proposition de loi vise à compléter le contenu de la formation en matière d’usages des outils numériques qui est dispensée aux élèves dans les écoles. Pour assurer l’efficacité de la prévention et de la sensibilisation aux usages des outils numériques, l’information des enfants doit être renforcée dans toutes les sphères de la vie de l’enfant. Cela implique tant les représentants légaux que les fournisseurs de services réseaux sociaux en ligne et les fournisseurs d’équipements de communication connectés. 

Cet amendement vise à renforcer le rôle des représentants légaux, des fournisseurs de services réseaux sociaux en ligne et des fournisseurs d’équipements de communication connectés dans la prévention et la sensibilisation des enfants aux usages des outils numériques. 

Cette approche ne saurait toutefois exonérer les plateforme numériques de leurs responsabilités, notamment dans la diffusion de contenus en ligne.

Voir le PDF
Rejeté 14/01/2026

Cet amendement du groupe Écologiste et Social vise à compléter les actions de prévention à destination des mineurs, en intégrant une sensibilisation progressive aux risques ainsi qu’une éducation aux usages numériques, adaptée à l’âge des enfants.

Cette éducation aux usages a pour objectif d’accompagner les mineurs vers une pratique raisonnée, éclairée et responsable des outils numériques. Elle peut notamment comprendre des recommandations relatives à la gestion du temps d’écran, à la protection de la vie privée et des données personnelles, à la compréhension des mécanismes de captation de l’attention, à la prévention des risques de dépendance, ainsi qu’à l’adoption de comportements appropriés dans l’environnement numérique.

L’article précise que cette action de sensibilisation doit intervenir à un âge approprié, afin d’éviter toute exposition prématurée à des contenus ou notions inadaptés au développement des plus jeunes enfants. Ainsi, avant l’âge de 3 ans, voire de 6 ans, la priorité doit demeurer la prévention de l’exposition aux écrans ; ce n’est qu’ultérieurement qu’une éducation aux usages numériques trouve pleinement sa pertinence.

Cette approche graduée permet de tenir compte du niveau de maturité des enfants, tout en renforçant progressivement leur capacité à adopter des usages numériques équilibrés à mesure qu’ils grandissent.

Voir le PDF
Rejeté 14/01/2026

Si l’ambition de l’article 6, visant à étendre aux lycées l’interdiction de l’utilisation des téléphones portables, est louable, elle paraît toutefois démesurée au regard des comportements et des besoins des élèves de cet âge.

Plutôt que d’imposer une interdiction générale, il paraît préférable de créer des espaces d’usage restreint du téléphone, comme cela peut se faire dans certains établissements d’ores et déjà. Il s’agit de les responsabiliser davantage.

En outre, une interdiction stricte dans les lycées pourrait avoir un effet contre-productif, en incitant certains élèves à quitter l’établissement pendant les pauses pour utiliser leur téléphone, alors que l’objectif est précisément de favoriser un usage encadré et sécurisé.

Le présent amendement vise donc à clarifier ces règles : il prévoit que le règlement intérieur doit définir précisément les lieux et conditions d’utilisation du téléphone portable, et que dans tous les autres lieux, son usage est interdit, sauf accord explicite de l’enseignant. Cette disposition garantit ainsi une application claire et uniforme dans tous les lycées.

Voir le PDF
Tombé 14/01/2026

Le présent amendement vise à renforcer l’effectivité des sessions d’information sur l’apprentissage de la citoyenneté numérique organisées dans les établissements scolaires.

Il précise que l’absence répétée à plusieurs de ces sessions par les représentants légaux des élèves constitue lui aussi le délit de négligence numérique. Cette disposition a pour objet de garantir que les parents participent effectivement à ces réunions d’information essentielles, contribuant ainsi à l’éducation numérique et à la sensibilisation des élèves aux enjeux de la citoyenneté numérique.

Voir le PDF
Tombé 14/01/2026

Le présent amendement a pour objet de renforcer la sensibilisation des élèves et de leurs familles aux usages responsables du numérique et aux risques associés.

Si la formation à l’utilisation des outils et ressources numériques est déjà dispensée dans les établissements scolaires, il apparaît nécessaire d’élargir explicitement cette démarche aux représentants légaux des élèves, afin de favoriser une coéducation entre l’école et la famille.

L’amendement prévoit que chaque établissement organise deux sessions annuelles de sensibilisation aux risques et aux usages responsables du numérique, auxquelles la présence des parents est obligatoire. Cette disposition garantit que les familles soient informées et impliquées dans l’accompagnement de leurs enfants, notamment en matière de protection de la vie privée, de respect de la propriété intellectuelle et de prévention des usages abusifs ou dangereux d’internet et des réseaux sociaux.

En associant les parents à ces actions, le dispositif contribue à renforcer la protection des mineurs, à promouvoir une culture numérique responsable et à prévenir les risques liés à l’exposition précoce aux outils numériques.

Voir le PDF
Tombé 14/01/2026

Cet amendement de repli vise à remplacer les mots : « outils numériques » du dispositif créant un délit de négligence numérique par ceux de « service de réseau social en ligne ». Il s’agit de la définition de plateformes de réseaux sociaux prévu par la loi existante. 

Les outils numériques sont présents en nombre dans notre quotidien et ne sont pas définis ni listés. De nombreux objets du quotidien pourraient être concernés alors même qu’ils sont sans danger pour les utilisateurs, il serait alors difficile d’évaluer quel outil serait concerné ou non. 

Voir le PDF
Non soutenu 14/01/2026

Les mesures adoptées par le Parlement n’auront aucune efficience si elles ne s’accompagnent pas d’un renforcement des moyens, notamment humain à travers des professionnels formés. C’est pourquoi cet amendement vise à observer si l’État met bien tous les moyens en œuvre pour accompagner le développement de la formation visée à l’article L. 312‑9 du code de l’Éducation.

Sans des professionnels formés, ces mesures ne seront que peu appliquées et les résultats insuffisants. C’est ce que cette demande de rapport défend.

Voir le PDF
Tombé 13/01/2026

Cet amendement doit permettre de s’assurer que cette interdiction d’accès des mineurs de moins de 16 ans aux réseaux sociaux ne soit pas contournée. 

Voir le PDF
Tombé 13/01/2026

Cet amendement vise à préciser que l’ARCOM établit et publie chaque année une liste des services qualifiés de fournisseurs de services de réseaux sociaux en ligne au sens du présent article.

Alors que la définition des fournisseurs de services de réseaux sociaux en ligne est évolutive, il convient que l’ARCOM liste annuellement ces fournisseurs afin de préciser le champ d’application des obligations du présent article. 

Pour se faire, l’ARCOM se conformera au droit européen, et notamment au règlement sur les services numériques (DSA) qui encadre les activités des plateformes. 

Voir le PDF
Tombé 13/01/2026

Comme l’explique le rapport de la Commission d’enquête sur Tiktok, ce réseau social a en effet imposé un nouveau format pour les réseaux sociaux, à savoir le défilement infini de vidéos courtes, ce qui a eu pour effet de favoriser la diffusion de contenus extrêmes, ainsi que le décrit M. Petit : « Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement. TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre ». 

Tant le défilement sans fin et sans temps mort entre les contenus, que le format court et facile à consommer (parfois dénommé « snack content »), sont de nature à désorienter les utilisateurs, notamment en leur faisant perdre la notion du temps.

Depuis plusieurs années l’ensemble des plateformes numériques, créateurs de contenus et publicitaires adoptent les code des formats courts, touchant l’ensemble des tranches d’âge. En 2025, plus de 65 % des 35‑54 ans consomment des vidéos courtes chaque semaine, selon Statista. Le défilement infini impacte d’autant plus les mineurs qui se retrouvent coincés dans ce défilement infini. L’immaturité du neurodéveloppement qui caractérise les enfants et les adolescents se traduit par une incapacité cognitive structurelle à se limiter et à s’autoréguler face aux usages numériques.

Les techniques de captation de l’attention développées par les plateformes numériques depuis le milieu des années 2010 sont largement fondées sur l’analyse comportementale, la captation de l’attention et l’optimisation du temps d’engagement. Ces dispositifs sont explicitement conçus pour maintenir les utilisateurs dans des logiques de dépendance et de captation prolongée, y compris les plus jeunes.

C’est la raison pour laquelle ce défilement sans fin et sans temps morts dans les contenus doit a minima être prohibé pour les plus mineurs. Tel est l’objet de cet amendement. 

Voir le PDF
Tombé 13/01/2026

Le cyberharcèlement et les violences numériques sont largement facilités par la création de comptes anonymes ou frauduleux, utilisés pour contourner les règles, multiplier les attaques et échapper aux poursuites.

Cet amendement vise à responsabiliser les utilisateurs en imposant une vérification d’identité à la création des comptes, sans remettre en cause la liberté d’expression ni l’usage d’un pseudonyme public.

L’objectif est clair : mettre fin à l’impunité de ceux qui se cachent derrière de faux profils, tout en donnant aux autorités judiciaires les moyens d’agir efficacement contre les auteurs de violences numériques.

Voir le PDF
Rejeté 13/01/2026

Par cet amendement, le groupe LFI souhaite s’opposer aux mesures d’interdiction des réseaux sociaux aux moins de 15 ans, ainsi qu’à la création d’un couvre-feu numérique pour les 15‑18 ans de 22 heures à 8 heures, qui ne sont en réalité que des mesures démagogiques qui posent davantage de questions qu’elles n’en résolvent. Ainsi, l’UNICEF rappelait encore récemment (10 décembre 2025) que « Si l’UNICEF se félicite de l’engagement croissant en faveur de la sécurité des enfants en ligne, l’interdiction des réseaux sociaux comporte ses propres risques et peut même avoir des effets pervers ».

Tout d’abord, ces mesures sont particulièrement attentatoires aux droits fondamentaux en ligne. En effet, elles supposeraient, afin d’être effectives, la mise en place d’une solution numérique de vérification de l’âge en ligne, ce qui entraînerait la récolte et le stockage de données personnelles sensibles, tout en remettant en cause des principes cardinaux comme celui du droit à l’anonymat en ligne – principe régulièrement affirmé en droit national et européen (par exemple, le considérant 14 de la directive e-commerce no 2000/31 précise que « La présente directive ne peut pas empêcher l’utilisation anonyme de réseaux ouverts tels qu’Internet »). Par ailleurs, les critères selon lesquels a été fixé la majorité numérique sont particulièrement flous et semblent être en réalité totalement arbitraires : un contenu considéré comme dangereux et/ou illégal est-il ainsi plus acceptable à 15 ans et 1 jour qu’à 14 ans et 364 jours ? D’autant plus que cette majorité numérique est différente selon les différents pays – rien qu’au sein de l’Union européenne, celle-ci varie selon les différents pays entre 13 et 16 ans (par exemple, 14 ans en Espagne ou encore 13 ans au Danemark).

De plus, ces mesures sont facilement contournables via divers dispositifs techniques tels que les « Virtual Private Network » (VPN), dont l’objectif initial est de renforcer la protection de ses données lors d’une connexion Internet et notamment utilisé pour contourner des systèmes de censures numériques mis en place dans certains pays. Or, ces derniers peuvent également être utilisé pour contourner les mesures d’interdictions prévues au présent article, les rendant de fait inapplicables.

En réalité, ces mesures représentent un véritable renoncement à réguler les réseaux sociaux, transférant la responsabilité des conséquences de leurs usages sur les utilisateurs et utilisatrices. Même les conclusions de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs publié en septembre dernier et à l’origine de la présente proposition de loi le soulignait (p.28) : « Nous ferions d’abord reposer la charge de la responsabilité sur les jeunes plutôt que sur l’entreprise privée qui est à l’origine du problème ». L’UNICEF souligne également que « Les gouvernements doivent veiller à ce que les lois et réglementations relatives à l’âge ne se substituent pas aux obligations des entreprises d’investir dans la conception de plateformes plus sûres et dans une modération efficace des contenus ». Or, aucune mesure de la présente proposition de loi ne s’y attaque – alors qu’il s’agit du coeur du problème.

Enfin, et alors que ces mesures particulièrement liberticides sont notamment justifiées au nom de la protection de la santé mentale des mineurs, qui est un objectif que nous ne remettons évidemment pas en cause dans l’absolu, faut-il rappeler qu’une véritable politique publique en la matière passe avant tout par l’augmentation des moyens alloués au système de soins ? Or, l’inaction de la Macronie en la matière est palpable, et on se retrouve aujourd’hui dans une situation de déficit chronique : ainsi, à titre d’illustration, en matière de santé scolaire, on ne compte qu’environ un médecin scolaire pour 13 000 élèves, un psychologue pour 1 500 élèves et un infirmier pour 1 300 élèves. En ce qui concerne les médecins scolaires, entre 2018 et 2023, le ministère de l’éducation nationale a recruté seulement 133 nouveaux médecins pour 300 postes offerts, soit un taux de couverture de seulement 44 %.

Pour toutes ces raisons, nous considérons que seule une approche combinant la prévention (en milieu scolaire et en dehors) et une véritable politique publique d’accompagnement à la parentalité numérique ainsi qu’une véritable régulation des réseaux sociaux en questionnant leur modèle économique fondée sur l’économie de l’attention et la captation du temps disponible des utilisateurs au travers une conception addictive, est capable de lutter à long-terme contre les effets néfastes des réseaux sociaux tout en préparant les individus à vivre dans un monde de plus en plus connecté.

Voir le PDF
Adopté 13/01/2026

Le présent amendement tire les conséquences de l’avis du Conseil d’État sur la proposition de loi, qui estime que :

– toute disposition imposant aux fournisseurs de services de réseaux sociaux en ligne de nouvelles obligations visant à protéger les mineurs contreviendrait au droit de l’Union européenne et plus particulièrement au Digital Services Act (DSA), y compris en matière d’âge minimal d’accès aux services ;

– l’interdiction générale et absolue faite aux mineurs de quinze ans d’accéder à tous les réseaux sociaux, y compris ceux dont l’utilisation ne constituerait aucun risque pour leur santé, serait disproportionnée aux droits et libertés de l’enfant, dont son droit à la libre communication des idées, et à ceux des titulaires de l’autorité parentale. La mesure présente donc un risque de censure par le Conseil constitutionnel.

 

1/ Sur la conventionnalité

Le présent amendement propose de réécrire l’article premier, dont la formulation repose sur l’interprétation extensive faite par le Gouvernement des lignes directrices relatives à la protection des mineurs, prises par la Commission européenne en application de l’article 28 du DSA et publiées le 14 juillet dernier. Ces dernières recommandaient aux plateformes en ligne de recourir à des méthodes de vérification de l’âge « lorsque [...] le droit national, conformément au droit de l’Union, fixe un âge minimal pour accéder à certains produits ou services [...] sur une plateforme en ligne, y compris des catégories spécifiquement définies de services de médias sociaux en ligne ».

Dans son avis sur la proposition de loi, le Conseil d’État considère que toute disposition du droit national imposant aux fournisseurs de services de réseaux sociaux en ligne de nouvelles obligations visant à protéger les mineurs contreviendrait au droit de l’Union européenne et plus particulièrement au Digital Services Act (DSA). Ce dernier procède en effet à une harmonisation exhaustive des règles visant les plateformes en ligne, de sorte que les États membres ne doivent pas adopter ou maintenir des exigences nationales supplémentaires concernant les matières relevant de son champ d’application. Le comité européen des services numériques, institué par le DSA, a confirmé lors d’une réunion du 9 septembre 2015 que ni le DSA ni les lignes directrices prises pour son application ne permettent aux États membres d’imposer aux plateformes en lignes des obligations supplémentaires, notamment en matière de limite d’âge.

La rédaction actuelle de l'article premier reconduirait donc le précédent de la loi dite « Marcangeli », qui malgré son caractère précurseur n'a pas pu être appliquée, faute d'avoir reçu l'aval de la Commission européenne.

Le DSA laisse toutefois compétence aux États membres pour définir ce qui constitue un « contenu illicite » (entendus au sens de contenus, produits, services et activités illégaux). Il est donc loisible au législateur national de rendre illicite l’accès des mineurs de moins de quinze ans aux contenus diffusés par les réseaux sociaux, sans faire peser l’interdiction d’accès aux réseaux sociaux sur les plateformes en ligne.

Le présent amendement retient donc la suggestion du Conseil d’État en prévoyant qu’il est interdit au mineur de quinze ans d’accéder à certains services de réseaux sociaux en ligne et de plateformes de partage de vidéos.

Son auteure souligne qu’il ne prévoit aucune sanction : il n’est nullement envisagé de sanctionner les mineurs de quinze ans qui connecteraient à un réseau social, de même qu’un mineur n’est pas sanctionné pénalement lorsqu’il achète de l’alcool.

2/ Sur la constitutionnalité

Le Conseil d’État reconnait que la finalité de la proposition de loi, de mieux garantir la protection de la santé et de la sécurité des mineurs les plus vulnérables dans l’environnement numérique, poursuit l’objectif de valeur constitutionnelle de prévention des atteintes à l’ordre public et l’exigence de protection de l’intérêt supérieur de l’enfant.

Il souligne toutefois qu’une interdiction générale et absolue interdirait aux mineurs de quinze ans d’accéder à certains réseaux sociaux pour lesquels, à raison de leur contenu ou de leur mode de fonctionnement, il n’est justifié d’aucun risque sur la santé et la sécurité des mineurs, tels que des services collaboratifs d’entraide, des jeux en ligne proposant des fonctionnalités collaboratives ou encore des réseaux sociaux créés en lien avec des activités éducatives ou sociales (réseaux sociaux propres à des établissements d’enseignements, à des associations, à des activités ou lieux en lien avec un culte etc.).

En outre, le dispositif envisagé exclut toute appréciation particulière tenant compte de l’âge et du degré de maturité de l’enfant, ainsi que toute responsabilité des titulaires de l’autorité parentale et toute possibilité pour ces derniers d’exercer leur droit de guider l’enfant dans l’exercice de ses droits fondamentaux et de l’associer aux décisions qui le concernent.

Ainsi formulée, la mesure n'assure pas une conciliation équilibrée entre l’intérêt supérieur de l’enfant, d’une part, et ses droits fondamentaux, comme ceux des titulaires de l’autorité parentale, d’autre part.

Le même raisonnement s'applique à l’interdiction de 22 heures à 8 heures, aux mineurs de quinze à dix-huit ans, de tout accès à tous les réseaux sociaux.

Le présent amendement vise à créer un système à deux étages, co-construit par le Conseil d'État et la rapporteure dans le cadre de deux réunions de travail et de l’examen du texte en section de l’intérieur et en assemblée générale :

– en premier lieu : l’accès aux réseaux sociaux et plateformes de partage de vidéos dangereux serait interdit à tous les mineurs de moins de quinze ans. La liste des plateformes concernées serait déterminée par le Gouvernement par un décret en Conseil d’État pris après avis de l’Autorité de régulation de la communication audiovisuelle et numérique, et énumèrerait les réseaux sociaux qui, en raison notamment des systèmes de recommandation utilisés, constituent un danger pour l’épanouissement physique, mental ou moral des mineurs de quinze ans ;

– l’accès aux autres réseaux sociaux et plateformes de partage de vidéos serait également interdit, par principe, aux mineurs de moins de quinze ans, sauf à ceux pouvant justifier de l’accord préalable exprès d’au moins l’un de ses administrateurs légaux. Révocable à tout moment, cet accord précisera les conditions et les limites de l’accès du mineur au service, notamment la nature des contenus accessibles, la durée maximale quotidienne et les heures d’utilisation. Les parents pourront donc choisir de limiter l’accès de leurs enfant de treize à quinze ans aux réseaux sociaux et plateformes de partage de vidéos à certaines heures, notamment de la nuit.

Il est précisé que les services de communications interpersonnelles (applications de messageries) ne sont pas visées sauf pour leurs fonctionnalités autorisant toute personne à accéder à des contenus, à en publier et à échanger sur des fils d’échanges accessibles sans modération préalable.

3/ Sur l’efficacité

Sans imposer, du moins directement, aux plateformes de contrôler l'âge de leurs utilisateurs, le dispositif proposé n'en est pas moins efficace.

D'une part, le système envisagé, conforme au DSA, rendrait applicables l’ensemble de ses mécanismes de contrôle par l’Arcom et la Commission européenne :

- dérogation au principe d’irresponsabilité des plateformes lorsqu’elles ont eu connaissance de ce caractère illicite ;

- mise en œuvre par l’Arcom ou par la Commission européenne, à l’encontre des plateformes, de la procédure d’injonction d’agir imposant, à peine de sanction, de retirer ou de bloquer l’accès à ces contenus ;

- obligation pour les plateformes de mise en place de dispositifs d’identification et d’action, de fournir un service de traitement des réclamations contre ces contenus, ou encore de traiter en priorité les signalements contre ces contenus émis par des signaleurs de confiance.

D'autre part, il est prévu que les contrats conclus en violation de l'interdiction d'accès aux mineurs de quinze ans sont nuls de plein droit. L’effet de cette nullité serait de priver de base légale le traitement de données à caractère personnel fondé sur l’exécution d’un tel contrat. En l’absence de consentement parental, en application de l’article 45 de la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, l’existence d’un tel traitement illicite ouvrirait la possibilité d’exercice, par la CNIL, de ses pouvoirs de contrôle et de sanction

Voir le PDF
Rejeté 13/01/2026

La protection des mineurs relève de l’ordre public et de l’intérêt supérieur de l’enfant. Elle ne saurait être subordonnée à des interprétations restrictives. Cet amendement affirme clairement la primauté de ces principes.

Voir le PDF
Tombé 13/01/2026

Les amendes infligées aux personnes morales sont souvent insuffisantes pour dissuader les grandes plateformes. Il est indispensable de pouvoir engager la responsabilité personnelle des dirigeants afin de mettre fin à l’impunité et d’assurer un réel respect de la loi.

Voir le PDF
Non soutenu 13/01/2026

Le présent amendement vise à préciser la périodicité de mise à jour de la liste indicative des services publiée par l’ARCOM, en y intégrant explicitement la notion de publication annuelle.

L’introduction de cette temporalité répond à un double objectif : 

– D’une part, elle incite l’ARCOM à assurer une actualisation régulière et rigoureuse de cette liste, indispensable dans un environnement numérique en constante évolution. 

– D’autre part, elle permet d’intégrer rapidement les nouveaux réseaux sociaux et services émergents susceptibles de présenter des risques pour les mineurs dans le champ de la régulation.

Cette précision contribue ainsi à prévenir tout contournement de la loi, en évitant que certains services échappent durablement aux dispositifs existants du fait de l’absence de mise à jour explicite. Elle garantit enfin une application effective et dynamique des mécanismes de protection des mineurs, en cohérence avec l’objectif de sécurité et de responsabilité poursuivi par le législateur.

Voir le PDF
Rejeté 13/01/2026

L’objet de ce sous-amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 

Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 

Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.

L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 

La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.

C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Voir le PDF
Retiré 13/01/2026

Cet amendement est un amendement rédactionnel. Il est important de préciser que tous les mineurs de moins de 16 ans ne peuvent accéder aux réseaux sociaux , l’âge minimum légal d’accès fixé à 13 ans n’étant pas toujours respecté. Selon une étude Odoxa pour Acadomia, 67 % des jeunes âgés de 11 à 17 ans se sont déclarés favorables à l’interdiction des réseaux sociaux au moins de 15 ans. Depuis décembre dernier, l’Australie a interdit l’accès aux réseaux sociaux aux mineurs de moins de 16 ans.

Voir le PDF
Tombé 13/01/2026

Cet amendement est un amendement rédactionnel. Il est important de préciser que tous les mineurs de moins de 16 ans ne peuvent accéder aux réseaux sociaux , l’âge minimum légal d’accès fixé à 13 ans n’étant pas toujours respecté. Selon une étude Odoxa pour Acadomia, 67 % des jeunes âgés de 11 à 17 ans se sont déclarés favorables à l’interdiction des réseaux sociaux au moins de 15 ans. Depuis décembre dernier, l’Australie a interdit l’accès aux réseaux sociaux aux mineurs de moins de 16 ans.

Voir le PDF
Tombé 13/01/2026

Par cet amendement de repli, le groupe LFI réitère son opposition à l’interdiction des réseaux sociaux aux moins de 15 ans, qui relève avant tout d’un démagogisme numérique.

Les raisons de notre opposition totale à cette mesure sont nombreuses (mesure liberticide affaiblissant la protection des données personnelles des utilisateurs, inapplicabilité de la mesure car facilement contournable avec l’usage de dispositifs techniques tels que les VPN, déplacement de la responsabilité de l’exposition aux contenus dangereux voires illicites des plateformes vers les utilisateurs...) et semblent être vérifiées empiriquement. L’exemple de l’Australie en la matière est particulièrement éclairant.

Approuvée le 28 novembre 2024 par le Parlement australien pour une entrée en vigueur officielle le 10 décembre 2025, l’Australie est le premier pays du monde à obliger les différentes plateformes de RS telles que X, TikTok, Instagram ou Facebook à prendre « des mesures raisonnables » pour interdire aux mineurs de moins de 16 ans de conserver ou de créer un compte, et à prévoir des amendes en cas de non-respect de cette obligation (environ 28 millions d’euros). Or, dès son examen, les limites du texte avaient été soulevées : les contours flous de son application car le texte ne fournit quasiment aucun détail sur ses modalités d’application concrètes, les questions de protection des droits fondamentaux en ligne au vu des différentes solutions envisagées par les plateformes numériques pour tenter de contrôler l’âge de leurs utilisateurs (recours à un tiers extérieur qui détient les informations personnelles des utilisateurs, demander à l’utilisateur de se prendre en selfie, surveillance des habitudes de consommation des utilisateurs pour tenter de déduire leur âge comme par exemple, contrôler les contenus consultés ou encore voir les messages d’anniversaires reçus…), ou encore la question du contournement de ces mesures avec les VPN... D’ailleurs, comme une forme d’aveu du Gouvernement australien, celui-ci a rapidement reconnue qu’« Aucune solution ne sera probablement efficace à 100 % tout le temps ».

À peine un mois après son entrée en vigueur, la presse rapporte ainsi déjà que de nombreux utilisateurs ont recours à diverses techniques pour faire face à cette nouvelle interdiction : migration vers des plateformes plus petites et non concernées à ce stade par cette obligation (Coverstar, Lemon8, Yope, Rednote...), usage d’un VPN, recours à des proches plus âgés pour passer les filtres de vérification de l’âge (scan de visage...)... Ainsi, le cas australien tend à confirmer l’inefficacité de cette mesure, et la nécessité de mettre en place une véritable politique de régulation des plateformes numériques, accompagné d’un renforcement de la prévention des risques associés.

Voir le PDF
Tombé 13/01/2026

Par cet amendement, le groupe LFI réaffirme son opposition à la mesure de couvre-feu numérique pour les 15‑18 ans, de 22 heures à 8 heures, dont la mise en place pose de nombreuses questions.

Comme pour la mesure d’interdiction des réseaux sociaux aux moins de 15 ans, le couvre-feu numérique représente une véritable atteinte à la protection des droits fondamentaux, et notamment du droit à l’anonymat (puisque des données personnelles devront être collectées et stockées pour vérifier l’âge de l’utilisateur), est également facilement contournable avec des dispositifs comme le VPN et permet de ne pas s’attaquer au fond du sujet en matière de protection de la santé mentale des mineurs, c’est-à-dire des moyens alloués au système de santé pour y faire face (à titre d’illustration, en matière de santé scolaire, on compte environ un médecin scolaire pour 13 000 élèves, un psychologue pour 1 500 élèves et un infirmier pour 1 300 élèves). Ces constats sont d’autant plus vrai que de nombreux exemples étrangers tendent à démontrer l’inefficacité d’une mesure de restriction horaire.

Plusieurs pays ont mis en place de telles mesures, comme la Chine, la Corée du Sud ou encore certains États des États-Unis comme l’Utah. Or, en Corée du Sud par exemple, le Gouvernement avait instauré en 2011 une mesure de « couvre-feu numérique » pour les jeux vidéos et les mineurs. Ainsi, de minuit à 6 heures du matin, les éditeurs de jeux vidéo en ligne devaient bloquer l’accès des moins de 16 ans à leurs plates-formes, sous peine de sanctions pouvant aller jusqu’à deux ans de prison ferme. Or, par peur de ne pouvoir appliquer la mesure en raison de l’absence de moyen fiable de vérifier l’âge de leurs utilisateurs, certains éditeurs comme Minecraft avait tout simplement interdit leur jeu aux moins de 18 ans. Face à l’inefficacité de la mesure, le Gouvernement s’était résolu à abroger la loi en 2021, au profit d’une approche davantage axée sur la prévention. Le rapport de la commission d’enquête l’admet lui-même (p. 262) : « ce type de limitation est contournable par l’utilisateur, notamment par l’utilisation d’outils tels qu’un réseau privé virtuel (plus connu sous le nom anglais virtual private network [VPN]) ».

En réalité, cette mesure de couvre-feu passe totalement à côté du véritable danger posé par les plateformes numériques : l’absence de régulation. En effet, ce n’est pas tellement le temps passé sur les écrans en lui-même qui pose des difficultés, mais plutôt le fait que les individus, notamment mineurs, soient exposés à des outils particulièrement élaborés de captation de l’attention (scrolling infini de contenus, algorithmes de recommandations particulièrement efficaces, absence de modération efficace des contenus jugés dangereux et/ou illicites...), quitte à détruire la santé mentale de leurs utilisateurs et à créer des addictions, et ce, à des fins purement commerciales. Par conséquent, plutôt que de continuellement reporter la responsabilité de l’usage des réseaux sociaux sur les utilisateurs eux-mêmes, il est indispensable de questionner le modèle économique des réseaux sociaux – ce à quoi ne s’attaque absolument pas la présente proposition de loi.

Voir le PDF
Tombé 13/01/2026

L’objet de cet amendement est de réserver l’interdiction des réseaux sociaux aux mineurs de moins de 13 ans. 

Il s’agit premièrement d’un amendement de cohérence avec l’article 3, puisque son alinéa 5 rend obligatoire les messages de prévention indiquant que les téléphones et équipements mobiles connectés à internet, et donc aux réseaux sociaux, sont déconseillés aux moins de treize ans – et non pas aux moins de quinze ans. 

Ensuite, plusieurs plateformes fixent déjà actuellement une restriction pour les mineurs de moins de 13 ans, mais elles ne vérifient pas réellement l’âge de leurs utilisateurs. L’abaissement à ce seuil permettrait de faire respecter réellement cette norme. Comme l’indique le rapport de 2024 remis au Président de la République « des enfants âgés de moins de 13 ans sont inscrits en nombre sur des réseaux sociaux, pourtant en théorie interdits au moins de 13 ans. Ainsi, selon cette même étude, 58 % des jeunes de 11- 12 ans en 2021 avaient un compte sur au moins l’un des réseaux sociaux. De son côté, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a signalé que « 45 % des Français de 11‑12 ans sont inscrits » sur l’application TikTok.

L’interdiction des réseaux sociaux pour les moins de 15 ans souffre de plusieurs faiblesses : des exemples peu concluants à l’international (Australie, Chine, Corée...), des contournements possibles, un risque de dérive avec des restrictions plus générales des libertés sur internet. Une périmètre plus restreint ciblant d’abord les enfants de moins de 13 ans permet non pas de répondre à tous ces arguments, mais d’en amoindrir la portée. 

La résolution du Parlement européen en faveur d’une interdiction stricte de l’accès aux réseaux sociaux a été fixée à 13 ans, accompagnée de mesures d’encadrement et de limitation des risques pour les mineurs entre 13 et 16 ans. Cette mesure doit s’accompagner d’un large spectre de sensibilisation des enfants comme des parents afin de prévenir des usages non-raisonnés des écrans et des réseaux sociaux. Selon les études citées dans le rapport du Parlement européen, 97 % des jeunes se connectent à internet chaque jour et 78 % des 13 à 17 ans consultent leur appareil au moins une fois par heure. Dans le même temps, un mineur sur quatre présente un usage du smartphone qualifié de « problématique » ou « dysfonctionnel », c’est-à-dire assimilable à une dépendance.

C’est pourquoi cet amendement abaisse l’interdiction des réseaux sociaux de quinze à treize ans. 

Voir le PDF
Tombé 13/01/2026

Afin de favoriser une véritable déconnexion, il semble nécessaire de prévoir un temps de connexion limité en complément de ce couvre feux numérique. Selon une étude menée par l’ARCOM, plus de quatre jeunes sur cinq entre 11 et 17 ans accèdent quotidiennement à au moins une grande plateforme en ligne, l’âge minimum légal d’accès fixé à 13 ans étant peu respecté. Les jeunes âgés de 11 à 17 ans passent en moyenne, 3,8 heures chaque jour sur internet, en grande partie sur les réseaux sociaux.

Voir le PDF
Tombé 13/01/2026

Comme nous pouvons le voir en Australie, les moyens de contourner l’interdiction des réseaux sociaux aux moins de 15 ans sont nombreux.

L’un des moyens les plus efficaces semblent être le vieillissement des photographies des utilisateurs grâce à l’intelligence artificielle. Il est donc proposé à travers cet amendement que la vérification d’âge ne passe pas par le traitement d’une photographie des utilisateurs jugée trop propice au contournement de la loi.

Voir le PDF
Tombé 13/01/2026

Le couvre-feu numérique est une disposition qui se substitue à l’autorité parentale et qui peut être attentatoire aux libertés individuelles. 

Bien que les cosignataires de cet amendement partage l’objectif de la mesure proposée, il apparait que bloquer les réseaux sociaux entre 22h et 8h est inefficace si les écrans restent pour autant autorisés à ces heures par les parents. De plus, le harcèlement pourra malheureusement se poursuivre sur d’autres canaux que les réseaux sociaux. 

Il est impératif de mieux sensibiliser les parents sur l’usage des écrans et sur le fait que c’est à eux de prendre toutes les mesures nécessaires dans le foyer pour protéger le sommeil de leurs enfants et de les protéger d’une exposition abusive aux écrans.

C’est pourquoi, cet amendement propose de supprimer cette mesure.

Voir le PDF
Rejeté 13/01/2026

Cet amendement du groupe Socialistes et apparentés vise à supprimer l’article 1er.

Cette disposition vise à interdire l’accès aux réseaux sociaux aux mineurs de 15 ans. Notre groupe préconisera plutôt l’interdiction des réseaux sociaux aux mineurs de 13 ans et leur utilisation avec l’accord des responsables légaux aux mineurs âgés entre 13 et 16 ans. 

Cette dernière position est d’abord conforme dans son esprit à celle de la loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne (qui prévoit la possibilité aux mineurs de 15 ans de s’inscrire sur les réseaux sociaux avec l’accord d’au moins un parent mais n’a jamais pu être appliquée faute de décrets d’application), puis à celle du Parlement européen qui a adopté le 26 novembre dernier la résolution sur la protection des mineurs en ligne et enfin à celle du Sénat qui a adopté la proposition de loi visant à protéger les jeunes des risques liés à l’exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique adoptée le 18 décembre dernier. 

Le dispositif de la présente proposition de loi pose problème pour plusieurs raisons. 

Aucun consensus scientifique ne préconise un âge seuil à partir duquel l’individu serait moins exposé aux dangers et méfaits des réseaux sociaux que nous condamnons unanimement par ailleurs. Le psychiatre spécialiste du rapport des enfants aux écrans Serge Tisseron a d’ailleurs rappelé dans une tribune que « découvrir les réseaux sociaux après 15 ans ne protège de rien, surtout quand on voit tant d’adultes céder à des pratiques addictives. Eduquer un enfant, ce n’est pas le guider et le protéger jusqu’au jour où ce qui lui était interdit lui devient soudain permis. »

La commission d’enquête sur les effets psychologiques de TikTok sur les mineurs – qu’un député du groupe socialistes et apparentés a présidé – a d’ailleurs pu constater lors de ses auditions que des adolescents de plus de 15 ans pouvaient être particulièrement vulnérables aux dangers des plateformes tout comme des adultes. La proposition d’une barrière d’âge à 15 ans n’a d’ailleurs pas fait l’objet de consensus lors des auditions de cette commission d’enquête, et a rarement été proposée comme la principale solution. 

Loin d’être naïfs, nous connaissons les nombreuses problématiques propres à l’usage des réseaux sociaux : exposition à des contenus dangereux, risques d’addiction, impact sur le sommeil, cyberharcèlement, dépenses excessives lors de lives etc. C’est également le constat du rapport remis au Gouvernement par Arthur Delaporte et Stéphane Vojetta le 12 janvier sur les enjeux émergents du numérique et qui a mené une centaine d’auditions et tire les mêmes conclusions : ce sont les plateformes qui, par leur algorithme et le business du sordide qu’elles imposent aux utilisateurs qui sont les premières responsables des méfaits évoqués précédemment. 

Au-delà des risques évoqués, cette proposition de loi fait reposer la responsabilité sur l’utilisateur et plus particulièrement les mineurs en les privant abruptement d’un espace de socialisation et de divertissement alors même que ce sont les plateformes qui devraient être les premières visées pour qu’elles protègent enfin leurs utilisateurs. Ce dispositif méconnaît le droit des adolescents à avoir, eux aussi, des espaces de découverte et de socialisation digitaux, adaptés et sécurisés. 

Nous estimons en outre qu’à ce stade, le dispositif visé par le présent article est inopérant puisqu’il renvoie la vérification d’âge à des solutions techniques utilisées par les réseaux sociaux. Au-delà du risque pour la protection de nos données, les dispositifs existants d’estimation de l’âge ne peuvent être fiables à 100 %. 

Nous pensons néanmoins que d’autres modèles peuvent exister, et alors que l’Union européenne est en train de créer des outils de vérification d’âge sécurisés (le e-wallet), il serait préférable – au niveau européen – d’imposer aux plateformes de tels mécanismes : algorithme non personnalisé, retour à l’ordre chronologique des publications, interruption du flux de publications à partir d’une certaine durée, mode noir et blanc… Mais aussi de les contraindre à une modération suffisante alors même que les moyens humains sont en baisse (comme chez TikTok) et que les signalements des utilisateurs sont trop souvent rejetés. Cela pourrait notamment passer par un mécanisme de dotation basé sur le principe pollueur-payeur, qui viendrait renforcer l’indépendance des signaleurs de confiance et accroître la part de modération des plateformes. 

La question du périmètre de l’interdiction se pose également. C’est d’ailleurs une problématique que rencontre l’Australie qui a voulu imposer un dispositif similaire et qui doit faire évoluer régulièrement la liste des plateformes concernées. En effet, comment intégrer l’ensemble des dispositifs numériques présentant un danger sans porter atteinte de manière excessive à la liberté de communication ? Est-ce que des plateformes comme Youtube, Whatsapp, ou même Roblox – plateforme jeux vidéo, très populaire chez les plus jeunes et totalement ignorée par la proposition de loi, présentant pourtant de nombreux dangers similaires aux réseaux sociaux – doivent être intégrées ? Est-ce que l’interdiction de plateformes comme TikTok, Meta, Snapchat n’engendrerait pas un risque de déport vers des plateformes similaires voire pires mais pas encore identifiées par le législateur (comme des canaux sur Télégram, un équivalent de Kick…) ? 

Nous nous opposons également à l’instauration d’un « couvre-feu » numérique entre 22 heures et 8 heures, mesure posant de véritable questions sur le plan des libertés fondamentales, qui, en l’état des solutions de vérification d’âge et de la rédaction de la proposition de loi est parfaitement inopérante. Inspirée de mesures en vigueur dans des régimes illibéraux comme la Chine, cette mesure n’a fait l’objet d’aucune évaluation et présente de sérieux risques juridiques. En outre, puisque la proposition de loi vise à interdire les réseaux sociaux aux moins de 15 ans, cette mesure affecterait les mineurs âgés de 15 à 18 ans, âge à partir duquel il est légal de travailler, de conduire, d’encadrer des mineurs en séjour de vacances… 

En outre, plusieurs dispositifs de la présente proposition de loi pourraient être contraire au droit européen, alors même que nous avons besoin d’une voix forte au sein des instances européennes pour mieux réguler les plateformes. 

Enfin, sur la méthode, nous nous étonnons de la superposition de deux textes, l’un venant du Gouvernement à l’initiative du président de la République et le Gouvernement et l’autre d’une députée issue du même parti politique que le Président de la République, les deux textes ayant peu ou prou le même objectif. Notre Assemblée a un ordre du jour déjà très chargé et il est regrettable que le Gouvernement ne puisse pas s’entendre avec son groupe majoritaire. 

Voir le PDF
Tombé 13/01/2026

Cet amendement du groupe Socialistes et apparentés vise à réécrire l’article premier de la présente proposition de loi en cherchant une solution plus consensuelle. 

Il s’agit de reprendre le dispositif adopté à l’unanimité par le Sénat il y a moins d’un mois lors de l’examen de la proposition de loi visant à protéger les jeunes des risques liés à l’exposition aux écrans et des méfaits des réseaux sociaux, et à les accompagner vers un usage raisonné du numérique. Cette proposition de loi, à l’initiative de la Sénatrice Catherine Morin-Dessailly du groupe Union Centriste, est la preuve que ce sujet mérite un consensus politique plus large pour protéger les mineurs face aux dangers des réseaux sociaux. Ce dispositif s’inscrit également dans la lignée des préconisations du Parlement européen et de la loi dite Marcangeli, traduisant là encore une nécessaire cohérence dans l’action publique en matière de régulation du numérique. 

Ce dispositif prévoit ainsi l’interdiction stricte des réseaux sociaux aux utilisateurs âgés de moins de 13 ans – ce qui est la borne d’âge minimal sur la plupart des plateforme et correspond également à l’âge minimal pour consentir au traitement de ses données selon le RGPD, à son article 8 qui précise que « les États membres peuvent prévoir par la loi un âge inférieur pour ces finalités pour autant que cet âge inférieur ne soit pas en dessous de 13 ans ». – et l’accord d’un des titulaires de l’autorité parentale pour les utilisateurs âgés de 13 à 16 ans. À ce stade, et en l’attente de dispositifs nationaux ou européens de vérification d’âge opérationnels, nous sommes contraints de nous contenter d’unmécanisme de vérification d’âge sur la base d’un référentiel proposé par l’Arcom, après avis de la CNIL. Ce mécanisme devrait être temporaire pour ensuite s’appuyer exclusivement sur un principe de vérification en double anonymat. En tout état de cause, ces mécanismes devront respecter la vie privée des utilisateurs et la protection des données. 

Un mécanisme de sanction des plateformes est prévu en cas de manquement à l’application du présent dispositif. 

Voir le PDF
Tombé 13/01/2026

Le présent amendement du Groupe Écologiste et Social vise à interdire la mise à disposition, par les fournisseurs de services de réseaux sociaux en ligne, d’agents conversationnels fondés sur l’intelligence artificielle à destination des enfants et des mineurs. 

De plus en plus de plateformes de réseaux sociaux intègrent des assistants conversationnels d’intelligence artificielle, présentés comme des outils d’accompagnement, de divertissement ou de discussion personnalisée. Ces dispositifs, accessibles directement au sein des réseaux sociaux – et leurs messageries – les plus utilisés par les jeunes publics, sont susceptibles d’encourager des interactions prolongées et intimes, reposant sur des mécanismes d’« empathie artificielle » particulièrement attractifs pour des utilisateurs en construction psychologique et émotionnelle.

Or, ces agents conversationnels ne constituent ni des interlocuteurs neutres, ni des outils éducatifs encadrés. Leur fonctionnement repose sur des modèles algorithmiques visant à maximiser l’engagement, sans garantie quant à la fiabilité des réponses apportées, à la protection des données personnelles, ni à l’absence de biais ou de contenus inadaptés. Pour les enfants et les adolescents, ces interactions peuvent favoriser des formes de dépendance relationnelle, brouiller les repères sociaux et affectifs, et se substituer à des relations humaines essentielles au développement.

On peut constater les effets délétères de ces intelligence artificielle utilisée comme outils conversationnelle qui ont poussé certains jeunes dans des situations de détresse psychologiques poussées. Le 24 juillet dernier, Zane Shamblin, un jeune américain de 23 ans a passé les derniers instants de sa vie à discuter avec ChatGPT avant de se donner la mort, tout comme Sewell Setzer, un adolescent de 14 ans quelques mois auparavant.

Dans ce contexte, le présent amendement propose d’interdire la mise à disposition d’agents conversationnels d’intelligence artificielle au sein des réseaux sociaux à destination des mineurs, conformément à l’exigence de protection renforcée de l’enfance. Il s’agit d’affirmer clairement que les enfants ne peuvent constituer un public cible pour des technologies conversationnelles susceptibles d’exercer une influence psychologique et émotionnelle profonde, sans encadrement strict ni bénéfice éducatif démontré.

Cette mesure s’inscrit pleinement dans une politique de prévention des usages numériques à risque et dans la volonté de garantir un environnement numérique protecteur, adapté au développement et à l’intérêt supérieur de l’enfant.

Voir le PDF
Tombé 13/01/2026

Cet amendement de repli vise à supprimer la mesure imposant un couvre-feu numérique aux utilisateurs âgés de 15 à 18 ans en désactivant l’accès à leurs comptes sur les réseaux sociaux de 22 heures à 8 heures. 

Mesure posant de véritables questions sur le plan des libertés fondamentales et inspirée de régimes illibéraux comme la Chine, elle ne répond à aucune problématique visée par l’exposé des motifs de la présente proposition de loi. De nombreuses manières de communiquer, d’être exposé à des contenus offensants, de dépenser de l’argent subsisteront par d’autres canaux numériques. En outre, elle prive d’accès à des réseaux pour des mineurs pourtant en âge légal de travailler, de conduire ou d’encadrer des mineurs en accueils collectifs de mineurs. Cette mesure infantilisante et réactionnaire est incontrôlable et ne pourrait que renforcer le sentiment d’impuissance de l’État face aux géants du numérique. 

Voir le PDF
Tombé 13/01/2026


Cet amendement doit permettre de s'assurer que cette interdiction d'accès des mineurs de moins de 16 ans aux réseaux sociaux ne soit pas contournée.

Voir le PDF
Rejeté 13/01/2026

Le présent amendement vise à instaurer une protection technique effective des mineurs de moins de quinze ans lors de la souscription d’un contrat de services de communications électroniques, en rendant obligatoire la fourniture d’une carte SIM « mineur ».

Cette carte déclenche automatiquement deux mécanismes de protection :

Un filtrage de contenu au niveau du réseau (notamment via les protocoles DNS ou équivalents), bloquant l’accès aux contenus inadaptés à l’âge de l’enfant, y compris via les connexions Wi-Fi ou en partage de connexion ;

L’activation d’un dispositif de contrôle parental directement sur le terminal.

Ce dispositif constitue une réponse technique simple et robuste au défi de l’identification des mineurs et à la vérification d’âge sur les plateformes en ligne. Il repose sur un constat partagé : la quasi-totalité des mineurs de moins de 15 ans utilisent un abonnement mobile souscrit et financé par leurs parents. L’identification du statut de « mineur » peut donc être établie dès la souscription de l’abonnement, sans avoir à recourir à des procédés intrusifs ou à la collecte de données personnelles sensibles.

Contrairement aux systèmes de vérification d’âge biométriques ou fondés sur l’identification nominative, la carte SIM « mineur » permet de préserver l’anonymat en ligne et les libertés individuelles, tout en apportant une limitation efficace à l’usage non encadré des réseaux sociaux, sites pornographiques ou plateformes à risques par les plus jeunes.

La désactivation éventuelle des protections ne peut intervenir que par un code secret individualisé, créé ou validé par le titulaire de l’autorité parentale au moment de la souscription, assurant ainsi un contrôle effectif et non fictif des adultes responsables.

Enfin, pour garantir l’effectivité de cette obligation, le texte confie à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) un pouvoir de mise en demeure, ainsi que la possibilité de saisir le juge ou de prononcer une amende administrative pouvant atteindre 3 % du chiffre d’affaires mondial de l’opérateur concerné.

Ce dispositif s’inspire notamment des pratiques mises en œuvre au Japon, tout en allant plus loin pour éviter les contournements techniques, assurer un déploiement à l’échelle nationale, et offrir à la France un cadre clair, proportionné et efficace de protection numérique des mineurs, dans le respect des principes fondamentaux.

Voir le PDF
Tombé 13/01/2026

La mise en place d’un couvre-feu numérique pour les mineurs âgés de moins de quinze ans est une mesure éprouvée à l’international, n’ayant montré jusqu’à présent que très peu de résultats.

La chercheuse Orsola Kiràly, spécialisée dans la psychologie des joueuses et des joueurs de jeux vidéo et coautrice d’une étude transversale sur les actions visant à contrôler l’accès aux jeux vidéo en ligne pour les jeunes, a démontré l’inefficacité de telles mesures. Elle s’appuie notamment sur la Chine, qui a déjà tenté de mettre en place un couvre-feu numérique, sans y arriver. La Corée, en 2011 a elle aussi instaurée un couvre-feu numérique pour les jeux vidéo à destination des mineurs. Pour des raisons pratiques, liées au manque de vérification facile et efficace de l’âge de l’utilisateur, la plateforme de jeu vidéo ne pouvait vérifier l’âge des utilisateurs et tous les joueurs durent se plier au couvre-feu, menant à une grande vague de mécontentement et à l’abrogation de la mesure.

L’exemple de l’échec de la mise en place d’un arsenal juridique lourd pour endiguer le même problème de fond, les écrans, dans des pays ultra-connectés, nous questionne sur l’efficacité de l’approche verticale.

Enfin, priver les mineurs d’accès aux écrans limite leur droit à la liberté d’information, d’expression et de participation, protégés par la Convention internationale des droits de l’enfant (CIDE).

Bien que nous partagions le constat émis par le rapport « Enfants et écrans : à la recherche du temps perdu » sur les écrans, néfastes pour la santé mentale, le sommeil et les phénomènes d’addiction qu’ils engendrent, nous pensons que la réponse à ce problème complexe se trouve dans la régulation de ces plateformes. Nous ne pas pouvons interdire des espaces que, en tant d’adultes nous utilisons de la même façon, avec les mêmes usages, sans réfléchir à cette consommation.

Par cet amendement, nous souhaitons rappeler l’importance d’une régulation des conceptions addictogènes et enfermantes de certains services numériques, plutôt que d’y bannir les enfants. Nous devons concevoir une approche horizontale, basée sur l’apprentissage progressif de l’usage des réseaux sociaux, pour éviter de lâcher les jeunes et adolescents dans un monde numérique sans soutien.

Voir le PDF
Tombé 13/01/2026

Cet amendement de repli vise à interdire l’accès aux réseaux sociaux aux utilisateurs âgés de moins de 13 ans. 

Le droit européen a repris depuis longtemps ce seuil à 13 ans dans le RGPD : lorsque le traitement de données à caractère personnel repose sur la base légale du consentement de la personne concernée, l’article 8 du RGPD prévoit que, pour les enfants de moins de 16 ans, « ce traitement n’est licite que si, et dans la mesure où, le consentement est donné ou autorisé par le titulaire de la responsabilité parentale à l’égard de l’enfant ». Il est prévu que « le responsable du traitement s’efforce raisonnablement de vérifier, en pareil cas, que le consentement est donné ou autorisé par le titulaire de la responsabilité parentale à l’égard de l’enfant, compte tenu des moyens technologiques disponibles ». Le RGPD précise que « les États membres peuvent prévoir par la loi un âge inférieur pour ces finalités pour autant que cet âge inférieur ne soit pas en dessous de 13 ans ». C’est aussi la position du Parlement européen adoptée en novembre dernier.

À l’instar donc du positionnement du Parlement européen, mais aussi du Sénat et par cohérence avec la loi dite Marcangeli, nous proposons d’abaisser l’âge d’interdiction à 13 ans. 

Voir le PDF
Tombé 13/01/2026

Cet amendement de repli vise à uniformiser les propositions de législations avec le Parlement européen, le Sénat et la loi déjà promulguée dite Marcangeli en proposant d’interdire les réseaux sociaux aux utilisateurs âgés de moins de 13 ans et à encadrer leur accès après accord parental des utilisateurs âgés de 13 à 16 ans. 

Voir le PDF
Tombé 13/01/2026

Le présent amendement vise à renforcer la sécurité juridique et l’effectivité des dispositions relatives à la protection des mineurs en ligne.

La notion de « fournisseur de services de réseaux sociaux en ligne » recouvre une réalité évolutive, marquée par l’apparition régulière de nouveaux acteurs et la diversification des services proposés. La définition actuelle, est susceptible d’englober des services qui ne relèvent pas, par leur nature ou leur finalité, de réseaux sociaux, tels que les environnements numériques de travail. À l’inverse, elle peut susciter des incertitudes quant au statut de services de messagerie comme WhatsApp, dont les usages et les effets ne sont pas comparables à ceux de plateformes de diffusion massive de contenus comme TikTok.

Afin de sécuriser le champ d’application des obligations prévues par la présente section, il est proposé de confier à l’ARCOM la mission d’établir et de publier chaque année une liste des services relevant de cette qualification.

L’actualisation annuelle de cette liste permettra d’intégrer rapidement les nouveaux réseaux sociaux dans le champ de la régulation, d’éviter tout contournement de la loi et de garantir une application effective des dispositifs de protection des mineurs.

Voir le PDF
Rejeté 13/01/2026

Amendement d’appel 

Cette proposition de loi pose une interdiction fondamentale d’accès aux réseaux sociaux pour les mineurs de moins de 15 ans. Associée à un programme de sensibilisation tout au long de la scolarité, elle permettra aux jeunes d’accéder aux réseaux sociaux à partir de 15 ans avec une compréhension approfondie des enjeux et des risques liés à leur utilisation. Il convient toutefois de souligner qu’à 15 ans un adolescent n’est pas encore pleinement autonome ni indépendant. Jusqu’à sa majorité il reste en effet sous la responsabilité de ses parents, qui doivent pouvoir exercer un droit de regard sur les activités de leur enfant, dans le respect de la vie privée mentionnée à l’article 9 du code civil. 

Il est à ce titre essentiel de conserver une analogie avec la vie courante. En effet, si l’article 1148 du code civil autorise les mineurs à accomplir seuls des « actes courants autorisés par la loi ou l’usage », comme certains achats, de nombreuses activités nécessitent l’autorisation du représentant légal. Ainsi en va-t-il tout simplement des activités extrascolaires. 

Compte tenu des effets dévastateurs et délétères des réseaux sociaux sur nos enfants, qui ne sont plus à démontrer, il ne parait pas concevable aujourd’hui que l’on puisse les laisser y accéder sans contrôle ou autorisation parentale. A ce jour, la création d’un compte sur un réseau social repose sur le droit des contrats et peut donc se faire sans consentement parental, au titre de ces « actes courants ». Faute de jurisprudence précise et étoffée sur la définition de cet acte courant, il parait nécessaire de changer de paradigme et d’inscrire dans la loi, comme le propose cet amendement, que la création d’un compte sur un réseau social n’entre pas dans cette catégorie. 

Nous pourrions même aller plus loin et nous assurer que les représentants légaux des enfants puissent avoir un droit de regard, dans le respect de la convention d’Istanbul et ainsi de la vie privée des mineurs. 

Voir le PDF
Tombé 13/01/2026

Le couvre-feu numérique prévu par le présent article a pour objectif de limiter l’usage des écrans en soirée et durant la nuit, afin de préserver le sommeil des enfants et de sensibiliser les parents aux conséquences d’un usage excessif des outils numériques.

Toutefois, l’instauration d’une telle restriction, en plus d’être vraisemblablement inconstitutionnelle, apparaît moins pertinente qu’un renforcement des actions de prévention et de sensibilisation à destination des jeunes et de leurs parents. Des dispositifs fondés sur l’information, la formation et des campagnes de prévention permettraient une prise de conscience durable et une responsabilisation des familles, sans recourir à une mesure uniforme et contraignante.

Cette approche ne saurait toutefois exonérer les plateformes numériques de leurs responsabilités. Celles-ci doivent continuer à mettre en œuvre des mesures de prévention, de protection des mineurs et de limitation des usages excessifs, conformément aux obligations qui leur incombent.

Cet amendement vise ainsi à supprimer les alinéas instaurant ce couvre-feu numérique.

Voir le PDF
Tombé 13/01/2026

Les algorithmes addictogènes et dangereux des plateformes sont la source de biens des maux causés par les réseaux sociaux. Le rapport de la Commission d’enquête relatif à TikTok présente ainsi les choses : 

« TikTok n’est pas une plateforme neutre. C’est une machine algorithmique conçue pour capter l’attention, l’enfermer dans un circuit fermé de contenus similaires, et l’exploiter : c’est le fameux fil « Pour toi » qui tranche avec les débuts des réseaux sociaux où l’interface était basée sur un contenu chronologique nécessitant une action de l’utilisateur pour le personnaliser. Désormais, dès qu’un utilisateur ouvre l’application, il est happé dans une succession de vidéos recommandées par l’algorithme, calibrées pour provoquer une réaction émotionnelle immédiate (rire, choc, colère, par exemple) mais surtout du temps d’attention. Cet effet n’est pas le fruit du hasard, il est l’aboutissement d’un design psychologique pensé pour provoquer une addiction comportementale. C’est ce qu’on appelle l’effet « terrier de lapin », la rapporteure y revient en détail. L’algorithme, dont TikTok refuse toujours de dévoiler les ressorts, observe ainsi chaque interaction de l’utilisateur : temps de visionnage, arrêt sur image, likes, partages. Puis il affine ses suggestions en fonction de ces signaux faibles. C’est un mécanisme de spirale : plus on regarde un certain type de contenu, plus on est exposé à des vidéos similaires. En quelques clics, un adolescent peut passer d’une vidéo de danse anodine à une vidéo anxiogène sur le suicide ou la haine de soi et s’y retrouver enfermé. Cet algorithme était un point central de nos auditions. Des créateurs de contenu aux chercheurs, toutes et tous sont unanimes : il est opaque, incompréhensible et généré selon des paramètres inconnus des utilisateurs, ce qui est évidemment inadmissible ». 

Puisque la méthode algorithmique qui conduit à cette enfermement dans des bulles anxiogènes particulièrement problématique pour les mineurs, plus vulnérables, il est nécessaire d’interdire l’utilisation d’algorithme de cette façon.

L’exposition à des contenus non sollicités peut exposer plus facilement les mineurs à des contenus qui peuvent atteindre leur sensibilité (nudité, softporn, mutiliations, violences, racisme, antisémitisme …). Aucune mesure d’auto-régulation ne peut contre-carrer la proposition de contenus non sollicités et limiter les risques d’exposition à des contenus choquants et le caractère addictogène de cette fonctionnalité. Ces propositions sont strictement déléguées aux préférences algorithmiques des plateformes ne laissant aucune place aux utilisateurs pour contrôler les contenus qui leur sont exposés. 

Cet amendement a pour vocation de traduire la recommandation n°1 du Président de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. 

Voir le PDF
Non renseignée Date inconnue

L’objet de cet amendement est de garantir une transparence des algorithmes, condition de possibilité pour comprendre leur fonctionnement, les réguler, et lutter contre les phénomènes d’addiction et de surexposition aux réseaux sociaux et aux écrans, notamment chez les plus jeunes. 

Voir le PDF
Non renseignée Date inconnue

Les algorithmes addictogènes et dangereux des plateformes sont la source de biens des maux causés par les réseaux sociaux. Le rapport de la Commission d’enquête relatif à TikTok présente ainsi les choses : 

« TikTok n’est pas une plateforme neutre. C’est une machine algorithmique conçue pour capter l’attention, l’enfermer dans un circuit fermé de contenus similaires, et l’exploiter : c’est le fameux fil « Pour toi » qui tranche avec les débuts des réseaux sociaux où l’interface était basée sur un contenu chronologique nécessitant une action de l’utilisateur pour le personnaliser. Désormais, dès qu’un utilisateur ouvre l’application, il est happé dans une succession de vidéos recommandées par l’algorithme, calibrées pour provoquer une réaction émotionnelle immédiate (rire, choc, colère, par exemple) mais surtout du temps d’attention. Cet effet n’est pas le fruit du hasard, il est l’aboutissement d’un design psychologique pensé pour provoquer une addiction comportementale. C’est ce qu’on appelle l’effet « terrier de lapin », la rapporteure y revient en détail. L’algorithme, dont TikTok refuse toujours de dévoiler les ressorts, observe ainsi chaque interaction de l’utilisateur : temps de visionnage, arrêt sur image, likes, partages. Puis il affine ses suggestions en fonction de ces signaux faibles. C’est un mécanisme de spirale : plus on regarde un certain type de contenu, plus on est exposé à des vidéos similaires. En quelques clics, un adolescent peut passer d’une vidéo de danse anodine à une vidéo anxiogène sur le suicide ou la haine de soi et s’y retrouver enfermé. Cet algorithme était un point central de nos auditions. Des créateurs de contenu aux chercheurs, toutes et tous sont unanimes : il est opaque, incompréhensible et généré selon des paramètres inconnus des utilisateurs, ce qui est évidemment inadmissible ». 

L’exposition à des contenus non sollicités peut exposer plus facilement les mineurs à des contenus qui peuvent atteindre leur sensibilité (nudité, softporn, mutiliations, violences, racisme, antisémitisme …). Aucune mesure d’auto-régulation ne peut contre-carrer la proposition de contenus non sollicités et limiter les risques d’exposition à des contenus choquants et le caractère addictogène de cette fonctionnalité. Ces propositions sont strictement déléguées aux préférences algorithmiques des plateformes ne laissant aucune place aux utilisateurs pour contrôler les contenus qui leur sont exposés. 

Cet amendement a pour vocation de traduire la recommandation n°1 du Président de la Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs. Mais même si les mineurs sont les plus vulnérables, ce problème est généralisé : il convient donc de bannir ces algorithmes addictifs de toutes les plateformes, pour tous les âges. Tel est l’objet de cet amendement. Faute d’application, les autorités doivent pouvoir bannir la plateforme, pour l’obliger à réellement se conformer. 

Voir le PDF
Non renseignée Date inconnue

Comme l’explique le rapport de la Commission d’enquête sur Tiktok, ce réseau social a en effet imposé un nouveau format pour les réseaux sociaux, à savoir le défilement infini de vidéos courtes, ce qui a eu pour effet de favoriser la diffusion de contenus extrêmes, ainsi que le décrit M. Petit : « Tiktok joue vraiment un rôle de vitrine par rapport aux autres plateformes. Les contenus sont beaucoup plus courts et potentiellement plus viraux que ceux publiés sur d’autres médias sociaux, ce qui permet aux influenceurs d’attirer un public qui ne les connaît pas nécessairement. TikTok soumet directement des contenus aux utilisateurs, sans qu’ils aient forcément le temps d’identifier leur créateur, ni même leur titre. Vous êtes donc directement exposé à des images et à des discours, ce qui laisse plus de chance à des propos plus radicaux, différents de votre idéologie ou de votre vision du monde, de vous convaincre ». 

Tant le défilement sans fin et sans temps mort entre les contenus, que le format court et facile à consommer (parfois dénommé « snack content »), sont de nature à désorienter les utilisateurs, notamment en leur faisant perdre la notion du temps.

Depuis plusieurs années l’ensemble des plateformes numériques, créateurs de contenus et publicitaires adoptent les code des formats courts, touchant l’ensemble des tranches d’âge. En 2025, plus de 65 % des 35‑54 ans consomment des vidéos courtes chaque semaine, selon Statista. Le défilement infini impacte d’autant plus les mineurs qui se retrouvent coincés dans ce défilement infini. L’immaturité du neurodéveloppement qui caractérise les enfants et les adolescents se traduit par une incapacité cognitive structurelle à se limiter et à s’autoréguler face aux usages numériques.

Les techniques de captation de l’attention développées par les plateformes numériques depuis le milieu des années 2010 sont largement fondées sur l’analyse comportementale, la captation de l’attention et l’optimisation du temps d’engagement. Ces dispositifs sont explicitement conçus pour maintenir les utilisateurs dans des logiques de dépendance et de captation prolongée. Mais les phénomènes d’addiction ne se limitent pas aux plus jeunes, et concernent aussi les adultes. 

C’est la raison pour laquelle ce défilement sans fin et sans temps morts dans les contenus doit être prohibé pour toutes et tous. Si la plateforme ne s’y conforme pas, il doit être possible de procéder à la fermeture du fournisseur de services de réseaux sociaux en ligne tant que l’inexécution de la mise en demeure perdure. Tel est l’objet de cet amendement. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à garantir un niveau d’investissement des plateformes dans des mesures de modération nécessaire pour la protection des mineurs et l’ensemble des utilisateurs de ces plateformes.

La modération est un réel enjeu pour les plateformes face au volume de contenus publiés tous les jours sur les réseaux sociaux. Les grandes plateformes sont régulièrement pointées du doigt pour leur manque de modération dans leurs contenus publiés sur leurs plateformes laissant le libre accès à des messages, vidéos et photos avec des contenus pouvant être choquants pour les utilisateurs mineurs et majeurs des réseaux sociaux. Il y a un sous investissement chronique de ces plateformes dans la formation et le recrutement des modérateurs.

La Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs estime que « malgré les profits records de la plateforme, l’investissement pour assurer une modération de qualité est dérisoire et bien en-deçà du volume de contenus qu’il faudrait traiter  ». Par ailleurs, les plateformes font de plus en plus recours à des solutions basées sur l’intelligence artificielle pour automatiser la modération. Ces solutions se font au détriment des modérations basées sur des effectifs humains portant potentiellement atteinte à la liberté d’expression dans le cadre de décisions erronées.

L’objet de cet amendement est de traduire dans la loi la recommandation du président de la commission d’enquête sur Tiktok n° 8 : « Contraindre les plateformes de réseaux à dédier une part de leur chiffre d’affaires au recrutement de nouveaux modérateurs, à la formation de ceux-ci et à l’amélioration sensible de leurs conditions de travail. » 

L’auteure de cet amendement précise que le chiffre avancé dans le dispositif juridique peut-être débattu par le biais de sous-amendements. 

Voir le PDF
Non renseignée Date inconnue

L’article 4 vise à renforcer l’éducation des élèves aux risques liés aux réseaux sociaux, notamment en matière de santé mentale, de cyberharcèlement et de sobriété numérique. L’efficacité de ce dispositif dépendra toutefois largement de la capacité des établissements à s’en saisir concrètement, ainsi que des moyens humains et pédagogiques dont ils disposeront pour les mettre en œuvre. Ainsi, pour garantir l’efficacité de cette démarche éducative, il est indispensable d’élargir l’effort de prévention au-delà du cadre scolaire et d’impliquer directement les familles.

Cet amendement propose donc de permettre au Gouvernement de lancer, à titre expérimental, une plateforme nationale d’accompagnement aux usages numériques et des réseaux-sociaux à destination des parents, des mineurs et des familles. Cette plateforme pourrait être lancée par le Gouvernement dans un délai de deux ans à compter de la promulgation de la loi, qui pourra également mettre en oeuvre une campagne de communication destinée à sensibiliser largement le public à son existence et aux bonnes pratiques en ligne et sur les réseaux-sociaux.

Cette plateforme permettrait d’offrir à tous, parents, mineurs, familles, éducateurs, des outils clairs, accessibles et actualisés pour comprendre les risques liés aux usages des réseaux sociaux, en particulier par les mineurs, et à adopter des pratiques responsables. Elle constituerait un point d’entrée unique regroupant modules pédagogiques, ressources de prévention, conseils pratiques et explications sur les dispositifs d’accompagnement et de signalement existants.

Une campagne nationale de communication garantirait sa visibilité et encouragerait son appropriation par l’ensemble de la population. Ce dispositif, complémentaire des mesures éducatives prévues à l’article 4, renforcerait ainsi la capacité collective à protéger les mineurs sur les réseaux-sociaux.

Voir le PDF
Non renseignée Date inconnue

Une règle sans sanction est inefficace. Afin d’assurer le respect de l’interdiction du téléphone portable dans les lycées, il est nécessaire de prévoir explicitement une réponse disciplinaire en cas de manquement.

Voir le PDF
Non renseignée Date inconnue

L’urgence de la situation impose une réponse rapide. Reporter l’entrée en vigueur du délit de négligence numérique de trois ans envoie un signal de faiblesse. Un délai d’un an permet une sensibilisation suffisante tout en assurant une protection effective des enfants.

Voir le PDF
Non renseignée Date inconnue

La sanction doit s’accompagner d’une démarche éducative. Ce stage vise à responsabiliser les parents et à prévenir la réitération de comportements mettant en danger la santé et la sécurité des enfants.

Voir le PDF
Non renseignée Date inconnue

Afin de garantir la sécurité juridique et d’éviter toute appréciation arbitraire, il est nécessaire de préciser les critères permettant de caractériser la négligence numérique.

Voir le PDF
Non renseignée Date inconnue

Les chefs d’établissement et les enseignants hésitent parfois à appliquer strictement les interdictions par crainte de contentieux. Cet amendement vise à sécuriser juridiquement l’institution scolaire afin de garantir l’effectivité des règles et de soutenir l’autorité éducative.

Voir le PDF
Non renseignée Date inconnue

Le présent amendement vise à instaurer une contribution financière des acteurs du numérique et des éditeurs de services de réseaux sociaux, destinée à financer la prévention et la prise en charge des dommages sanitaires et sociaux causés par l’exposition excessive des mineurs aux écrans.

Le modèle économique des grandes plateformes numériques repose sur la captation maximale de l’attention, utilisant des algorithmes de recommandation dont les effets addictifs sont scientifiquement documentés. Pour les mineurs, et singulièrement les moins de 3 ans, cette exposition engendre des externalités négatives massives : retards de langage, troubles du neuro-développement, troubles du sommeil et de la santé mentale.

À l’instar du droit de l’environnement ou des taxes sur le tabac et l’alcool, il est légitime que les acteurs qui génèrent des risques pour la santé publique contribuent à la réparation des dommages. Le coût social de la surexposition aux écrans (besoin accru en orthophonie, pédopsychiatrie, baisse des performances scolaires) est aujourd’hui supporté par la collectivité nationale et l’Assurance Maladie. Cet amendement propose que les entreprises du numérique, dont les bénéfices sont corrélés au temps passé par les utilisateurs sur leurs interfaces, participent au financement de la politique de prévention.

Cette contribution se justifie d’autant plus que les recommandations de santé publique sont claires et pourtant bafouées par la conception même de certains services. Le carnet de santé des enfants indique expressément l’interdiction des écrans avant 3 ans. En facilitant l’accès des plus jeunes à des contenus inadaptés ou addictifs, les acteurs du numérique contreviennent à un principe de précaution élémentaire.

En attendant que le Gouvernement prenne des dispositions plus strictes pour protéger la population et notamment les plus jeunes cet amendement vise affirmer la juste place des responsabilités des acteurs du numériques dans leur ensemble.

Voir le PDF
Non renseignée Date inconnue

Par cet amendement du groupe LFI, nous souhaitons souligner l’importance de doter l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) des moyens suffisants pour faire appliquer les obligations légales qui s’imposent aux plateformes numériques exerçant leur activité en France.

Au fil des années, l’Arcom s’est vu confiée toujours plus de missions par différents textes relevant à la fois du droit national et du droit européen qui ont étendu sa compétence à de nouveaux acteurs du numérique, tels que les services de médias audiovisuels à la demande et les plateformes de partage de contenus (réseaux sociaux, moteurs de recherche). A titre d’illustration, le règlement européen sur les services numériques – dont le contrôle de l’application a été confié à l’Arcom – vise à responsabiliser ces acteurs et protéger la société et les individus face aux contenus illégaux, tels que les contenus terroristes, pédopornographiques, haineux ou discriminatoires, mais aussi dans la lutte contre la désinformation et les algorithmes addictifs ou trompeurs, et prévoit des dispositions particulières en ce qui concerne la protection des mineurs.

Or, lors des auditions organisées par la commission d’enquête sur Tiktok, M. Ajdari, président de l’Arcom, relevait que les effectifs consacrés à l’application du DSA sont insuffisants (« actuellement, 23 équivalents temps plein (ETP) se consacrent au règlement sur les services numériques, sur un effectif total de 350 personnes […] nous connaissons les contraintes budgétaires, mais l’Arcom devra vraisemblablement monter en puissance si elle veut conduire elle-même des études et démultiplier son action – nos collègues allemands comptent une soixantaine de personnes à leur disposition pour un périmètre de compétences comparable. »). Par conséquent, la présente rapporteure de cette proposition de loi appelait à « Renforcer les moyens humains, techniques et financiers de l’Arcom afin de lui permettre d’assurer pleinement ses missions de supervision des plateformes numérique dans le cadre du DSA, en particulier en matière de protection des mineurs, de suivi du respect des obligations des plateformes, et de soutien à la production de données et de travaux de recherche relatifs aux risques systémiques inhérents à ces plateformes » (Recommandation n°5 du rapport).

Nous souhaitons donc concrétiser cette recommandation par l’établissement d’un rapport établissant précisément les besoins humains et financiers de l’Arcom pour mener ses différentes missions à bien, et ainsi, alors que nous sommes toujours en pleine période d’examen budgétaire du budget 2026, de proposer des amendements de crédits pour y répondre.

Voir le PDF
Non renseignée Date inconnue

Par cet amendement du groupe LFI, nous souhaitons questionner les moyens humains et financiers que mettent en place les plateformes numériques pour procéder au retrait des contenus signalés notamment comme dangereux et/ou illicites.

Alors que l’essor de l’intelligence artificielle semble se confirmer dans de nombreux domaines de la vie, on assiste depuis plusieurs années à l’annonce par les différentes plateformes numériques de plan de licenciements massifs de modérateurs humains des contenus signalés (suppression de 300 postes aux Pays-Bas par TikTok en septembre 2024, suppression de 2 000 postes en Espagne travaillant pour Meta en mai 2025...) pour les remplacer par des outils d’intelligence artificielle, réputés plus efficaces, mais surtout représentant un coût inférieur. Or, il est démontré que l’IA détecte encore mal une partie du contenu indésirable, notamment les abus et la cruauté, ce qui expose les utilisateurs les plus vulnérables, comme les personnes mineures à des contenus toujours plus dangereux, alors même que la modération actuelle n’est pas satisfaisante.

Par conséquent, il est indispensable, afin de rendre effectives les différentes obligations existantes, que les plateformes numériques se dotent de moyens humains suffisants pour traiter les signalements. Or, ces effectifs sont aujourd’hui insuffisants : à titre d’illustration, concernant la modération en France, une représentante de TikTok, qui s’exprimait lors d’une audition à l’Assemblée nationale le 2 juillet dernier, estimait à 509 le nombre de modérateurs francophones chargés de couvrir l’Europe – ce qui semble dérisoire par rapport aux nombre de contenus potentiellement dangereux et/ou illicites à modérer. Si la question du recrutement de modérateurs humains est indispensable, la question de leurs conditions de travail et de rémunération doit également être prise en compte pour assurer la formation d’un personnel qualifié et épanoui au travail – les travailleurs étant exposés à un risque particulier de santé mentale en raison de la dangerosité des contenus visionnés. Or, la presse se fait régulièrement l’écho de conditions de travail particulièrement difficiles (sous-traitance du travail, rémunération faible, stress post-traumatiques en raison de l’absence d’accompagnement des modérateur•rices humains...), ce que confirme également les conclusions de la commission d’enquête qui soulignent qu’ « Au-delà de la formation, les conditions de travail des modérateurs doivent faire l’objet d’une attention particulière », sans proposer néanmoins de mesures coercitives pour les améliorer concrètement.

Nous proposons donc d’approfondir cette réflexion en établissant un rapport précisant comment avoir recours à de la modération humaine des contenus, de l’opportunité de créer une obligation légale de modération humaine et de réfléchir aux différentes modalités de sa mise en oeuvre concrète afin d’assurer de façon effective la protection des utlisateurs et notamment des mineurs.

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à renforcer la protection des enfants face à leur exposition aux écrans dès le plus jeune âge, en interdisant la présence et l’usage de tout écran dans les lieux qui les accueillent : maternités, maisons de naissance, établissements d’accueil des enfants de moins de six ans, écoles maternelles et élémentaires.

Jusqu’à l’été dernier, il n’existait pas d’interdiction d’exposition des jeunes enfants aux écrans les lieux les accueillants. Un premier pas a été fait avec l’arrêté du 2 juillet 2025, modifiant la charte nationale pour l’accueil du jeune enfant. Celui-ci interdit désormais l’exposition des enfants de moins de trois ans aux écrans, notamment dans les crèches, haltes-garderies et lieux d’accueil proposés par les assistants maternels.

Pour autant, un nombre important d’enfants risques d’être encore exposés à des écrans avant un âge recommandé, dans les maternités ou les écoles maternelles ou élémentaires. C’est pourquoi cet amendement vise à étendre cette interdiction à ces lieux.

Si l’arrêté du 2 juillet 2025 constitue une avancée bienvenue, il demeure néanmoins insuffisant. En effet, bien qu’il interdise l’exposition des enfants aux écrans, les lieux concernés restent largement équipés de dispositifs numériques.

C’est pourquoi, le présent amendement vise à exclure, à l’horizon 2028, l’ensemble des écrans des établissements accueillant de jeunes enfants : maternités, maisons de naissance, établissements d’accueil des enfants de moins de six ans, écoles maternelles et écoles élémentaires.

À titre de rappel, les enfants âgés de 3 à 10 ans passent en moyenne 728 heures par an devant un écran, tandis qu’un tiers des enfants de 0 à 3 ans prend ses repas face à un écran. Ces chiffres soulignent l’urgence d’une action publique ambitieuse afin de préserver le développement, la santé et le bien-être des enfants.

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à demander au Gouvernement la remise d’un rapport évaluant le coût total de la numérisation de l’école et des enseignements, tant en matière d’équipements matériels que de solutions logicielles.

En effet, il n’existe à ce jour aucun chiffrage exhaustif et consolidé des dépenses liées à la numérisation de l’école, qu’elles soient supportées par l’État, les collectivités territoriales ou les autres institutions publiques concernées. Un tel rapport permettrait de mesurer le poids réel de ces investissements dans le budget de l’Éducation nationale et des collectivités, et d’en apprécier les effets d’éviction éventuels au détriment d’autres outils pédagogiques et fournitures essentielles.

Si certains usages du numérique peuvent présenter des avantages pédagogiques ponctuels, force est de constater que, dans un contexte de baisse généralisée des résultats scolaires et des moyens, les outils numériques n’ont pas démontré de manière probante leur plus-value pédagogique et didactique dans les classes par rapport à des équipements moins onéreux. À l’inverse, les bénéfices de la lecture sur support papier et de l’écriture manuscrite sur les apprentissages, la mémorisation et la concentration sont aujourd’hui largement documentés par la recherche scientifique. Surtout, la dangerosité des écrans est consensuelle et avérée. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste et Social vise à demander au Gouvernement la remise d’un rapport portant sur les collusions existantes entre le monde de la recherche, de l’enseignement et les entreprises du secteur des solutions numériques — qu’elles soient logicielles ou matérielles — relevant des technologies éducatives dites edtech, ainsi que certaines multinationales du numérique.

D’après une enquête de la cellule d’investigation de Radio France, des liens étroits existeraient entre une fraction du monde de la recherche, des intérêts économiques parfois étrangers et les pouvoirs publics. Cette enquête souligne notamment que « l’industrie du numérique bénéficie de subventions publiques importantes et développe des partenariats avec la recherche afin de favoriser l’introduction massive des écrans à l’école ». Face à ces révélations faisant état de collusions préoccupantes entre intérêts privés et acteurs publics, la remise d’un tel rapport apparaît indispensable afin de clarifier la nature, l’ampleur et les implications de ces relations, dans un souci de transparence et d’indépendance de l’action publique en matière éducative.

Par ailleurs, si le développement des technologies éducatives est initialement justifié par l’objectif affiché d’améliorer les performances scolaires et de réduire les inégalités d’apprentissage, force est de constater que leur déploiement ne s’est pas accompagné d’une amélioration démontrée des résultats des élèves. Dans ce contexte, l’essor des edtech interroge moins leur efficacité pédagogique réelle que les logiques économiques et industrielles qui sous-tendent leur promotion au sein du système éducatif, justifiant d’autant plus la nécessité d’un rapport approfondi sur ces enjeux.

Voir le PDF
Non renseignée Date inconnue

Le présent amendement vise à instaurer une responsabilité spécifique des plateformes de réseaux sociaux en cas de diffusion de contenus violents manifestement illicites, et non simplement à leur imposer des obligations de moyens.

Il prévoit que la responsabilité du fournisseur de réseau social est engagée dès lors qu’un contenu violent est diffusé sur la plateforme sans retrait rapide, lorsque ce contenu est objectivement identifiable comme tel, même sans signalement préalable. Sont notamment visés : les vidéos de violences réelles, les scènes de mise à mort ou de souffrance intentionnelle, les contenus portant atteinte à la dignité humaine ou glorifiant la violence.

Cette responsabilité ne repose donc pas uniquement sur un manquement à une obligation procédurale, mais sur la présence effective du contenu.

Afin d’assurer l’effectivité de cette responsabilité, l’amendement confère à l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM) le pouvoir de prononcer une amende administrative, proportionnée à la durée de mise en ligne, à la viralité du contenu et à la gravité des atteintes commises. Le plafond de la sanction est fixé à 3 % du chiffre d’affaires mondial de l’entreprise ou du groupe concerné.

Enfin, l’article s’applique sans préjudice du règlement européen (UE) 2022/2065 (Digital Services Act), dont il complète les exigences en introduisant une réponse nationale ciblée et contraignante aux dérives les plus graves observées sur les plateformes.

Voir le PDF
Non renseignée Date inconnue

Cet amendement vise à affiner la protection des mineurs en ligne en excluant de manière explicite les plateformes de partage de vidéos pures des obligations imposées aux réseaux sociaux par cet article. 

En effet, si les réseaux sociaux exposent souvent les enfants de moins de quinze ans à des risques accrus d’addiction aux écrans, de cyberharcèlement ou de contenus inappropriés via des interactions non modérées, les plateformes vidéo dédiées telles que YouTube mais aussi les acteurs français comme Dailymotion ou Vimeo offrent un environnement plus contrôlé, centré sur la diffusion de contenus sans fonctionnalités sociales invasives. 

Cette exception permet de préserver un accès raisonné aux vidéos en ligne, parfois utiles voire nécessaires pour l’éducation et la culture. Par exemple, des ressources pédagogiques comme des documentaires ou tutoriels doivent pouvoir enrichir l’apprentissage scolaire tout en évitant les dangers des réseaux sociaux. Ainsi, l’amendement équilibre la lutte contre l’exposition excessive aux écrans et aux risques numériques, tout en favorisant un usage positif et encadré des technologies, aligné sur les besoins développementaux des mineurs. Il renforce la confiance dans l’économie numérique en adaptant la régulation aux spécificités des services, évitant une interdiction généralisée qui pourrait freiner l’innovation éducative. 

Voir le PDF
Non renseignée Date inconnue

 Cet amendement vise à affiner ce dispositif qui propose d’interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans pour les protéger des risques d’exposition excessive aux écrans, de harcèlement cybernétique, d’addiction et de contenus inappropriés, tels que soulignés par des études récentes et des exemples internationaux comme l’interdiction aux moins de 16 ans en Australie. 

Cependant, une interdiction absolue risque de méconnaître les usages réels des mineurs, pour qui les communications privées sont essentielles à la socialisation, aux échanges familiaux voire scolaires. Les services de messagerie one-to-one ou en petits groupes fermés (moins de 50 personnes) ne présentent pas les mêmes dangers que l’accès aux plateformes publiques et à leurs défilement perpétuel de vidéos, sont dépourvues d’algorithmes addictifs ou de risque d’exposition massive. 

En introduisant des dérogations pour ces outils spécifiques et en proposant de les appliquer aux mineurs de plus de 10 ans – âge où émerge une maturité accrue pour des interactions limitées –, cet amendement équilibre protection et besoins quotidiens. Il évite l’isolement social tout en renforçant l’efficacité de la mesure, alignée sur les priorités gouvernementales pour une entrée en vigueur dès septembre 2026. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement vise à affiner le couvre-feu numérique proposé qui impose une désactivation uniforme des comptes sur les réseaux sociaux pour tous les mineurs, tous les jours, entre 22h et 8h. Bien que louable, cette mesure générale ne tient pas suffisamment compte des différences développementales et des besoins variés selon l’âge, nous exposant au risque d’une application trop rigide et d’un rejet par les populations ciblées. 

Les mineurs de moins de 16 ans, particulièrement vulnérables aux effets néfastes des écrans – troubles du sommeil, addictions, exposition à des contenus inappropriés – bénéficient d’une désactivation de 22h à 8h les veilles de jours scolaires ou ouvrables, favorisant un repos essentiel pour leur croissance cognitive et émotionnelle, comme le souligne le rapport « Enfants et écrans – À la recherche du temps perdu » de 2024 tout en permettant plus d’autonomie les veilles de jours fériés. Pour les 16‑18 ans, une fenêtre plus souple (23h-6h) reconnaitrait leur maturité croissante et leurs responsabilités scolaires ou pré-professionnelles, tout en prévenant les risques d’hyperconnexion nocturne. 

Cette adaptation proportionnée vise à renforcer l’efficacité préventive, équilibre protection et autonomie, et aligne la régulation sur les réalités quotidiennes, sans entraver les usages diurnes légitimes. Elle protège ainsi mieux la santé publique infantile face à l’omniprésence numérique. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement vise à renforcer la protection des mineurs contre les risques liés à l’exposition excessive aux écrans et aux contenus inappropriés sur les plateformes numériques et réseaux sociaux. En effet, les enfants et adolescents sont particulièrement vulnérables aux effets néfastes des écrans, tels que les troubles du développement cognitif, les addictions et l’accès à des matériaux violents ou pornographiques, comme l’a souligné le rapport de la commission d’experts « Enfants et écrans – À la recherche du temps perdu » remis au président Macron en avril 2024. 

Les VPN permettent souvent à des utilisateurs mineurs de contourner les mécanismes de vérification d’âge, les filtres parentaux et les restrictions géographiques, facilitant ainsi l’accès à des contenus pourtant prohibés pour les mineurs. En interdisant la fourniture de ces services à des personnes de moins de 18 ans sans autorisation parentale explicite et vérifiable, cette mesure vise à empêcher les méthodes de contournement tout en impliquant les parents dans la supervision. 

Les restrictions imposées aux droits et libertés des mineurs par rapport aux adultes existent dans notre société et sont justifiées par de nombreux arguments philosophiques, juridiques et sociétaux, ancrés dans la reconnaissance de leur vulnérabilité et de leurs besoins spécifiques. Ces restrictions visent à protéger leur développement tout en favorisant une autonomie progressive. 

Voir le PDF
Non renseignée Date inconnue

L’extension de l’interdiction des téléphones portables aux lycées, déjà en vigueur dans les écoles primaires et les collèges depuis 2018, viserait à améliorer la concentration des élèves, à réduire les phénomènes de harcèlement et à favoriser un climat scolaire serein. Cependant, les lycéens présentent une maturité et des besoins pédagogiques différents, notamment en termes d’autonomie et d’utilisation raisonnée des outils numériques. 

Le présent amendement propose de transformer cette extension en expérimentation d’une durée d’un an. Cette période de test permettra de recueillir des données objectives sur les effets réels de la mesure : impact sur l’attention en classe, les interactions sociales, les usages éducatifs du numérique, ainsi que sur les contournements et difficultés éventuelles de mise en œuvre dans les lycées généraux, technologiques et professionnels. 

À l’issue de cette année, le Gouvernement remettra au Parlement un rapport d’évaluation détaillé. Ce rapport analysera les retours des chefs d’établissement, des enseignants, des parents et des élèves, et proposera, le cas échéant, les modalités de pérennisation ou les ajustements nécessaires. Cette approche progressive et évaluative garantirait une décision éclairée, respectueuse des spécificités du lycée et conforme à l’intérêt supérieur des élèves. 

Voir le PDF
Non renseignée Date inconnue

 Plutôt qu’un dispositif qui pourrait se contenter de culpabiliser voire placer en situation de risque juridique les parents sans leur offrir de solution, cet amendement vise à accroitre la sensibilisation des parents aux risques liés à l’usage des écrans par leurs enfants. Il modifie l’article 371‑1 du code civil, qui définit l’autorité parentale comme un ensemble de droits et devoirs visant l’intérêt supérieur de l’enfant, en y intégrant une vigilance explicite aux effets des écrans sur sa santé physique et mentale. 

Cette précision répond à un consensus scientifique alarmant, confirmé par le rapport de la commission d’experts « Enfants et écrans – À la recherche du temps perdu », remis au président Macron en avril 2024. Celui-ci souligne les risques d’une exposition excessive : troubles du sommeil (16 % des 11 ans et 40 % des 15 ans manquent de plus de 2 heures de sommeil en semaine), sédentarité accrue (33 % des moins de 3 ans inactifs en extérieur), obésité (21 % des 8‑17 ans en surpoids), myopie épidémique, et impacts cognitifs comme des retards langagiers ou attentionnels, sans oublier les effets mentaux tels que l’anxiété, la dépression et les liens bidirectionnels avec le TDAH. 

En responsabilisant les parents de manière générique via cette disposition légale, l’amendement promeut une sensibilisation accrue : limites d’âge (aucun écran avant 3 ans, encadré ensuite), supervision active et modélisation de comportements sains. Cela prévient les inégalités sociales amplifiées par les écrans, favorise un développement harmonieux et renforce la protection infantile sans entraver les libertés parentales, aligné sur les préconisations du rapport pour une action collective urgente. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste- Social vise à interdire les publicités sur support numérique sur les voies de circulation publique, dans les aéroports, gares, stations et arrêts de transports en commun de personnes. Cet amendement est inspiré de la proposition de loi relative à l’interdiction de toute forme de publicité numérique et lumineuse dans l’espace public.

Les autorités de santé publique recommandent de ne pas exposer les jeunes enfants aux écrans. Or, l’espace public est largement occupé par des écrans de publicité sur des supports numériques, s’imposant à tout un chacun, dont aux enfants. De facto, l’implantation de plus en plus importante de ces supports numérique, dans tout l’espace public – rue, commerces, gares, .. – nuit gravement aux objectifs sanitaires de limitation de l’exposition et de la surexposition des jeunes enfants aux écrans en mettant en libre affichage dans l’espace public des publicités numériques.

Il est à noter que la sensibilité des enfants est plus importante aux stimulations lumineuses des écrans. Le fonctionnement de ces publicités a un fort effet de captation sur l’attention sur des jeunes enfants. Il y a une contradiction évidente entre le déploiement de ces dispositifs et les recommandations sanitaires. La présence de plus en plus importante des écrans dans l’espace public participe à leur banalisation, tout en soumettant les enfants aux pressions commerciales dès leur plus jeune âge.

Cet amendement s’inspire directement de la proposition de loi de Delphine Batho (https ://www.assemblee-nationale.fr/dyn/16/textes/l16b0888_proposition-loi#). Cette proposition de loi cherchant à réguler la place des écrans, notamment par ses articles 3, 6 et 7, et cherchant à réguler la publicité par son article 3, cet amendement a toute sa place pour réguler les écrans publicitaires dans l’espace public. 

Voir le PDF
Non renseignée Date inconnue

Cet amendement du groupe Écologiste- Social vise à interdire les publicités sur support numérique près des écoles. Cet amendement est inspiré de la proposition de loi relative à l’interdiction de toute forme de publicité numérique et lumineuse dans l’espace public.

Les autorités de santé publique recommandent de ne pas exposer les jeunes enfants aux écrans. Or, l’espace public est largement occupé par des écrans de publicité sur des supports numériques, s’imposant à tout un chacun, dont aux enfants. De facto, l’implantation de plus en plus importante de ces supports numérique, dans tout l’espace public – rue, commerces, gares, .. – nuit gravement aux objectifs sanitaires de limitation de l’exposition et de la surexposition des jeunes enfants aux écrans en mettant en libre affichage dans l’espace public des publicités numériques.

Il est à noter que la sensibilité des enfants est plus importante aux stimulations lumineuses des écrans. Le fonctionnement de ces publicités a un fort effet de captation sur l’attention sur des jeunes enfants. Il y a une contradiction évidente entre le déploiement de ces dispositifs et les recommandations sanitaires. La présence de plus en plus importante des écrans dans l’espace public participe à leur banalisation, tout en soumettant les enfants aux pressions commerciales dès leur plus jeune âge.

Cet amendement de repli réserve cette interdiction aux abord des écoles, collèges et lycées, en cohérence avec la présente proposition de loi dont l’objectif est d’éviter la surexposition des jeunes aux écrans. 

Voir le PDF
Non renseignée Date inconnue

La protection des mineurs en ligne constitue une exigence de protection de l’enfance et de santé publique. Les risques liés aux usages numériques des enfants et des adolescents sont aujourd’hui largement documentés, qu’il s’agisse du cyberharcèlement, de la surexposition à des contenus inadaptés ou de la captation excessive de l’attention.

Les grandes plateformes numériques tirent un profit économique considérable des usages en ligne, y compris de ceux impliquant des mineurs. Il est donc légitime que la charge financière, technique et organisationnelle de la protection des mineurs repose sur ces acteurs économiques, et non sur les familles ni sur la collectivité.

Le présent amendement vise à gager cette proposition de loi en mettant à contribution les plateformes de réseaux sociaux.

Voir le PDF
Non renseignée Date inconnue

Le présent amendement du groupe Écologiste et Social vise à distinguer, dans la LCEN, la responsabilité entre un simple hébergement, neutre, des contenus en ligne et une intervention active au moyen d’un algorithme de mise en avant des contenus, en la qualifiant d’activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Voir le PDF
Non renseignée Date inconnue

Le présent amendement du groupe Écologiste et Social vise à distinguer la responsabilité entre un simple hébergement, neutre, des contenus en ligne et une intervention active au moyen d’un algorithme de mise en avant des contenus, en la qualifiant d’activité d’édition.

En effet, le rapport de la commission d’enquête sur les effets psychologiques de TikTok sur les mineurs a mis en évidence le rôle déterminant des mécanismes de recommandation dans l’exposition des jeunes à des contenus dangereux, en décrivant un « piège algorithmique » susceptible d’enfermer des mineurs dans des spirales de contenus violents, choquants ou faisant la promotion de l’automutilation ou du suicide.

Le règlement DSA définit le « système de recommandation » comme un dispositif, entièrement ou partiellement automatisé, permettant de suggérer ou de hiérarchiser des informations sur l’interface d’une plateforme. Il maintient par ailleurs le régime d’exemption de responsabilité de l’hébergeur, sous conditions, pour les informations stockées à la demande d’un destinataire du service. La jurisprudence de la Cour de justice de l’Union européenne précise toutefois que le prestataire ne peut être regardé comme un intermédiaire « neutre » lorsqu’il joue un rôle actif, notamment en apportant une assistance consistant à optimiser la présentation ou à promouvoir des contenus, ce qui le prive du bénéfice de l’exonération attachée à l’hébergement. Ainsi, l’acte de suggérer ou de hiérarchiser des informations fournies par des utilisateurs doit donc être encadré juridiquement pour les services de réseau sociaux en ligne.

Par ailleurs, cette clarification de responsabilité doit être conçue pour rester compatible avec l’architecture du DSA. Elle ne crée pas une obligation générale de surveiller les contenus — interdite par le règlement — mais rattache la responsabilité à l’intervention de la plateforme lorsqu’elle choisit de recommander, hiérarchiser et amplifier certains contenus auprès du public. Elle renforce ainsi l’incitation des opérateurs à concevoir et paramétrer leurs systèmes de recommandation de manière neutre, en cohérence avec les obligations de transparence imposées aux plateformes en ligne.

Voir le PDF
Non renseignée Date inconnue

L’objet de l’article 3 est d’accompagner la publicité en faveur de réseaux sociaux de messages de prévention d’une part ; et de faire figurer ces messages de prévention sur les emballages des terminaux numériques, d’autre part. 

C’est une première étape, qui gagnerait à être accompagnée par l’interdiction de la publicité en faveur des écrans en général. Il n’est pas possible à la fois d’autoriser très une publicité généralisée pour (et parfois sur) des écrans et des outils susceptibles de favoriser l’usage des réseaux sociaux, et en même temps, d’espérer faire de la prévention. 

Il est donc nécessaire, comme cela a été fait pour la cigarette, d’interdire la publicité en faveur des terminaux numériques neufs.

Voir le PDF
Non renseignée Date inconnue

Le présent article impose la création et la nomination, au sein de chaque établissement scolaire, d’un référent numérique accessible aux élèves et à leurs représentants légaux.

Si la formation à l’usage des outils numériques et la sensibilisation aux risques associés sont déjà dispensées dans les établissements, il apparaît nécessaire de désigner une personne ressource identifiée, capable de répondre aux questions des élèves et des familles, d’accompagner la mise en œuvre des actions de sensibilisation et de veiller à la promotion d’usages responsables du numérique.

Les missions de ce référent, précisées par décret en Conseil d’État, permettront d’assurer une cohérence pédagogique, de renforcer la prévention des risques numériques et d’offrir un point de contact concret et continu pour l’ensemble de la communauté éducative.

Cette mesure vise à compléter la formation existante en offrant aux élèves et aux familles un accompagnement pratique et accessible, favorisant l’éducation à la citoyenneté numérique et la protection des mineurs dans l’usage des outils numériques.